TL; DR: una de las mayores revoluciones en inteligencia artificial en los últimos 30 años es un cambio a enfoques estadísticos y basados en datos para construir sistemas inteligentes. Los sistemas basados en datos suelen ser mucho más robustos y confiables. A medida que obtengamos más datos específicos de tareas de expertos en dominios específicos, espero que podamos construir sistemas expertos (confiables) con los que se soñó en las décadas de 1970 y 1980.
Para citar Wikipedia: “un sistema experto es un sistema informático que emula la capacidad de toma de decisiones de un experto humano”.
Bajo una interpretación amplia de esta definición, muchos sistemas actualmente están haciendo cosas que uno podría imaginar que hace un experto humano.
- Cómo construir un sistema de recomendación médica
- ¿Cuál es la diferencia entre el aprendizaje semi-supervisado y el aprendizaje híbrido supervisado-no supervisado?
- ¿Cuál es la complejidad temporal del algoritmo de retropropagación para entrenar redes neuronales artificiales?
- Cómo obtener inteligencia
- ¿Qué dicen los profesores universitarios sobre las técnicas de aprendizaje automático aplicadas en sus campos?
Por ejemplo:
– Amazon recomienda que los artículos se emparejen con las cosas que está comprando actualmente o considerando comprar.
– Traducción de idiomas de Google.
– Autos sin conductor
Todos estos ejemplos son cosas que requieren cierto nivel de habilidad o experiencia por parte de un humano para realizar. Si se compararan estos ejemplos con los ejemplos estereotipados de los años setenta y ochenta, la lista anterior de alguna manera parece menos profunda o más genérica. Una de las principales razones por las que se da el caso se debe a la disponibilidad de datos (por ejemplo, lo que otras personas compran en Amazon, los textos traducidos disponibles o el seguimiento de cómo conducen los humanos en entornos urbanos).
En la actualidad, la mayoría de los sistemas inteligentes se desarrollan de forma predominantemente basada en datos. En contraste, la mayoría de los sistemas expertos más antiguos tenían dificultades para construir una base de conocimiento adecuada para ser realmente útiles en la práctica. Como resultado, los sistemas expertos más antiguos no eran muy robustos y pueden fallar cuando se enfrentan a una situación que no estaba codificada en su base de conocimiento. Para obtener más información, consulte la sección de Wikipedia sobre las desventajas del sistema experto.
Eso no quiere decir que no hay sistemas en estos días que se esfuercen por alcanzar un nivel de “pericia” por el que se esforzaron los sistemas más antiguos. El principal ejemplo de esto es IBM Watson. Por ejemplo, vea este artículo sobre la solicitud de Watson para asistencia médica: Watson de IBM es mejor para diagnosticar el cáncer que los médicos humanos (Wired UK). Pero incluso los sistemas como Watson se desarrollan de una manera predominantemente basada en datos, y creo (corríjame si me equivoco) usan operadores lógicos poco profundos para tomar decisiones o recomendaciones, en comparación con los motores de inferencia lógica más complicados utilizados en el 1970 y 1980.
Como otro ejemplo, muchas cirugías en estos días se realizan con el sistema quirúrgico da Vinci. Realmente podemos rastrear todas las acciones que los cirujanos hacen cuando usan este sistema. Entonces, en principio, una vez que tenemos suficientes datos, podemos entrenar una versión automatizada de este sistema para realizar operaciones simples. Por ejemplo: la subvención Big NSF financia investigaciones para entrenar robots para trabajar con humanos.
Una conclusión razonable a partir de esto es que los datos son (en el primer nivel) más importantes que las inferencias lógicas complejas. Por ejemplo, la lógica proposicional es solo una forma compacta de almacenar múltiples escenarios IF-THEN-ELSE diferentes. En un caso ingenuo, si tenemos suficientes datos, podemos desplegar tales declaraciones condicionales en una gran tabla de búsqueda (y, por lo tanto, descartar todas las nociones de lógica proposicional), y examinar qué puntos de datos caen en cada celda de la tabla. Por supuesto, hacer que los dos (datos e inferencia compleja) trabajen en sinergia es aún mejor, que es lo que muchos proyectos de investigación se esfuerzan por hacer hoy en día.