Creo que las ideas de la teoría de la complejidad que personas como Scott Aaronson [1,2] y Leslie Valiant [3] tienen para ofrecer en el campo son buenas adiciones a un curso de IA.
Mis razones son desde dos perspectivas diferentes: (1) Estos análisis proporcionan una base firme para comprender la IA desde un punto de vista filosófico. A menudo, los estudiantes que aprueban un curso de IA no tienen idea de cómo responder a las preguntas filosóficas sobre IA. En el mejor de los casos, se les ha informado sobre algunas ideas filosóficas tradicionales que ni siquiera son remotamente relevantes para la investigación moderna de IA (por ejemplo, la infame sala china). El enfoque computacional ofrece una perspectiva diferente que tiene una base adecuada en la lógica de estos sistemas. (2) Ofrecen una comprensión de la complejidad de los algoritmos de aprendizaje que a menudo se ignoran extrañamente en las clases. La complejidad es una propiedad clave de los algoritmos, y la comprensión de un algoritmo a través de este lente le dice mucho acerca de dónde y cómo se puede usar. Tanto Valiant como Aaronson tienen grandes cosas que decir sobre este tema.
[1] Mentes y máquinas
[2] Página en scottaaronson.com
[3] Página en mit.edu
- ¿Por qué la comunidad de IA, incluso las principales empresas líderes, cree en la inteligencia artificial por el cerebro / neurociencia?
- ¿Es posible emular el patrón de habla de una persona a partir de una oración / párrafo simple como se muestra en Misión Imposible 3?
- ¿Para qué sistemas económicos se ha propuesto cuando la IA hace obsoletos los sistemas económicos modernos?
- ¿Existe una solución fintech que use IA?
- ¿Hay algún caso de uso de IoT en el que 1 o más robots destinados a interactuar con humanos se comuniquen con otro conjunto de robots, en escenarios específicos?