Si bien la gente aquí ha hablado de “IA fuerte” y de exceder la inteligencia humana (prueba de Turing), también hay otra perspectiva, que es que el objetivo de la IA es construir un agente racional. La razón por la cual las personas a veces no quieren definir la IA en términos de inteligencia humana es porque, francamente, los humanos no son inteligentes. No pueden manejar la evidencia, siguen cometiendo errores de lógica y así sucesivamente. Ser más humano no suele ser un objetivo cuantificable: un mejor objetivo es ser óptimo en lo que haces, donde “óptimo” se define como maximizar tu utilidad dado lo que sepas. Permítanme hablar ahora de dónde comenzó la IA y cómo va
Los intentos iniciales implicaron tratar de hacer que la computadora siguiera la lógica, verificara pruebas, jugara ajedrez y tic-tac-toe, cosas así. Resulta que jugar juegos y seguir la lógica, que es algo difícil para nosotros los humanos, en realidad es muy fácil de hacer para una computadora. Como ejemplo, es casi trivial codificar un solucionador de sudoku que se ejecuta en unos segundos, mientras que me tomo unos minutos para resolver el Sudoku yo mismo. La conclusión fue, para citar a Minsky (uno de los primeros grandes en el campo) en 1977:
“Nuestra primera incursión en la Inteligencia Artificial fue un programa que hizo un trabajo creíble para resolver problemas en el cálculo universitario. Armados con ese éxito, abordamos el álgebra de la escuela secundaria; Para nuestra sorpresa, descubrimos que era mucho más difícil. Los intentos de aritmética en la escuela primaria proporcionan problemas de interés de investigación actual. Una exploración del mundo de bloques del niño resultó insuperable, excepto en las circunstancias más rígidamente restringidas.
Finalmente nos dimos cuenta de que la abrumadora mayoría de lo que llamamos inteligencia se desarrolla al final del primer año de vida ”.
Como tal, los mayores problemas en el campo son aquellos que “los niños de tres años pueden hacer”: cosas como caminar, sentir, ver, aprender el lenguaje y la gramática, captar y manipular objetos invisibles, reconocer lo que está viendo, etc. Esta ha sido una gran desviación de los primeros días, lo que ahora se llama “IA clásica”. Esto no quiere decir que la IA clásica haya desaparecido; Simplemente no es lo único ahora.
- ¿Es cierto que la IA "modifica sus algoritmos"? ¿Eso significa que las IA modifican su propio código?
- ¿Puede un principiante hacer un proyecto de IoT usando aprendizaje automático?
- Si alguien está interesado en la IA y la investigación (p. Ej., El problema de la conducción autónoma), ¿debería hacer además programación competitiva y cosas similares al GSoC?
- ¿Qué documentos recomienda para que estudie un principiante de Machine Learning?
- En el aprendizaje automático, ¿cómo podemos interpretar una situación en la que los errores de entrenamiento y prueba son altos? ¿Qué debemos informar a nuestros clientes?
Un segundo gran avance fue la llegada de las estadísticas y el aprendizaje automático. No hay forma de sobreestimar el impacto de las estadísticas. Las estadísticas y la probabilidad nos permitieron manejar la incertidumbre, y muchos, si no todos, los campos de IA fueron (creo que puedo decir con seguridad) revolucionados por su impacto. Y a pesar de muchos comentarios que he visto, el impacto fue lo suficientemente grande como para producir sistemas muy prácticos, algo que la IA de la vieja escuela realmente no podía hacer. Casi todo, desde la cámara de su teléfono celular hasta su cuenta de Netflix, incluso quizás aspectos del propio Quora, probablemente estén impulsados por el aprendizaje automático.
¿Y qué tan cerca estamos del verdadero objetivo, construir un agente racional? Lejos, pero estamos haciendo progresos medidos y cuantificables. Ya no hacemos afirmaciones flagrantes de grandeza; el invierno AI nos ha suavizado un poco :). Es posible que no tengamos un agente robótico humano de pleno derecho en el corto plazo, pero no será difícil decir que pronto interactuarás con la IA todos los días de tu vida, si no es que ya.