La mayoría de las respuestas le mostrarán que el problema es la falta de comprensión dentro de la IA. Las IA no entienden las cosas como nosotros. Puedes ver qué tan avanzadas son las IA si intentas algo como la búsqueda de imágenes de Google. Pero ese no es el verdadero problema. Puede estar seguro de que las grandes empresas tienen suficientes recursos para implementar la comprensión en inteligencia artificial si tenían la menor idea de cómo hacerlo.
El verdadero problema es la falta general de comprensión de lo que realmente es la inteligencia. El software puede emular casi cualquier cosa que pueda describir bien. Es extremadamente difícil crear algo si no sabes qué es lo que deberías estar creando. La mayoría de las definiciones comunes de inteligencia solo describen el comportamiento de una caja negra: la inteligencia humana. La definición “técnica” de IA, como la de Turing, simplemente transfiere con elegancia el pobre estado de conocimiento de la psicología al ámbito técnico: “La IA no debe distinguirse de la inteligencia humana”. ¡Tales definiciones no podrían ser menos útiles!
Puede pensar que, con todas las noticias sobre IA, este campo de investigación está progresando de todos modos. Eso es correcto, pero para la IA el progreso sigue siendo sorprendentemente lento. El progreso es impulsado principalmente por los avances en el poder de cómputo bruto. Los componentes básicos de las IA actuales, como las redes neuronales y los algoritmos heurísticos, tienen décadas de antigüedad y son limitados. La tecnología actual solo puede hacer conjeturas, millones de ellas, clasificarlas por reglas únicas, pero son solo conjeturas …
- ¿De qué maneras (describa al menos tres) la AI alterará la práctica del desarrollo de sistemas?
- ¿La IA (inteligencia artificial) ayudará a las personas poco saludables?
- ¿Por qué la gente no entiende lo que es la IA?
- ¿Es concebible que la inteligencia artificial, dentro de mi vida, se haga cargo de casi todas las funciones humanas en el estándar moderno del trabajo?
- ¿Debería la inteligencia artificial completar la sinfonía inacabada de Schubert?
A veces funcionan como estas descripciones de imágenes generadas por IA …
… a veces no lo hacen.
Créditos de imagen: conjunto de datos COCO de Microsoft (arriba), TVBS Taiwan / Agence France-Presse (abajo). Créditos descriptivos: Karpathy y Li 2015 [1] (arriba), Lake, Ullman, Tenenbaum y Gershman 2016 [2] (abajo)
Entonces, ¿qué hay dentro del cerebro humano que falta en la IA?
La comprensión es parte integral de la inteligencia y significa tener un modelo de mundo interno que represente el mundo real exterior. Piénsalo. Cuando entiendes algo, significa que tienes un modelo funcional de ese algo en tu mente. Cada uno de nosotros tiene una copia del mundo entero dentro de nuestra cabeza con decenas de miles de objetos para jugar. Algunos los llaman conceptos.
Entender un concepto significa que sabemos qué hace ese concepto en nuestro modelo de mundo interno, en nuestra copia mental simplificada del mundo. Cuando pensamos, hacemos experimentos de pensamiento en el entorno de prueba de nuestra mente. Cuando los resultados del mundo real de la aplicación de conceptos coinciden con nuestros resultados del mundo mental, entonces sabemos que nuestros conceptos son correctos, al menos hasta cierto punto. Podemos reconocer qué descripciones de imágenes no se ajustan a nuestro modelo mundial. Este concepto de mente es muy antiguo, descrito por ejemplo como “criatura popperiana” hace 20 años en el libro Kinds of Minds de DC Dennett.
Créditos de imagen: DC Dennett [3] 1996
Las “IA” actuales no tienen este entorno de prueba. En cambio, se sustituye por funciones que son demasiado simples para evolucionar todo en algo interesante. La excusa común de los investigadores de IA es la falta de potencia computacional disponible en relación con el cerebro humano. Pero eso solo significa que no están utilizando el nivel apropiado de abstracción para sus creaciones. Nadie haría una mesa de cocina construyéndola a nivel molecular. Entendemos que los bloques de construcción de la mesa son sus patas y su parte superior. El problema de emular algo más poderoso se ha resuelto con éxito en los emuladores de consola y se conoce como emulación de alto nivel.
La forma inteligente de crear IA no es recrear neurona del cerebro humano por neurona, sino reconstruir su modelo, sus funciones, utilizando el nivel apropiado de abstracción, lo que implica una comprensión intrínseca y, en consecuencia, resulta en la capacidad de controlar con precisión el resultado.
Es mi opinión que actualmente tenemos todos los componentes básicos de una IA realmente fuerte: redes neuronales, mundos virtuales, bases de datos, entradas / salidas, motores de inferencia y análisis de lenguaje. Los investigadores han estado colocando IA dentro de mundos virtuales, pero de alguna manera no se han dado cuenta de que primero necesitan poner el mundo virtual dentro de IA. Así que ahora solo necesitamos que alguien conecte todos los bloques de construcción de manera adecuada. Para hacer esto, uno debe tener una comprensión básica de cómo deben conectarse los bloques de construcción y que realmente deben incluirse en una IA adecuada. La comprensión debe ser el punto de partida, la herramienta y el resultado final de la IA. Deberíamos construir IA no para potenciar nuestra ignorancia, sino para ayudarnos a entendernos a nosotros mismos . Ese es el mayor problema no resuelto para la IA.
Editar: reformuló algunas oraciones para mayor claridad. Gracias por los votos a favor.
Notas al pie
[1] https://cs.stanford.edu/people/k…
[2] https://arxiv.org/pdf/1604.00289…
[3] Servidor del curso universitario David Banach Saint Anselm