¿Por qué Noam Chomsky es tan pesimista sobre el progreso en Inteligencia Artificial?

Primero, ¿qué es la inteligencia artificial? Supongo que se refiere a “Inteligencia Artificial General”.

La Inteligencia General Artificial (AGI) es un campo emergente que apunta a la construcción de “máquinas pensantes”; es decir, sistemas de propósito general con inteligencia comparable a la de la mente humana (y quizás en última instancia mucho más allá de la inteligencia general humana). Si bien este era el objetivo original de la Inteligencia Artificial (IA), la corriente principal de la investigación de IA se ha dirigido hacia soluciones dependientes del dominio y específicas del problema; Por lo tanto, se ha vuelto necesario utilizar un nuevo nombre para indicar la investigación que todavía persigue el “Gran Sueño AI”. Etiquetas similares para este tipo de investigación incluyen “IA fuerte”, “IA a nivel humano”, etc.

AGI

¿Qué es el AGI? – Instituto de Investigación de Inteligencia de Máquinas

David Deutsch, físico de la Universidad de Oxford y miembro de la Royal Society, tiene una visión notablemente similar de AGI a la de Chomsky:

Como Popper escribió (en el contexto del descubrimiento científico, pero se aplica igualmente a la programación de los AGI y la educación de los niños): “no existe tal cosa como la instrucción desde afuera … No descubrimos nuevos hechos o nuevos efectos copiándolos”. , o infiriéndolos inductivamente a partir de la observación, o por cualquier otro método de instrucción por el entorno. Utilizamos, más bien, el método de prueba y la eliminación del error ‘. Es decir, conjeturas y críticas. El aprendizaje debe ser algo que las inteligencias recién creadas hacen y controlan por sí mismas.

No destaco todas estas cuestiones filosóficas porque temo que los AGI se inventen antes de que hayamos desarrollado la sofisticación filosófica para comprenderlos e integrarlos en la civilización. Es casi por la razón opuesta: estoy convencido de que todo el problema de desarrollar AGI es una cuestión de filosofía, no informática o neurofisiología, y que el progreso filosófico que es esencial para su futura integración también es un requisito previo para desarrollarlos. El primer lugar.

La falta de progreso en AGI se debe a un severo bloqueo de conceptos erróneos. Sin la epistemología popperiana, uno ni siquiera puede comenzar a adivinar qué funcionalidad detallada se debe lograr para hacer un AGI. Y la epistemología popperiana no es ampliamente conocida, y mucho menos entendida lo suficientemente bien como para ser aplicada. Pensar en un AGI como una máquina para traducir experiencias, recompensas y castigos en ideas (o peor, solo en comportamientos) es como tratar de curar enfermedades infecciosas equilibrando los humores corporales: inútil porque está enraizado en una visión del mundo arcaica y muy equivocada.

Sin comprender que la funcionalidad de un AGI es cualitativamente diferente de la de cualquier otro tipo de programa de computadora, uno está trabajando en un campo completamente diferente. Si uno trabaja para programas cuyo “pensamiento” es constitucionalmente incapaz de violar restricciones predeterminadas, está tratando de eliminar el atributo definitorio de un ser inteligente, de una persona: la creatividad.

¿Qué tan cerca estamos de crear inteligencia artificial? – David Deutsch | Ensayos Aeon

¿Cómo funciona la inteligencia? ¿Cómo da lugar nuestro cerebro a nuestras capacidades cognitivas, y podría implementarse esto en una máquina?

Noam Chomsky, hablando en el simposio, no estaba tan entusiasmado. Chomsky criticó el campo de la IA por adoptar un enfoque que recuerda al conductismo, excepto en una forma más moderna y computacionalmente sofisticada. Chomsky argumentó que es poco probable que el uso intensivo de técnicas estadísticas en el campo para seleccionar regularidades en grandes cantidades de datos produzca la visión explicativa que la ciencia debería ofrecer. Para Chomsky, es poco probable que la “nueva IA”, centrada en el uso de técnicas de aprendizaje estadístico para extraer y predecir mejor los datos, arroje principios generales sobre la naturaleza de los seres inteligentes o sobre la cognición.

Al comienzo de la IA, las personas eran extremadamente optimistas sobre el progreso del campo, pero no ha resultado así. ¿Por qué ha sido tan difícil? Si le preguntas a los neurocientíficos por qué es tan difícil entender el cerebro, te dan respuestas intelectualmente insatisfactorias, como que el cerebro tiene miles de millones de células, y no podemos grabar de todas ellas, y así sucesivamente.

Si observa el progreso de la ciencia, las ciencias son una especie de continuo, pero se dividen en campos. El mayor progreso está en las ciencias que estudian los sistemas más simples. Así que, digamos, física, el mayor progreso allí. Pero una de las razones es que los físicos tienen una ventaja que ninguna otra rama de las ciencias tiene. Si algo se complica demasiado, se lo entregan a otra persona.

Si una molécula es demasiado grande, se la das a los químicos. Los químicos, para ellos, si la molécula es demasiado grande o el sistema se hace demasiado grande, se lo das a los biólogos. Y si se hace demasiado grande para ellos, se lo dan a los psicólogos, y finalmente termina en manos de la crítica literaria, y así sucesivamente.

Gallistel ha estado argumentando durante años que si desea estudiar el cerebro adecuadamente, debe comenzar, como Marr, preguntándose qué tareas está realizando. Así que está más interesado en los insectos. Entonces, si quieres estudiar, por ejemplo, la neurología de una hormiga, ¿qué hace la hormiga? Resulta que las hormigas hacen cosas bastante complicadas, como la integración de rutas, por ejemplo. Si nos fijamos en las abejas, la navegación de las abejas implica cálculos bastante complicados, que implican la posición del sol, y así sucesivamente. Pero, en general, lo que él argumenta es que si observamos la cognición animal, también la humana, son los sistemas computacionales. Por lo tanto, desea mirar las unidades de cálculo. Piense en una máquina de Turing, por ejemplo, que es la forma más simple de cálculo, debe encontrar unidades que tengan propiedades como “leer”, “escribir” y “dirección”. Esa es la unidad computacional mínima, por lo que debes buscar en el cerebro. Nunca los encontrará si busca fortalecer las conexiones sinápticas o las propiedades de campo, etc. Debes comenzar buscando qué hay allí y qué está funcionando, y lo ves desde el nivel más alto de Marr.

No creo que la posición de Gallistel sea ampliamente aceptada entre los neurocientíficos, pero no es una posición inverosímil, y está básicamente en el espíritu del análisis de Marr. Entonces, cuando estudias visión, argumenta, primero preguntas qué tipo de tareas computacionales está llevando a cabo el sistema visual. Y luego buscas un algoritmo que pueda llevar a cabo esos cálculos y finalmente buscas mecanismos del tipo que hagan que el algoritmo funcione. De lo contrario, es posible que nunca encuentres nada. Hay muchos ejemplos de esto, incluso en las ciencias duras, pero ciertamente en las ciencias blandas. La gente tiende a estudiar lo que sabes estudiar, quiero decir que tiene sentido. Tienes ciertas técnicas experimentales, tienes cierto nivel de comprensión, intentas empujar el sobre, lo cual está bien, quiero decir, no es una crítica, pero la gente hace lo que tú puedes hacer. Por otro lado, vale la pena pensar si estás apuntando en la dirección correcta. Y podría ser que si tomas aproximadamente el punto de vista de Marr-Gallistel, que personalmente simpatizo, trabajarías de manera diferente, buscarías diferentes tipos de experimentos.

Escuché a Pat Winston dar una charla sobre esto hace años. Uno de los puntos que destacó fue que la inteligencia artificial y la robótica llegaron al punto en el que realmente se podían hacer cosas que eran útiles, por lo que recurrió a las aplicaciones prácticas y, de alguna manera, tal vez no abandonadas, pero dejadas de lado, las preguntas científicas más fundamentales , simplemente atrapado en el éxito de la tecnología y el logro de objetivos específicos.

Noam Chomsky sobre dónde la inteligencia artificial salió mal

[I] si quieres estudiar, digamos, la neurología de una hormiga, te preguntas qué hace la hormiga. Resulta que las hormigas hacen cosas bastante complicadas, como la integración de rutas, por ejemplo. Si nos fijamos en las abejas, la navegación de las abejas implica cálculos bastante complicados, que implican la posición del sol, y así sucesivamente. Pero, en general, lo que él argumenta es que si observamos la cognición animal, también la humana, son los sistemas computacionales. Por lo tanto, desea mirar las unidades de cálculo. Piense en una máquina de Turing, por ejemplo, que es la forma más simple de cálculo, debe encontrar unidades que tengan propiedades como “leer”, “escribir” y “dirección”. Esa es la unidad computacional mínima, por lo que debes buscar en el cerebro. Nunca los encontrará si busca fortalecer las conexiones sinápticas o las propiedades de campo, etc. Debes comenzar buscando qué hay allí y qué está funcionando … ”

Noam Chomsky explica por qué todavía no tenemos inteligencia artificial

Varios filósofos, científicos cognitivos e informáticos han especulado sobre dónde podría haber fallado la IA y qué hay en su futuro. Hubert Dreyfus destacó suposiciones erróneas de investigación de IA en el pasado y, ya en 1966, predijo correctamente que la primera ola de investigación de IA no cumpliría las promesas públicas que estaba haciendo. Otros críticos como Noam Chomsky han argumentado que la IA se dirige en la dirección equivocada, en parte debido a su gran dependencia de las técnicas estadísticas. Los comentarios de Chomsky encajan en un debate más amplio con Peter Norvig, centrado en el papel de los métodos estadísticos en la IA. El intercambio entre los dos comenzó con los comentarios hechos por Chomsky en un simposio en el MIT al que Norvig escribió una respuesta.

AI invierno – Wikipedia

por favor refiérase a este video