¿Qué avances deben lograrse para habilitar la IA general (IA fuerte)?

La búsqueda de sistemas verdaderamente inteligentes ha llevado a muchos avances tecnológicos. Los que ha enumerado en su mayoría resultaron de dos enfoques. Una, tratar de entender cómo los humanos perciben las cosas. Dos, tratando de hacer que las máquinas imiten la percepción humana.

Hasta el momento no existe una definición real de IA fuerte, porque todavía no hemos percibido cómo actuaría o se comportaría un sistema verdaderamente inteligente. Pero creo que la IA fuerte no resultará singularmente de algún avance tecnológico, sino solo una mejor comprensión de nosotros mismos y de cómo hemos estado enseñando a las máquinas a pensar.

Creo que sería apropiado mencionar algunos aspectos del documento del profesor Héctor J. Levesque (departamento de informática de la Universidad de Toronto) “Sobre nuestro mejor comportamiento”.

Habla sobre probar la inteligencia de un sistema basado en una actividad popular: responder preguntas ad-hoc. Hasta ahora, hemos estado probando sistemas y clasificándolos como inteligentes en función de su capacidad para ocultar su maquinado. Una instancia de dicho proceso es la prueba de Turing.

Pero según el documento, propone un argumento sólido sobre por qué el enfoque convencional de la prueba de Turing podría no funcionar mejor. No solo porque las máquinas se han vuelto más inteligentes, sino porque las preguntas no se han vuelto más complicadas con la evolución de la inteligencia.

Se ha desarrollado mucho en las áreas de recuperación de información, procesamiento del lenguaje natural, establecimiento de relaciones ontológicas y diseño de una base de conocimiento. ¿Pero estos desarrollos han aumentado la capacidad de las máquinas para responder preguntas verdaderamente inteligentes? Para responder a esta pregunta debemos hacernos otra pregunta.

¿Qué es el comportamiento verdaderamente inteligente?

El comportamiento inteligente no significa simplemente la capacidad de realizar cálculos en números de varios dígitos. Tampoco es la capacidad de analizar / rastrear millones de páginas web y responder preguntas como “¿Cuál fue el número de clavos de hierro utilizados para construir la Torre Eiffel?”. Esto es lo que hizo Watson. Esto es lo que llamamos comportamiento inteligente. Es sorprendente cómo lo que percibimos como inteligencia podría no ser una medida útil para juzgar la inteligencia de las máquinas.

Es para responder preguntas como “¿puede un conejo saltar más alto que una casa?” que pueden actuar como mejores jueces de comportamiento inteligente.

Desventajas reales de la prueba de Turing

Citando del periódico:

Sin embargo, creo que la prueba de Turing tiene un problema grave: se basa demasiado en el engaño. Un programa de computadora pasa la prueba si puede engañar a un interrogador para que piense que está tratando con una persona, no con una computadora. Considere al interrogador haciendo preguntas como estas:

¿Cuánto mides?
o
Cuéntame sobre tus padres.

Para pasar la prueba, un programa tendrá que ser evasivo (y esquivar la pregunta) o fabricar algún tipo de identidad falsa (y estar preparado para mentir de manera convincente). De hecho, la evasión se ve con bastante claridad en la competencia anual de Loebner, una versión restringida de la prueba de Turing. Los “charlatanes” (como se les llama a los entusiastas de la computadora en la competencia) dependen en gran medida de juegos de palabras, bromas, citas, aparte, arrebatos emocionales, puntos de orden, etc. ¡Todo, parecería, excepto respuestas claras y directas a las preguntas!

La capacidad de engañar a la gente es interesante, sin duda, pero no es realmente lo que está en juego aquí. Podríamos preguntarnos: ¿hay una mejor prueba de comportamiento que tener una conversación de forma libre? Hay algunas opciones bastante razonables que no están en inglés
a tener en cuenta, como “captchas” y el programa en Page on Areyouhuman. Pero el inglés es un medio excelente ya que nos permite abarcar temas de manera amplia y flexible (y proteger los prejuicios: edad, educación, cultura, etc.).

Pero aquí hay otra opción: ¿qué pasa si en lugar de una conversación, el interrogador solo hace una serie de preguntas de opción múltiple? Esto tiene algunas ventajas distintas:

  • Las evasiones verbales ya no son posibles. Un programa ya no puede jugar la prueba usando maniobras evasivas.
  • No requiere la capacidad de generar un inglés “creíble”. El programa no tendrá que preocuparse por elegir palabras o sintaxis para imitar con precisión los hablantes reales.
  • Las pruebas pueden ser automatizadas (administradas y calificadas por máquina). El éxito en la prueba no depende de la similitud juzgada con las personas, sino de la exactitud de las respuestas.

Entonces, ¿qué nos impide diseñar sistemas verdaderamente inteligentes / IA fuerte?

El procesamiento del lenguaje natural es un área clave que contendrá la mayoría, si no todas, las respuestas a esta pregunta. No porque las máquinas imiten mejor a los humanos, sino porque nos entenderíamos en profundidad y trataríamos de enseñarles a aprender a comportarse como nosotros en lugar de enseñarles a comportarse como nosotros. Espero que veas la diferencia aquí. Creo que la respuesta está en entender cómo procesamos las preguntas como una entidad y no como fragmentos individuales de palabras. Se trata más sobre el procesamiento contextual de la información.

El comportamiento más inteligente abarca desde el conocimiento previo (Watson, Cleverbot). Pero si cambiamos el enfoque de prueba a uno más radical al preguntar por un conejo que salta más alto que una casa, establecemos el hecho de que no funciona de manera similar a responder “¿Cuál es la altura del Monte Everest?”. Digo esto porque un ser humano, con el conocimiento básico de qué es un conejo y qué es una casa, respondería directamente sin buscar todas las páginas web que contienen los saltos más altos registrados por los conejos y los de las casas. Aquí es donde trazamos la línea entre la inteligencia basada en el conocimiento de fondo y la inteligencia basada en la aplicación del razonamiento contextual.

Cómo hacemos esto?

El profesor Héctor sugiere un par de cosas:

Necesitamos volver a nuestras raíces en la representación del conocimiento y el razonamiento del lenguaje y del lenguaje.

No debemos tratar el texto en inglés como una fuente monolítica de información. En cambio, deberíamos estudiar cuidadosamente cómo podrían usarse bases de conocimiento simples para dar sentido al lenguaje simple necesario para construir bases de conocimiento ligeramente más complejas, y así sucesivamente.

No es suficiente construir bases de conocimiento sin prestar más atención a las demandas derivadas de su uso. Deberíamos explorar más a fondo el espacio de cómputos entre la recuperación de hechos y el razonamiento lógico totalmente automatizado. Deberíamos estudiar en detalle la efectividad de los modos lineales de razonamiento (como la propagación de unidades, por ejemplo) sobre las construcciones que lógicamente parecen exigir más.


Creo que cualquier persona interesada en la IA o las ciencias de la información debería leer este documento: Página sobre Toronto

EDITAR:

Otras lecturas:

La respuesta de David Greenspan a ¿Cuáles son algunas objeciones al experimento de pensamiento de la habitación china de Searle? En otras palabras, ¿cuáles son algunos argumentos en contra de los argumentos de John Searle contra la IA fuerte?

Depende principalmente del enfoque para lograr AGI. Tenemos enfoques arquitectónicos y enfoques algorítmicos.

En un entorno algorítmico, posiblemente uno de los componentes más considerables para lograr la IA general, serían los algoritmos de predicción / compresión de propósito general .

Estos algoritmos incluyen:

  • Método de ponderación del árbol de contexto (CTW),
  • Predicción por coincidencia parcial (PPM),
  • Árboles de sufijo probabilístico (PST),
  • el algoritmo mejorado de Lempel-Ziv (LZ-MS) y más.

Este tipo de algoritmos se utilizan para determinar qué puede ocurrir después en un entorno particular. Sin embargo, para tener algoritmos potencialmente útiles, primero tenemos que resolver el problema central de la IA, que es encontrar una manera de construir buenas abstracciones eficientes sobre el mundo .

Aún no hemos desarrollado un marco robusto de inteligencia biológica que explique cómo la estructura del cerebro admite el pensamiento inteligente, por lo que es un poco difícil saber realmente qué requisitos previos de una IA fuerte carecen.

Dicho esto, creo que uno de los requisitos para una IA similar a la humana serán los sensores y efectores similares a los humanos. Es decir, sin canales de entrada y salida ricos, es difícil imaginar cómo podría surgir / aprender una IA fuerte. No hay ninguna razón por la que la información del sensor y el efector no pueda “simularse” en una computadora, pero no creo que pueda crear una supercomputadora suficientemente compleja, incluso con la arquitectura adecuada para admitir procesos cerebrales similares a los humanos, y espere algo como inteligencia a menos que coloque el cerebro en un entorno como el que están expuestos nuestros cerebros. Si uno suscribe (como yo) que el cerebro es principalmente un sistema cuyo propósito es predecir el estado futuro del entorno, se deduce que no puede crear / evolucionar / enseñar una IA sin un entorno.

Entonces, una vez que los cuerpos robóticos (o los virtuales simulados) se combinen con redes neuronales de una arquitectura y complejidad apropiadas, creo que una IA fuerte surgirá muy rápidamente a partir de entonces. Desafortunadamente, ni el cerebro ni los problemas corporales son triviales.