¿Puede una inteligencia artificial dudar?

Pregunta muy interesante De hecho, la mayoría (si no todos) los modelos actuales de IA no incluyen “dudas” en ninguna forma razonablemente describible. Y eso es básico a propósito: llevamos décadas intentando comprender las características del proceso de aprendizaje , más que las características de la inteligencia (sobre las cuales hay tantas opiniones como las personas que las expresan) o su implementación.

Ahora, el proceso de aprendizaje creemos que ya lo entendemos razonablemente bien: durante décadas hemos podido producir sistemas que aprenden de sus errores utilizando una gran cantidad de metodologías, algunas inspiradas en la investigación neurobiológica, otras en varios métodos estadísticos y lógicos, y un algunos otros en una combinación de los mismos. La desventaja de todo este entendimiento ha sido la producción de lo que, en efecto, son “cajas negras”: es decir, sistemas que no pueden “explicar con éxito su razonamiento” a los humanos, y mucho menos ser entendidos completamente por los humanos que observan su funcionamiento interno. a cualquier nivel de detalle deseado. Por otro lado, aquellos sistemas que fueron diseñados para ser comprensibles o para poder explicarse a sí mismos, se determinaron que eran “frágiles” (en nuestra jerga particular), es decir, son muy exitosos en algunos casos y extremadamente infructuosos cuando presentado con casos ligeramente diferentes que no habrían dejado perplejo a un humano. De los sistemas “no frágiles”, los más exitosos y más utilizados (en la actualidad) son las redes neuronales, en particular en su encarnación actual como sistemas de aprendizaje profundo.

Crear un sistema que pueda aprender a realizar un diagnóstico, para usar su propio ejemplo, es, en su forma más básica, una cuestión de tener un conjunto de datos lo suficientemente grande que incluya toda la información relevante de los pacientes, sus síntomas, exámenes y resultados de laboratorio; junto con un diagnóstico validado. Tome esos datos y “aliméntelos” a un sistema de aprendizaje apropiado y aprenderá a reproducir los diagnósticos tal como se presentan, e incluso aprenderá a producir diagnósticos similares para datos de pacientes similares. Todo esto sin ningún tipo de “duda”: solo producirá un conjunto de diagnósticos para cada paciente, con una estimación de la probabilidad de cada diagnóstico. Yo mismo he creado estos sistemas con varios niveles de éxito y fiabilidad, siempre como una entrada auxiliar para un médico humano, y nunca como una autoridad final. Pero los resultados han sido satisfactorios y, en algunos casos, sorprendentemente agradables, ya que se revelaron algunos diagnósticos potenciales que el humano omitió por completo.

¿Es posible hacerlo mejor? ¡De hecho, es! Veamos si podemos agregar “dudas” al sistema …

En los últimos 3 a 4 años, se ha agregado una nueva metodología al repertorio: se llama Modelos adversarios. En el modelo de aprendizaje anterior, tenemos un agente (el aprendiz ) que toma datos en forma de pares de entrada-salida (en este caso, datos del paciente y diagnóstico) y aprende a, dada una entrada, a producir la salida deseada (y dada entradas similares para producir salidas similares, de lo contrario sería una búsqueda simple y frágil en una lista). En un Modelo Adversario agregamos otro agente: el Adversario . El propósito del adversario es “lanzar bolas curvas” al alumno para confundirlo y hacer que cometa errores. Lo hace de vez en cuando generando y presentando un “registro de paciente falso” al alumno, que ahora tiene la tarea no solo de producir un diagnóstico, sino también de tratar de determinar si los datos son reales o falsos, y de aprender a hacerlo. entonces. (Puede decir que el alumno está ajustado para agregar un nuevo diagnóstico a su repertorio: FALSO). El procedimiento mediante el cual el alumno se adapta y mejora a sí mismo también se modifica ligeramente para que un registro falso no reconocido no afecte el aprendizaje anterior, pero solo afectará hacer que el alumno mejore su capacidad de detectar falsificaciones (y no interrumpirá lo que ya aprendió a través de los registros no falsos).

Si los registros falsos se generan y agregan al azar, la mejora es leve: el alumno mejora en su trabajo y, además, ahora puede “sospechar un juego sucio”. Esa es una forma de “duda”, pero esto no es suficiente para mejorar al alumno, ya que no puede hacer nada con su “duda” aparte de expresarlo. La mejora final proviene del adversario : también debe aprender a ser un mejor adversario al aprender del alumno cuáles de las “bolas curvas” pudo esquivar y cuáles no, y enfocarse en esas y otras similares. A medida que el adversario mejora, también lo hace el alumno ; A medida que el alumno mejora, también lo hace el adversario . Y, eventualmente, el Alumno aprenderá a “esquivar” la mayoría (si no todas) de las “bolas curvas” lanzadas por el Adversario , y el Adversario habrá “explorado” (al azar o de otro modo) muchas (si no todas) de las “Espacio de datos” implícito en los datos de entrada. El sistema habrá alcanzado el equilibrio, o convergencia, y será tan bueno como sea posible. Hasta que se presenten más datos, es decir, en ese momento la batalla de confrontación se reanudará hasta que vuelva a alcanzar el equilibrio. De hecho, este es un proceso continuo que no tiene que terminar.

Como se puede ver, es el sistema de un alumno y un adversario el que puede mejorar a través de una forma de duda (que ha sido codificado implícitamente en el sistema): el alumno duda y el adversario capitaliza la duda y produce más datos centrados en ello.


Ahora, lleguemos a su propuesta de que “no los humanos pueden dudar de su propio proceso cognitivo o conclusiones”. Mi contraproposición es que el Modelo Adversarial que acabo de describir (con muchas palabras y palabras, pero que puede reducirse a una formulación matemática y programas informáticos muy precisos, aunque difíciles de seguir por los “no iniciados”) ) es precisamente eso: un modelo de un no humano que duda de sus propias conclusiones (conclusiones y dudas que provienen de la mitad del alumno ) y “hace algo al respecto de esas dudas” al tratar de producir contraejemplos y contramodelos para “probar / refutar esas dudas ”(a través del medio Adversario ).

Creo que hay tal equilibrio y contrapeso dentro de nosotros mismos cuando dudamos de nosotros mismos: la duda puede ser un “sentimiento de error” indefinido, pero si somos lo suficientemente analíticos y racionales, comenzamos a tratar de “poner nuestro dedo en él” produciendo ejemplos y contraejemplos para ver qué sucede y dónde nos lleva. Sostengo que así es como impulsamos nuestro aprendizaje más allá de lo que hacen la mayoría de los otros animales: nos oponemos a nosotros mismos hasta alcanzar un equilibrio.


Los modelos como el descrito anteriormente se han utilizado mucho en los últimos años desde que se descubrió su estructura general, o, más precisamente, “tropecé” una vez más (la primera vez que vi esta idea fue a mediados de los 90, y creo es más antiguo) y ha producido muchos resultados impresionantes inalcanzables por otros medios (hasta ahora). Estos modelos siguen siendo una forma de “caja negra”, pero su estructura interna y su funcionamiento pueden estudiarse y dar lugar a ideas muy interesantes.

Para obtener más información, consulte Modelos generativos y Redes de confrontación generativas. Hay mucho más que ver …

Cualquier inteligencia que no pueda lidiar con la incertidumbre tendría una clara desventaja cuando intente funcionar en el mundo real, que está plagado de información confusa, incompleta e incluso distorsionada a propósito.

Cualquier inteligencia que no pueda detectar sus propios errores no podrá aprender por sí misma.

Para crear una verdadera inteligencia, necesitaríamos superar estos y otros problemas similares.

Los algoritmos de programación convencionales no producirán tal inteligencia porque solo pueden hacer lo que se les dice cómo hacer. Creo que su conjetura es cierta en este ámbito; Estos sistemas no son capaces del tipo de autoevaluación necesaria cuando se trata de la incertidumbre del mundo real.

Sin embargo, fuera del ámbito de la programación convencional, hay muchas áreas prometedoras para explorar. Las redes neuronales, los algoritmos genéticos y probablemente otros sistemas similares tienen el potencial de cambiarse a sí mismos en respuesta a las condiciones cambiantes.

No soy un experto en inteligencia artificial, por lo que no estoy calificado para decir si algo que hemos diseñado hasta ahora es realmente capaz de dudar, pero sí sé que hay sistemas que pueden lidiar con condiciones cambiantes sin haber sido programados de antemano manejarlos Cuando las conclusiones correctas de repente comienzan a ser incorrectas, y las respuestas que una vez produjeron éxito ahora conducen al fracaso, estos sistemas pueden cambiar su comportamiento de varias maneras hasta que una vez más encuentren éxito.

Una vez más, me falta el conocimiento para decir si alguno de estos sistemas podría considerarse que tiene dudas reales. Pero existe una forma rudimentaria e implícita de autoevaluación, y existe un potencial definido para un mayor desarrollo en este sentido.

No sé si tu conjetura es válida en este ámbito; pero incluso si actualmente es cierto, no creo que sea seguro concluir que siempre será así.

Gracias por la interesante pregunta!

En realidad, la mayoría de las implementaciones de AI le DICEN cuán bien son sus decisiones, al dar porcentajes de confiabilidad (con 0% como “no es una posibilidad” y 100% como “absolutamente”). Esa es una medida de “duda”, la diferencia entre la duda humana es que los humanos son bastante pobres para estimar la cantidad de duda que tienen.

Hay una descripción general de algunas de las “estimaciones de confianza” de Watson que se proporcionan:

La IA detrás de Watson – El artículo técnico

Como dijo Leo, la mayoría de los modelos actuales de IA no incluyen “dudas”, pero para ser completamente IA, un modelo de IA tendría que hacerlo. La indecisión y la duda en sí han llevado a cosas útiles. (La “IA” actual es más o menos una máquina que puede construir “esta parte de un automóvil” sin supervisión humana, o un automóvil autónomo que puede tomar algunas medidas de evitación, o incluso detenerse. Pero eso es simplemente mejores computadoras, no real AI.)

Estoy saliendo de mi experiencia aquí, pero me parece que la duda es un resultado natural de una mayor percepción, conciencia y amenaza de muerte.

Es algo por lo que la inteligencia aprende y es recompensada, y creo que parte de eso proviene de no tener la comodidad de ser miembro del grupo, donde se validan las creencias comunes.

Por lo tanto, puede haber una programación básica, pero es esa percepción de que no puedes ver todo y lo que no puedes ver podría ser el final de ti lo que crea dudas.

Así que dudo con un sí.

H

More Interesting

Si tuviera que usar el descenso de gradiente por lotes para el entrenamiento de una red neuronal artificial en lugar del descenso de gradiente estocástico, que es mejor para evitar los mínimos locales, ¿podría mejorar la resistencia para quedarse atrapado en los mínimos locales al agregar ruido aleatorio a la función de error?

¿Cuál es el enfoque correcto para la inteligencia artificial?

¿Puedes hacer fósiles artificiales?

Cómo entrar en la investigación de IA en India

¿Cómo impactan el envejecimiento de la población y el aumento de la inteligencia artificial y la automatización en la economía y la experiencia de la generación milenaria?

Inteligencia general artificial: ¿Es el cerebro humano una 'máquina universal de Turing'?

¿Cuál es más posible, futuro humano mejorado o futuro humano cyborg?

¿Cuáles son las implicaciones para el crecimiento de la inteligencia artificial para el empleo en los países en desarrollo?

¿Cuáles son las consecuencias a largo plazo de una IA sensible?

¿Debo abandonar la programación competitiva y agudizar mis habilidades matemáticas para estudiar inteligencia artificial?

¿Qué esperas de la inteligencia artificial en los próximos 20 años?

Cómo investigar en inteligencia artificial

Para principiantes, ¿cuáles son los mejores sitios web para aprender inteligencia artificial?

¿Cuál es la diferencia entre el trabajo / investigación de IA en DeepMind, Vicarious y Numenta?

¿Cómo usar la inteligencia artificial para construir un cuestionario? ¿Qué tipo de algoritmos puedo usar?