Pregunta muy interesante De hecho, la mayoría (si no todos) los modelos actuales de IA no incluyen “dudas” en ninguna forma razonablemente describible. Y eso es básico a propósito: llevamos décadas intentando comprender las características del proceso de aprendizaje , más que las características de la inteligencia (sobre las cuales hay tantas opiniones como las personas que las expresan) o su implementación.
Ahora, el proceso de aprendizaje creemos que ya lo entendemos razonablemente bien: durante décadas hemos podido producir sistemas que aprenden de sus errores utilizando una gran cantidad de metodologías, algunas inspiradas en la investigación neurobiológica, otras en varios métodos estadísticos y lógicos, y un algunos otros en una combinación de los mismos. La desventaja de todo este entendimiento ha sido la producción de lo que, en efecto, son “cajas negras”: es decir, sistemas que no pueden “explicar con éxito su razonamiento” a los humanos, y mucho menos ser entendidos completamente por los humanos que observan su funcionamiento interno. a cualquier nivel de detalle deseado. Por otro lado, aquellos sistemas que fueron diseñados para ser comprensibles o para poder explicarse a sí mismos, se determinaron que eran “frágiles” (en nuestra jerga particular), es decir, son muy exitosos en algunos casos y extremadamente infructuosos cuando presentado con casos ligeramente diferentes que no habrían dejado perplejo a un humano. De los sistemas “no frágiles”, los más exitosos y más utilizados (en la actualidad) son las redes neuronales, en particular en su encarnación actual como sistemas de aprendizaje profundo.
Crear un sistema que pueda aprender a realizar un diagnóstico, para usar su propio ejemplo, es, en su forma más básica, una cuestión de tener un conjunto de datos lo suficientemente grande que incluya toda la información relevante de los pacientes, sus síntomas, exámenes y resultados de laboratorio; junto con un diagnóstico validado. Tome esos datos y “aliméntelos” a un sistema de aprendizaje apropiado y aprenderá a reproducir los diagnósticos tal como se presentan, e incluso aprenderá a producir diagnósticos similares para datos de pacientes similares. Todo esto sin ningún tipo de “duda”: solo producirá un conjunto de diagnósticos para cada paciente, con una estimación de la probabilidad de cada diagnóstico. Yo mismo he creado estos sistemas con varios niveles de éxito y fiabilidad, siempre como una entrada auxiliar para un médico humano, y nunca como una autoridad final. Pero los resultados han sido satisfactorios y, en algunos casos, sorprendentemente agradables, ya que se revelaron algunos diagnósticos potenciales que el humano omitió por completo.
- Cómo iniciarse en la robótica humanoide y la inteligencia artificial.
- ¿Cómo haríamos para crear una IA?
- ¿Cuáles son las principales compañías de inteligencia artificial en la industria BFSI?
- ¿Cuáles son algunas de las increíbles nuevas empresas de inteligencia artificial (IA) de etapa temprana (antes de la serie B o anterior)?
- ¿Cómo se usa la evolución para crear inteligencia artificial más inteligente?
¿Es posible hacerlo mejor? ¡De hecho, es! Veamos si podemos agregar “dudas” al sistema …
En los últimos 3 a 4 años, se ha agregado una nueva metodología al repertorio: se llama Modelos adversarios. En el modelo de aprendizaje anterior, tenemos un agente (el aprendiz ) que toma datos en forma de pares de entrada-salida (en este caso, datos del paciente y diagnóstico) y aprende a, dada una entrada, a producir la salida deseada (y dada entradas similares para producir salidas similares, de lo contrario sería una búsqueda simple y frágil en una lista). En un Modelo Adversario agregamos otro agente: el Adversario . El propósito del adversario es “lanzar bolas curvas” al alumno para confundirlo y hacer que cometa errores. Lo hace de vez en cuando generando y presentando un “registro de paciente falso” al alumno, que ahora tiene la tarea no solo de producir un diagnóstico, sino también de tratar de determinar si los datos son reales o falsos, y de aprender a hacerlo. entonces. (Puede decir que el alumno está ajustado para agregar un nuevo diagnóstico a su repertorio: FALSO). El procedimiento mediante el cual el alumno se adapta y mejora a sí mismo también se modifica ligeramente para que un registro falso no reconocido no afecte el aprendizaje anterior, pero solo afectará hacer que el alumno mejore su capacidad de detectar falsificaciones (y no interrumpirá lo que ya aprendió a través de los registros no falsos).
Si los registros falsos se generan y agregan al azar, la mejora es leve: el alumno mejora en su trabajo y, además, ahora puede “sospechar un juego sucio”. Esa es una forma de “duda”, pero esto no es suficiente para mejorar al alumno, ya que no puede hacer nada con su “duda” aparte de expresarlo. La mejora final proviene del adversario : también debe aprender a ser un mejor adversario al aprender del alumno cuáles de las “bolas curvas” pudo esquivar y cuáles no, y enfocarse en esas y otras similares. A medida que el adversario mejora, también lo hace el alumno ; A medida que el alumno mejora, también lo hace el adversario . Y, eventualmente, el Alumno aprenderá a “esquivar” la mayoría (si no todas) de las “bolas curvas” lanzadas por el Adversario , y el Adversario habrá “explorado” (al azar o de otro modo) muchas (si no todas) de las “Espacio de datos” implícito en los datos de entrada. El sistema habrá alcanzado el equilibrio, o convergencia, y será tan bueno como sea posible. Hasta que se presenten más datos, es decir, en ese momento la batalla de confrontación se reanudará hasta que vuelva a alcanzar el equilibrio. De hecho, este es un proceso continuo que no tiene que terminar.
Como se puede ver, es el sistema de un alumno y un adversario el que puede mejorar a través de una forma de duda (que ha sido codificado implícitamente en el sistema): el alumno duda y el adversario capitaliza la duda y produce más datos centrados en ello.
Ahora, lleguemos a su propuesta de que “no los humanos pueden dudar de su propio proceso cognitivo o conclusiones”. Mi contraproposición es que el Modelo Adversarial que acabo de describir (con muchas palabras y palabras, pero que puede reducirse a una formulación matemática y programas informáticos muy precisos, aunque difíciles de seguir por los “no iniciados”) ) es precisamente eso: un modelo de un no humano que duda de sus propias conclusiones (conclusiones y dudas que provienen de la mitad del alumno ) y “hace algo al respecto de esas dudas” al tratar de producir contraejemplos y contramodelos para “probar / refutar esas dudas ”(a través del medio Adversario ).
Creo que hay tal equilibrio y contrapeso dentro de nosotros mismos cuando dudamos de nosotros mismos: la duda puede ser un “sentimiento de error” indefinido, pero si somos lo suficientemente analíticos y racionales, comenzamos a tratar de “poner nuestro dedo en él” produciendo ejemplos y contraejemplos para ver qué sucede y dónde nos lleva. Sostengo que así es como impulsamos nuestro aprendizaje más allá de lo que hacen la mayoría de los otros animales: nos oponemos a nosotros mismos hasta alcanzar un equilibrio.
Los modelos como el descrito anteriormente se han utilizado mucho en los últimos años desde que se descubrió su estructura general, o, más precisamente, “tropecé” una vez más (la primera vez que vi esta idea fue a mediados de los 90, y creo es más antiguo) y ha producido muchos resultados impresionantes inalcanzables por otros medios (hasta ahora). Estos modelos siguen siendo una forma de “caja negra”, pero su estructura interna y su funcionamiento pueden estudiarse y dar lugar a ideas muy interesantes.
Para obtener más información, consulte Modelos generativos y Redes de confrontación generativas. Hay mucho más que ver …