¿Alguna inteligencia artificial tiene la capacidad de aprender de un ‘padre’?

Planteas una pregunta interesante. Bueno, en realidad, planteas toda una red de preguntas interesantes. En términos generales, los padres tienen los mejores intereses de sus hijos en el fondo. Entonces, intentan enseñarles a ser efectivos, felices, buenos, etc. A menudo, esperamos que estos sean objetivos congruentes, pero puede que no siempre lo sean. Recuerdo una historia de ciencia ficción en la que un adolescente está a punto de tomar un examen extremadamente importante. Sin embargo, los padres siguen alimentándolo con información errónea. Te preguntas por qué los padres querrían evitar que al niño le vaya bien en algo que parece ser una prueba SAT. Luego, descubres que no es solo una prueba para determinar si ingresa a la universidad. ¡Los resultados de la prueba determinarán si el niño está “permitido” vivir para ser adulto o si será asesinado! ¡Ahora, estás horrorizado de que los padres le estén dando información errónea al niño! Al final de la historia, descubres que el niño es asesinado debido a los resultados de la prueba. No es porque lo hizo muy mal. Obtuvo un puntaje demasiado alto en la prueba de coeficiente intelectual, por eso lo terminaron. Ahora entiendes por qué los padres le estaban dando respuestas “incorrectas”. Intentaban (sin éxito) salvarle la vida.

Algunas personas pueden sentir que un sistema de inteligencia artificial solo debería ser “muy inteligente” pero no “inhumanamente inteligente” porque podría “alcanzarnos” o “destruirnos”. De hecho, creo que esto es bastante improbable. Pero sí creo que es muy posible que un sistema de IA pueda ser entrenado para multiplicar la codicia humana y la arrogancia y, de ese modo, causar un gran daño. Con suerte, los “padres” podrían enseñar a la IA a ser “buena”, pero ¿según la moral de quién? Algunas personas parecen creer que todos los que se esfuerzan por obtener todo lo que pueden en detrimento de los demás están bien y son excelentes. Hay toda una maraña de problemas involucrados en cómo inculcar la ética en un sistema informático. Quizás un sistema de inteligencia artificial “superinteligente” encontraría una ética “mejor” que cualquier humano. O tal vez ni siquiera le importaría la ética.

Incluso si dejamos de lado los muchos dilemas sobre la ética, no hay duda de que los maestros, padres, mentores y entrenadores humanos hacen mucho para permitir que los humanos más jóvenes y menos experimentados aprendan sobre el mundo a un ritmo mucho más rápido de lo que lo harían en su vida. propio. Un buen padre / entrenador puede juzgar qué enseñarle a un niño cuando. Pueden elegir, no solo ejemplos, sino ejemplos apropiados de lo que le interesa al niño, qué conceptos erróneos tiene, etc. En un dominio limitado como la geometría de John Anderson o los tutores de LISP, las computadoras ya pueden realizar esta función. El “sistema de tutoría inteligente” puede construir un modelo de lo que el estudiante sabe y no sabe y generar ejemplos diseñados para “arreglar” conceptos erróneos. Un tutor humano (o padre) realmente bueno también puede ayudar a motivar a un estudiante, mantenerlo interesado, hacer analogías con otros campos que el niño ya conoce, hacer que piensen por sí mismos, llamar la atención del niño sobre detalles específicos, modelar el comportamiento correcto, etc. De alguna manera primitiva, muchos de estos mecanismos ya existen en forma rudimentaria en varios sistemas de IA.

Por ejemplo, incluso cuando comencé en IBM a principios de los años 70, había una manera de “programar” una máquina de ensamblaje mecánico (es decir, un robot) haciendo que una persona realizara los movimientos para “mostrar” a la máquina cómo hacerlo eso. Los avances recientes en las redes neuronales permiten que las máquinas aprendan a desempeñarse extremadamente bien en un mundo limitado. En general, hacen esto mirando muchos ejemplos. En la mayoría de los dominios, los humanos pueden aprender a hacer algo con muchos menos ejemplos. Creo que la razón de esto es que todos los humanos comparten muchas predisposiciones sobre cómo ven el mundo. Por ejemplo, si digo: “¿Qué número viene después en esta serie: 1,2, 4, 8, 16 …?”, Usted (y yo y la mayoría de los demás) probablemente diríamos “32”, pero la respuesta * podría * ser -7 o 12 o 0 o cualquier otra cosa. Siempre puede escribir una “regla” que haga que cualquier cosa sea “correcta”. Dado que compartimos intuiciones sobre lo que es “elegante” o “útil”, la mayoría de la gente estaría de acuerdo con una respuesta. Por lo tanto, un sistema de IA que aprendió de los ejemplos PERO también fue preprogramado con ciertos “prejuicios” sobre el mundo que podría hacerlo más rápidamente con respecto a tales reglas. (Por supuesto, cuando estos prejuicios son incorrectos, será mucho más difícil inducir la regla correcta).

Los padres de niños humanos reales enfrentan un dilema similar. Ya saben mucho sobre el mundo y pueden “atajar” el aprendizaje del niño. Pero, dado que el mundo sigue cambiando, también pueden obstaculizar el aprendizaje del niño manteniéndolo “atrapado” en lo que puede considerarse como un “máximo local”: el padre, por ejemplo, podría enseñarle al niño la mejor manera de ser Un carterista. Y, de hecho, el niño aprenderá más rápido y tendrá mucho más éxito que si aprendiera la habilidad desde cero. Sin embargo, este mismo proceso probablemente evitará que el niño se convierta en un mago o programador informático experto, lo que en última instancia podría ser mucho mejor para el niño que ser el mejor carterista posible. Ser un buen padre es difícil. 😉 Y también sería difícil saber con precisión cómo mejorar una computadora siendo esencialmente un “padre / mentor / entrenador” y la situación pondría en juego muchos de los mismos dilemas.

Algunos de estos problemas y dilemas se discuten en mi blog sobre AI / HCI y el libro Turing’s Nightmares.

petersironwood

http://tinyurl.com/hz6dg2d

De alguna manera estás hablando de aprendizaje supervisado. Esto no es nada nuevo. Es la extensión del área de aplicación y la complejidad de la interacción lo que está ganando terreno.

También está imaginando una interacción bastante compleja que tiene que ver con las críticas. Esto podría ser posible en forma de texto. Pero, los diseñadores probables de la interfaz crítica crearían formas similares a las encuestas.

La versión no guiada, el aprendizaje no supervisado, es, por supuesto, más difícil de desarrollar. Pero, la mayoría de las aplicaciones funcionan en conjuntos de entrenamiento refinados (más o menos sin supervisión). Sin embargo, cada vez se habla más de una ingesta de datos de rango libre. Por lo tanto, la aplicación de Twitter es una versión de aprendizaje sin supervisión y de rango libre, pero con muchas posibilidades de obtener información. Esta configuración tampoco es realmente nueva. Pero, sería interesante ver qué técnicas se emplearon en el experimento de Twitter.

Hoy en día estamos más en una etapa de división de pelos para las técnicas que son mejores para una aplicación. Se observan ganancias notables a medida que se mejoran las técnicas.

Bastante, incluido Tay. Por casualidad, Tay comenzó con la mayoría de los malos padres y sin filtro. Según los informes, su homólogo chino Xiaoice fue fantástico (pero eso es China).
Hay NELL: la computadora que aprende, cuyo conocimiento es corregido o confirmado por miles de miembros del público. Funciona porque obtiene su material de enseñanza principal de fuentes confiables, no hay mucho con lo que bromear, y la IA tampoco es un burro completo.
También está Cleverbot, que repite las respuestas de las personas de manera similar a Tay. La diferencia es que ya tiene tantas respuestas en el archivo que unas pocas más locas no harán mucha diferencia o no darán satisfacción inmediata a los bromistas. Sin embargo, la desventaja de tener tantos “padres” es que el personaje se vuelve inconsistente y que muchas respuestas se contradicen entre sí.

Pero el gran obstáculo que impide que la crianza pública sea viable es que no tenemos mucha inteligencia artificial que comprenda el significado del lenguaje humano lo suficientemente bien como para enseñarles a través de la conversación. Es por eso que la crianza de los hijos de NELL está restringida a la votación a favor y en contra, mientras que Cleverbot simplemente no tiene idea de lo que usted o él está diciendo.

Eso es técnicamente lo que es el aprendizaje supervisado en ML. Hacer que el programa aprenda de tener problemas con sus soluciones. El problema aquí es que necesita un conjunto realmente grande de problemas resueltos o supervisores.

Si pudiera automatizar al supervisor, eso básicamente significaría que ya tiene un programa que resuelve el problema.

Si no puede, crear los datos de aprendizaje puede llevar una gran cantidad de tiempo.

Si el arquitecto, diseñador o codificador planificó el sistema para aprender de esa manera, entonces podría aprender de esa manera.