Planteas una pregunta interesante. Bueno, en realidad, planteas toda una red de preguntas interesantes. En términos generales, los padres tienen los mejores intereses de sus hijos en el fondo. Entonces, intentan enseñarles a ser efectivos, felices, buenos, etc. A menudo, esperamos que estos sean objetivos congruentes, pero puede que no siempre lo sean. Recuerdo una historia de ciencia ficción en la que un adolescente está a punto de tomar un examen extremadamente importante. Sin embargo, los padres siguen alimentándolo con información errónea. Te preguntas por qué los padres querrían evitar que al niño le vaya bien en algo que parece ser una prueba SAT. Luego, descubres que no es solo una prueba para determinar si ingresa a la universidad. ¡Los resultados de la prueba determinarán si el niño está “permitido” vivir para ser adulto o si será asesinado! ¡Ahora, estás horrorizado de que los padres le estén dando información errónea al niño! Al final de la historia, descubres que el niño es asesinado debido a los resultados de la prueba. No es porque lo hizo muy mal. Obtuvo un puntaje demasiado alto en la prueba de coeficiente intelectual, por eso lo terminaron. Ahora entiendes por qué los padres le estaban dando respuestas “incorrectas”. Intentaban (sin éxito) salvarle la vida.
Algunas personas pueden sentir que un sistema de inteligencia artificial solo debería ser “muy inteligente” pero no “inhumanamente inteligente” porque podría “alcanzarnos” o “destruirnos”. De hecho, creo que esto es bastante improbable. Pero sí creo que es muy posible que un sistema de IA pueda ser entrenado para multiplicar la codicia humana y la arrogancia y, de ese modo, causar un gran daño. Con suerte, los “padres” podrían enseñar a la IA a ser “buena”, pero ¿según la moral de quién? Algunas personas parecen creer que todos los que se esfuerzan por obtener todo lo que pueden en detrimento de los demás están bien y son excelentes. Hay toda una maraña de problemas involucrados en cómo inculcar la ética en un sistema informático. Quizás un sistema de inteligencia artificial “superinteligente” encontraría una ética “mejor” que cualquier humano. O tal vez ni siquiera le importaría la ética.
Incluso si dejamos de lado los muchos dilemas sobre la ética, no hay duda de que los maestros, padres, mentores y entrenadores humanos hacen mucho para permitir que los humanos más jóvenes y menos experimentados aprendan sobre el mundo a un ritmo mucho más rápido de lo que lo harían en su vida. propio. Un buen padre / entrenador puede juzgar qué enseñarle a un niño cuando. Pueden elegir, no solo ejemplos, sino ejemplos apropiados de lo que le interesa al niño, qué conceptos erróneos tiene, etc. En un dominio limitado como la geometría de John Anderson o los tutores de LISP, las computadoras ya pueden realizar esta función. El “sistema de tutoría inteligente” puede construir un modelo de lo que el estudiante sabe y no sabe y generar ejemplos diseñados para “arreglar” conceptos erróneos. Un tutor humano (o padre) realmente bueno también puede ayudar a motivar a un estudiante, mantenerlo interesado, hacer analogías con otros campos que el niño ya conoce, hacer que piensen por sí mismos, llamar la atención del niño sobre detalles específicos, modelar el comportamiento correcto, etc. De alguna manera primitiva, muchos de estos mecanismos ya existen en forma rudimentaria en varios sistemas de IA.
- Estoy en el grado 12 y me encanta la programación. Quiero construir IA. Busqué lo básico, pero los fundamentos me parecieron demasiado difíciles. ¿Puedo construir una IA?
- ¿Qué tendría que hacer un programa para ser reconocido indiscutiblemente como IA?
- ¿La inteligencia artificial es solo sobre software?
- ¿Puede una IA tener intuición?
- ¿Cuáles son las principales compañías de inteligencia artificial en la industria BFSI?
Por ejemplo, incluso cuando comencé en IBM a principios de los años 70, había una manera de “programar” una máquina de ensamblaje mecánico (es decir, un robot) haciendo que una persona realizara los movimientos para “mostrar” a la máquina cómo hacerlo eso. Los avances recientes en las redes neuronales permiten que las máquinas aprendan a desempeñarse extremadamente bien en un mundo limitado. En general, hacen esto mirando muchos ejemplos. En la mayoría de los dominios, los humanos pueden aprender a hacer algo con muchos menos ejemplos. Creo que la razón de esto es que todos los humanos comparten muchas predisposiciones sobre cómo ven el mundo. Por ejemplo, si digo: “¿Qué número viene después en esta serie: 1,2, 4, 8, 16 …?”, Usted (y yo y la mayoría de los demás) probablemente diríamos “32”, pero la respuesta * podría * ser -7 o 12 o 0 o cualquier otra cosa. Siempre puede escribir una “regla” que haga que cualquier cosa sea “correcta”. Dado que compartimos intuiciones sobre lo que es “elegante” o “útil”, la mayoría de la gente estaría de acuerdo con una respuesta. Por lo tanto, un sistema de IA que aprendió de los ejemplos PERO también fue preprogramado con ciertos “prejuicios” sobre el mundo que podría hacerlo más rápidamente con respecto a tales reglas. (Por supuesto, cuando estos prejuicios son incorrectos, será mucho más difícil inducir la regla correcta).
Los padres de niños humanos reales enfrentan un dilema similar. Ya saben mucho sobre el mundo y pueden “atajar” el aprendizaje del niño. Pero, dado que el mundo sigue cambiando, también pueden obstaculizar el aprendizaje del niño manteniéndolo “atrapado” en lo que puede considerarse como un “máximo local”: el padre, por ejemplo, podría enseñarle al niño la mejor manera de ser Un carterista. Y, de hecho, el niño aprenderá más rápido y tendrá mucho más éxito que si aprendiera la habilidad desde cero. Sin embargo, este mismo proceso probablemente evitará que el niño se convierta en un mago o programador informático experto, lo que en última instancia podría ser mucho mejor para el niño que ser el mejor carterista posible. Ser un buen padre es difícil. 😉 Y también sería difícil saber con precisión cómo mejorar una computadora siendo esencialmente un “padre / mentor / entrenador” y la situación pondría en juego muchos de los mismos dilemas.
Algunos de estos problemas y dilemas se discuten en mi blog sobre AI / HCI y el libro Turing’s Nightmares.
petersironwood
http://tinyurl.com/hz6dg2d