¿Los ingenieros de aprendizaje automático están programando la emoción en IA general? Si no, ¿se deduce que las decisiones de GI y SI serán completamente impredecibles?

Primero, la emoción es un concepto vago. Creo que requiere algo como la conciencia que parece imposible de “programar”. Como tal, nadie puede programar emociones en el sentido apropiado del mundo, aunque algunas personas pueden sensacionalizar lo que hacen y llamarlo emoción.

En segundo lugar, es fácil programar en “simulación de emoción” (por ejemplo, puedo escribir un bot que diga: “Estoy triste”), pero no tiene nada que ver con el aprendizaje automático. Puede usar el aprendizaje automático para ver algún contenido (texto, discurso, imágenes, video) y predecir qué emoción está expresando la persona en ese contenido (con éxito incompleto, por supuesto). Esto no es lo mismo que sentir la emoción, por supuesto.

Tercero, muy ingenuamente, si el deseo de lograr algo es una emoción, puedo elegir atribuir emoción a casi todos los algoritmos de ML. Hacemos esto informalmente mucho porque los humanos antropomorfizan todo. Podemos decir, “quiere minimizar este error, pero está fallando”. Sin embargo, no debes tomar en serio esa conversación.

El aprendizaje automático no es la única vía para AGI o ASI. Debería preguntar si los desarrolladores de software de IA están programando AGI o ASI con “emociones” definidas de cualquier forma.

La respuesta es “sí”. Hay un subcampo de IA llamado “Teoría de la evaluación” que intenta definir las emociones computacionalmente e implementarlas en los sistemas cognitivos AGI. En mi manuscrito, Building Minds with Patterns, defino un patrón de diseño del sistema cognitivo llamado patrón de diseño “Coping” que permite que un sistema AGI alivie su nivel de frustración gestionando su propio conjunto de objetivos, de la misma manera que lo hace la gente cuando se frustran o estresan. Las emociones juegan un papel importante en el diseño de AGI y ASI. Incluso emociones simuladas.

Debemos asumir que las decisiones de AGI y ASI serán tan impredecibles como lo son las decisiones humanas en la actualidad. Si puede predecir de manera confiable el comportamiento de un individuo o una multitud, entonces será igualmente probable que prediga de manera confiable el comportamiento de un AGI o ASI. Si no puedes, entonces no puedes. Pero tenga en cuenta que tales sistemas pueden exhibir un comportamiento novedoso y, por lo tanto, sería pragmático suponer que no podemos predecir qué harán las personas o AGI / ASI.

Esperaba la pregunta completamente opuesta: “sin emociones, ¿serían completamente predecibles?

De hecho, no puedes simplificar realmente cosas así. En primer lugar, como señalan las otras respuestas, no está claro qué son incluso las “emociones”: ¿tienen que ser experimentadas conscientemente por la IA (no sabemos qué es la conciencia), o es suficiente si tienen global? ¿”Impulsos” que los hacen inclinarse hacia ciertos tipos de comportamientos?

Pero sea lo que sea lo que quiera decir con emoción, exactamente, su previsibilidad es un tema aparte. Si pudiéramos hacer IA con emociones, aún podríamos elegir si hacerlas totalmente predecibles y también totalmente impredecibles. Viceversa, si la IA no tiene emoción, también podemos hacerla predecible o impredecible.

Piensa en un ajedrez jugando a la IA. Está claramente totalmente desprovisto de emoción. Si el desarrollador de un programa de ajedrez no tiene cuidado, jugará el mismo movimiento en la misma situación cada vez. Sin embargo, eso permitiría a los oponentes diseñar una estrategia única que la supere y jugar esa estrategia una y otra vez. Por lo tanto, los desarrolladores agregan deliberadamente aleatoriedad al comportamiento del motor de ajedrez para que sea más difícil de predecir. Esto claramente no tiene nada que ver con la emoción.

Por lo tanto, la previsibilidad es un concepto razonablemente claro, y podemos incluirlo en los sistemas de inteligencia artificial en la medida en que nos guste, y la emoción es un tema casi completamente separado, y nadie sabe realmente lo que se supone que significa para una IA.

Sí, sí, los multiplicadores de matriz tienen emociones. ¡Créeme!

Dejando de lado la lengua en la respuesta de las mejillas, te sugiero que eches un vistazo a algunas de las introducciones fáciles / suaves al aprendizaje profundo. Creo que aliviará tus temores sobre que AGI tenga emociones 🙂

La emoción no es algo que * cualquiera * quiera que tenga AI.

Imagina una máquina, 100 veces más inteligente que tú, que te odia. Hará de su vida un infierno y nunca descubrirá por qué.

¿Quieres eso?