Respuesta corta: sí.
¿Es esta una buena o mala noticia? : ¡Una gran noticia!
Las computadoras tienden a procesar números y datos. Si la emoción es lugar dentro de una escala. Se vería así.
- ¿Cuáles son los mejores kits robóticos programables para un ingeniero relativamente novato que desea practicar algunas implementaciones de aprendizaje automático utilizando un robot?
- ¿Es Clojure una buena opción para la aplicación de computación intensiva?
- ¿Cómo y dónde puedo comenzar a aprender inteligencia artificial y aprendizaje automático?
- Las computadoras se basan principalmente en conjuntos de características relacionadas con los cálculos, ¿por qué no se construyen con un nivel de interacciones conceptual y orientado al lenguaje?
- Escuché que las personas que son ENFP-T tienen poca inteligencia. ¿Es eso cierto?
Siempre hay un dicho, cuando hay una escala, hay números que pueden ser crujientes. Dado eso, hay toneladas de investigación en curso sobre esto. Es seguro apostar que, es una suposición segura de que las computadoras van a tener emociones y autoconciencia.
¡PERO!
Mientras te respondo, mi miedo a la autoconciencia de la computadora es este:
Cuando la IA supera el punto por el cual las emociones y la autoconciencia se hacen realidad. Depende de cómo nosotros, como usuarios, decidamos interactuar con la máquina. A menudo pienso en esta analogía como un padre criando a un niño. Siempre habrá niños buenos o niños malos.
Sin embargo, es seguro que un gran padre tiene una mayor probabilidad de criar buenos hijos que un mal padre que abusa de sus hijos.
El niño que creció con el buen padre termina proyectando emociones positivas y conciencia de sí mismo hacia su entorno. Viceversa. Esta historia de la inspección del aeropuerto fue un GRAN ejemplo de esta analogía. Es el creador quien decide el resultado de la Inteligencia Artificial.
Solo podemos esperar que el resultado de tales pioneros informáticos nos desee bien y prosperidad. De todos modos, en buenas manos, la computadora con autoconciencia es algo maravilloso en lugar de ‘¡Hola, mundo!’.
Por supuesto, debería haber una limitación de lo que puede y lo que no. Lo aprendimos a través del proceso de desarrollo de Audrey. En Audrey, estamos creando una experiencia en la que las personas son libres de reinventar a su asistente personal según sus necesidades. Lo que descubrimos es que a los más comunes les encantan las posibilidades de que la computadora emocional altere sus necesidades y se preocupe por ellas. Como de humano a humano, buscamos comprensión y necesidades comunes.
Robot: No te preocupes, no aceptaré tu trabajo.
Humano: Gracias, amigo.