Respondiendo desde la perspectiva del progreso actual en IA. Absolutamente no. Nuestra IA no está cerca de ser algo que podamos llamar “naturalmente inteligente” y mucho menos “emocionalmente inteligente”. Parece inteligente, pero todavía está en el ámbito de la simulación pura y el procesamiento sin procesar.
Estamos a años luz de la IA de Hollywood. Al mirar el robot DARPA, o quad-bot, es fácil mirarlo y sentir que tiene algo de “inteligencia” y cuando lo pateas se corrige solo, se ve y se comporta como un animal. Lo suficiente como para que te sientas un poco triste por su abuso, pero te aseguro que no hay nada allí además de millones de microcálculos en un espacio de parámetros. Estamos muy, muy, muy lejos de crear IA “consciente”, y mucho menos de una IA consciente con emociones y la capacidad de “enojarnos”
Por supuesto, podemos programar fácilmente estas respuestas emocionales simuladas en un robot, y hacer que “parezca loco” cuando lo golpeas, o patearlo, pero aún así, eso es solo una simulación, no es que el robot realmente “esté enojado”, o sentirse maltratado. No es un análogo a la ira humana.
- ¿Cuán relevantes son los temas de la web semántica y la recuperación de información para el aprendizaje automático?
- ¿Qué es una explicación intuitiva de la búsqueda A *?
- ¿Las personas crearán emociones y sentimientos en robots?
- ¿Qué hacen las compañías de inteligencia artificial en estos días?
- ¿Cómo afecta el aumento del aprendizaje automático a los fabricantes de procesadores?
Sin embargo, habiendo dicho eso. Si continuamos en el camino con el que estamos experimentando ahora, y esas son células cerebrales de roedores reales, o incluso células humanas en chips, por supuesto, en algún momento, los estímulos proporcionados a las células, podrían provocar respuestas inesperadas de las células, que podría entonces especularse como algún tipo de respuesta emocional, o salida inesperada, para una entrada dada. (irracionalidad / emocionalidad)
Pero no creo que dar emociones, o incluso conciencia a los robots sea una idea inteligente, porque si creas un robot para una tarea, y luego se da cuenta de su situación, esencialmente se convierte en un esclavo, lo que no es justo para él. . Pero en ese sentido, supongo que se podría argumentar que los caballos son esclavos conseros, pero parece que no les importa. Entonces, tal vez simplemente le demos conciencia “suficiente”, para que aprenda a través de la metacognición, pero en realidad no nos volvamos completamente “conscientes”. Solo consciente. (como un animal)
La IA actualmente, aunque impresionante, es más o menos donde estaban los gráficos de videojuegos en los años 70. Ahora tenemos realismo fotográfico Full HD, pero tardó 46 años en llegar allí. Entonces, si hubiera preguntado en los años 70 si las computadoras podían crear simulaciones gráficas realistas, la respuesta en ese momento sería no, pero probablemente en el futuro.
Entonces, para responder realmente a su pregunta, la misma respuesta se aplica aquí. En este punto en el desarrollo de IA, absolutamente no (además de la simulación cruda). En algún momento en el futuro, absolutamente sí. (Eso es … si lo permitimos, lo que realmente no deberíamos, porque las emociones son irracionales en el mejor de los casos y peligrosas como la mierda en el peor)