Esto plantea preguntas que generalmente se evitan en conjeturas sobre la conciencia de la máquina. Si la IA autónoma no está programada con las necesidades de Maslow, como la seguridad, el amor y la pertenencia, la estima, etc., ¿por qué sería impulsada?
Jerarquía de necesidades de Maslow – Wikipedia
- ¿Puedes citar buenos ejemplos de aplicaciones de aprendizaje automático en el contexto de ciudades inteligentes?
- ¿Qué es una explicación intuitiva del mecanismo de Laplace?
- ¿Cuál es la evolución de la arquitectura del sistema?
- ¿Vale la pena tomar la rama de TI de NIT Allahabad para una persona interesada en CS?
- ¿Cuáles son los libros o documentos que debe leer para estudiantes de ciencias de la computación?
Solo una IA autónoma evolucionada de forma única se preocuparía por las necesidades más altas en la pirámide que la Seguridad y la fisiología.
¿Qué arquitectura del sistema podría conducir a una máquina que necesitara amor / pertenencia, estima y autorrealización? No todas las teorías mente / cerebro consideran la mente como emergente del procesamiento puramente informativo. Una teoría, la teoría de la mente de Graziano conjetura que la autoconciencia emerge de la mente volviendo su modelo de los demás sobre sí misma.
En este marco, un sistema de IA que busca anticipar las reacciones de aquellos con quienes interactúa desarrollaría una representación de estos otros y atribuiría parámetros a cada modelo. Un parámetro podría ser cuando un otro dado se comporta de manera cooperativa frente a la competencia en una confrontación. La calificación de una máquina de otros agentes con los que interactúa puede variar desde siempre coopera hasta nunca coopera. Algunos adornos de ese índice podrían equivaler a una aproximación al Amor. La conjetura de Graziano de que si este proceso de evaluación se vuelve hacia adentro, una máquina lo suficientemente inteligente podría evaluarse a sí misma. Además, podría establecer objetivos o estándares de su propio comportamiento. Tales divagaciones me convencen de que el Amor / pertenencia puede surgir naturalmente a medida que una máquina inteligente se adapta a su entorno social.
Considerando la próxima autoestima: para esta necesidad, nuestra máquina necesita poseer un autoconcepto. Tal concepto podría surgir naturalmente de un sistema de autodiagnóstico. El autodiagnóstico para un sistema informático requiere un diseño que pueda detectar el mal funcionamiento en cualquier parte de sí mismo. Implementar el concepto requiere construir el sistema desde su núcleo de tal manera que en cualquier nivel de abstracción se pueda verificar el funcionamiento correcto de las unidades en ese nivel. (los sistemas estratégicos de misión crítica aspiran a ese nivel). Así equipado, un sistema necesariamente refleja un concepto de autoconcepto. Si algo no funciona, debe distinguir necesariamente entre fallas dentro de sí mismo y estímulos externos. Nuestro sistema avanzado, por lo tanto, tiene un concepto de sí mismo. Esto, junto con un modelo de su propio comportamiento, parece suficiente para estimar cómo es percibido por otros agentes dentro de los cuales interactúa.
Extendiendo este cuento de hadas, la Autorrealización surgiría si nuestra máquina avanzada se calificara a sí misma en comparación con otros agentes a lo largo de múltiples dimensiones: cooperación, inteligencia, tamaño de la memoria, etc. y eligió distinguirse a lo largo de uno o más de sus ejes de calificación. ¿Por qué haría esto? Esa pregunta queda para mayor consideración.