Lo que está preguntando se llama “Inteligencia Artificial General” (AGI). Es un campo científico establecido, tenemos conferencias y revistas sobre el tema. Por lo tanto, puede comenzar a leer documentos y seguir proyectos (muchos desarrollos de AGI son de código abierto).
Personalmente, veo dos enfoques para el AGI que se está desarrollando actualmente y (creo) que eventualmente convergen: modelar “de arriba hacia abajo” (de teorías matemáticas) y simular “de abajo hacia arriba” (de redes y actividades neuronales). Ambos enfoques tienen varios “subenfoques” basados en diferentes perspectivas y creencias y muchos proyectos de investigación en curso.
Hablando de un enfoque más matemático (y tradicional), veo dos áreas principales de investigación determinadas por sus conjuntos de creencias. En mi opinión, el enfoque tradicional más desarrollado pero menos prometedor en la actualidad es el desarrollo basado en el aprendizaje automático. Incluye aprendizaje profundo, procesamiento del lenguaje natural (PNL), recuperación de información, reconocimiento de imágenes, reconocimiento de voz, etc. Muchos investigadores creen que cuando avancemos un poco más en estos métodos y los combinemos, las máquinas obtendrán habilidades de nivel humano (o incluso más altas que las humanas) que podemos admitir como pensamiento y comprensión. Creo que IBM Whatson básicamente está tan lejos como podemos llegar con este enfoque. Whatson es una pieza de “máquina de pensar” tremendamente impresionante y capaz. Incluso diría que tiene la capacidad de comprender la información que obtiene (en el sentido de que infiere relaciones entre las piezas de información que tiene), pero aún está muy lejos del nivel humano o humano. estilo de pensamiento y comprensión. En particular, carece de emociones y de establecimiento de objetivos (que posiblemente se basa en la curiosidad que se basa en la evaluación y las reacciones emocionales) como lo hacen todos esos sistemas.
- ¿Podrías crear una inteligencia súper artificial que tenga todos los poderes como el guante infinito Marvel?
- ¿Crees que la inteligencia artificial alguna vez será consciente?
- Cómo contribuir a la inteligencia artificial general
- ¿Podemos crear una conciencia con IA?
- ¿Cómo se aplica la Inteligencia Artificial en robótica?
Otro enfoque matemático “de arriba hacia abajo”, mucho más joven y mucho menos conocido y desarrollado, es desarrollar un modelo holístico de inteligencia humana (aprendizaje humano, en gran medida) que desde el principio sea capaz de representar mecanismos de procesos emocionales, atención y asignación de recursos. , manejo de información incompleta y contradictoria. Esto requiere el empleo de formalismos matemáticos (relativamente) nuevos, como la lógica difusa, la lógica probabilística bayesiana y el desarrollo de formalismos completamente nuevos. Marvin Minsky (fallecido recientemente) fue pionero de este enfoque en los años cincuenta. Y aún muchas de sus ideas esperan ser implementadas e integradas en los sistemas inteligentes modernos. Un ejemplo particular de un sistema que sigue este enfoque que me gusta es el Sistema de razonamiento no axiomático (NARS) de Pei Wang (narswang) y la implementación de OpenNARS (opennars / opennars).
El enfoque “de abajo hacia arriba” que va del modelado de una neurona a una red neuronal, a la evolución y desarrollo neuronal a las propiedades emergentes del sistema neuronal, hoy en día evolucionó a un gran campo de investigación separado llamado Sistemas biológicamente inspirados y Arquitecturas cognitivas biológicamente inspiradas en particular. Esto tiene poco que ver con las redes neuronales clásicas e incluso con el aprendizaje profundo (redes neuronales convolucionales). El modelado se mantiene lo más cerca posible del funcionamiento real (neurobiológico) de las neuronas biológicas en forma de redes neuronales espirales. Este tipo de neuronas y redes exhiben propiedades tales como el aprendizaje hebbiano y (recientemente) neuromodulación y neuroevolución.
En particular, la neuromodulación da lugar al modelado de reacciones emocionales y la evaluación emocional a través del modelo de “Cubo de las emociones” de Hugo Lovheim. Estos desarrollos están estrechamente relacionados con los desarrollos en el área de neurociencia y ciencias cognitivas. Todas estas investigaciones contribuyen a la exploración del cerebro de los mamíferos y (como creemos) eventualmente conducen a la reimplementación de la inteligencia (humana) en la máquina a través de la simulación. A partir de eso, tal vez, podamos simplificar el modelo y mejorar la eficiencia después de que podamos comprender qué fenómenos neurobiológicos son esenciales para nuestra inteligencia y cuáles son accidentales para la evolución y los rasgos del “hardware”.
Por lo que puedo decir (y muchos investigadores dicen) en términos de aprendizaje y desarrollo intelectual, los sistemas AGI (e incluso proto-AGI) estarán más cerca de los niños que de los sistemas expertos actuales. La idea de “AI kindergarten” se discute en conferencias y en los documentos.
Mi sensación personal (como programador :)) de que muy pronto enseñaremos a nuestras computadoras a realizar cosas en lugar de programarlas mucho antes de la aparición de verdaderos sistemas AGI. 🙂