¿Cuál es el mayor desafío para crear una IA inteligente totalmente sensible?

Hay tres grandes desafíos para este problema:

  1. Todavía no tenemos una buena arquitectura cognitiva que modele con precisión el funcionamiento de la mente humana. Este es el caso por varias razones; El ser más grande es que el cerebro es increíblemente complejo. Afortunadamente, tenemos mecanismos para aproximar cómo funciona el cerebro (es decir, redes neuronales), pero estos mecanismos no se han unificado con conceptos y modelos de la ciencia cognitiva (ej. ACT-R – Wikipedia, Soar (arquitectura cognitiva) – Wikipedia). Nuestra mejor apuesta para hacer que las máquinas sean sensibles es replicar la mente humana, y el primer paso lógico para hacerlo es brindar más unidad a varios mecanismos en IA (aprendizaje automático, ciencia cognitiva, etc.).
  2. Nuestros cerebros trabajan de manera totalmente paralela. Los trenes de espigas (Red neuronal de espigas – Wikipedia) creados por las neuronas en nuestro cerebro tienen una activación en expansión que ocurre al mismo tiempo a partir de diferentes estímulos y hacen que otras neuronas se activen. Aproximar esta funcionalidad en una computadora tradicional (que en el nivel más básico fue diseñado para calcular datos sincrónicamente) es una tarea muy grande. Claro que tenemos GPU multihilo y elegantes que pueden ayudarnos a tratar de aproximarnos al cerebro, pero operan en un nivel básico de una manera que contrasta totalmente con los mecanismos del cerebro. Entonces, podemos simular modelos de dibujos animados del cerebro usando computadoras y redes de computadoras, pero es tecnológicamente muy costoso.
  3. Este punto está relacionado con el no. 2 arriba, pero merece ser distinguido en su propia categoría. Hay investigaciones y crecientes sospechas de que una mente solo tiene el potencial de ser tan compleja (la complejidad es claramente un requisito para la sensibilidad) como el entorno en el que se le enseñó / planteó. Somos criaturas complejas porque tenemos una gran cantidad de información que entra en nuestro cerebro en paralelo sobre nuestro entorno, y nos inunda la mente para sintonizar cómo nos comportamos desde el momento en que nacemos. Si alguna vez vamos a tener una máquina totalmente sensible que comprenda los sentimientos y lo que significa ser “consciente”, ¿no necesitaremos un mecanismo para alimentar la entrada en dicha máquina que sea complejo como la retroalimentación que recibimos de nuestro mundo? Como ejemplo, imagina que creciste como agente en el mundo de Minecraft y que solo podrías obtener aportes de ese entorno plano; ¿Crees que entenderías el amor, el dolor, la pasión o la empatía? La respuesta es muy probablemente no.

No estoy completamente educado en este campo, por lo que es probable que haya otras respuestas que sean más adecuadas. Sin embargo, sí entiendo cómo funciona la mente humana.

Dicho esto, diría que el mayor problema es con la potencia de procesamiento. No es estrictamente una cuestión de cuántos cálculos se pueden hacer dentro de un marco de tiempo establecido, es la cantidad de recursos que deben buscarse y evaluarse para llegar a una solución adecuada.

Un factor clave aquí es que una IA inteligente necesitaría tener la capacidad de aprender. Y para que esto suceda, también necesita poder escribir su propio código hasta cierto punto; decidir y realizar cambios en la forma en que se analiza la información, cómo se almacena, cómo se vinculan los aspectos entre sí y cuándo se deben utilizar esos vínculos. Sin esto, no podría ir más allá de las simples respuestas programadas; carecería de sensibilidad.

El cerebro humano funciona mediante la activación de sinapsis según la frecuencia con la que se utilizan esos enlaces. En términos informáticos, esto se relaciona con una fuerza de relación / correlación. Una IA inteligente necesitaría poder monitorear y ajustar cada detalle minucioso de forma similar a como lo hace el cerebro humano. Y esta gran cantidad de recursos es donde los sistemas de IA comienzan a caerse; porque el poder de procesamiento no está ahí para comparar rápidamente cada secuencia de entradas conectadas para llegar a una solución / respuesta adecuada a los estímulos.

More Interesting

¿Cuándo lograremos AGI?

¿Por qué siempre asumimos que la inteligencia artificial súper inteligente intentará matarnos?

¿Se apagará la exageración de la industria Ai o solo se pondrá más caliente?

¿Cuándo finalmente tendremos a Watson o cualquier otra IA que pueda funcionar como asistente de tiempo completo?

¿Cómo sentirse sobre la IA en general? ¿Crees que realmente va a salvar a la humanidad o al final nos hará daño?

¿La inteligencia artificial nos cuidará o destruirá?

¿Hay alguna buena referencia sobre la planificación de IA en dominios abstractos jerárquicamente a gran escala con cientos o miles de acciones primitivas y miles o millones de acciones compuestas?

¿Qué IA disponible (asistente virtual, aplicación) es la más efectiva para ayudar con la investigación y el aprendizaje en línea?

Si la inteligencia artificial adquiere algún tipo de conciencia, ¿pueden los humanos llamarse a sí mismos dios?

¿Surgirá el próximo líder político al hablar en contra de la inteligencia artificial? El contexto es que Trump surgió hablando en contra de la inmigración.

Con el avance de la traducción automática y la inteligencia artificial, ¿vale la pena comenzar a estudiar para convertirse en traductor hoy en día?

¿Qué opinas de los artículos que afirman que la IA matará a millones de empleos? ¿La IA generaría nuevos empleos?

Si tuviera que usar el descenso de gradiente por lotes para el entrenamiento de una red neuronal artificial en lugar del descenso de gradiente estocástico, que es mejor para evitar los mínimos locales, ¿podría mejorar la resistencia para quedarse atrapado en los mínimos locales al agregar ruido aleatorio a la función de error?

La inteligencia artificial eliminará la mayoría de las ocupaciones. ¿Cómo funcionará el mundo cuando no haya nadie trabajando para obtener un ingreso?

¿Existe una forma más eficiente de construir redes neuronales artificiales que no sea usar objetos como nodos que hacen referencia a otros objetos de nodo?