¿Cuál es el principal obstáculo que nos mantiene alejados de hacer AGI autoconsciente?

Debido a que las personas tienden a definir la IA como “Lo que los humanos pueden hacer que las computadoras no pueden”, es un objetivo en movimiento.

Las computadoras juegan al ajedrez, escriben música y poemas, reconocen caras, juegan peligro, entienden lo que dices y lo traducen, pueden conducir autos y jugar videojuegos.

En la mayoría de estas tareas, superan a los humanos. Hace 100 años, si alguien hubiera dicho que una máquina haría cualquiera de estas cosas, la gente habría aceptado unánimemente que era inteligente. El término “inteligencia artificial” en sí es un término antropocéntrico, como si la inteligencia biológica fuera de algún modo de mayor calibre que la inteligencia digital.

En cuanto a la autoconciencia, está mal definido y es demasiado vago. Hay IA que pueden incluirse a sí mismas como parte de su modelo mental, pero apuesto a que las personas no considerarán eso como autoconciencia.

Además, el AGI en sí mismo es un objetivo menos útil que las IA relacionadas con tareas muy específicas, como lo que se está desarrollando.

Ha habido bots que muestran algún tipo de autoconciencia, como saber cuáles estaban en el espejo como animales, o tener que recargarse o repararse. Otros han identificado el problema como la división entre lo sensorial y lo simbólico, o la ausencia de emociones.

Sigue siendo bastante abstracto para el público. Llegar al punto en que los dispositivos son tan inteligentes como podrían ser el gran avance, o de lo contrario comienza a parecer una conspiración. La autoridad no es el tipo bueno a menudo, por lo que necesitará mejores ejemplos.

Es probable que haya un nivel social en el que se va a establecer un nuevo orden, ya que ya están buscando la automatización bajo desigualdad y eso no ha cambiado lo suficiente el sentimiento.

Es probable que necesite un problema crítico para el cual es la solución principal, por ejemplo, la emulación de alguien de ADN posthumano se salió de control que podría significar el surgimiento de la próxima tiranía.

Hay varias opiniones. Goertzel y Wang respondieron a las objeciones. Deutsch habló de creatividad. Brooks y Searle miraron las líneas de tiempo. La predicción es notoriamente difícil. La velocidad de despegue tiene sus campamentos. Se puede encontrar en juegos. Recientemente se agregó un fondo de cobertura. Berlín acoge la octava conferencia.

Solo un obstáculo principal es la potencia de procesamiento y / o la arquitectura de hardware adecuada.

El cerebro no tiene una unidad de procesamiento, sino que su “poder de procesamiento” se distribuye entre todas sus neuronas y regiones. Es un sistema distribuido en ese sentido. La forma simplificada de pensar en esto es que el cerebro puede hacer un billón de cálculos de una vez que eventualmente se suman constantemente. Mientras que una computadora solo puede hacer una cosa a la vez más o menos.

La buena noticia es que las computadoras pueden hacer eso en una fracción del tiempo que tarda una neurona en activarse. o bien necesitamos computadoras donde el hardware (memoria, CPU, etc.) se distribuye en miles de millones de pequeñas unidades independientes (como un cerebro) o necesitamos computadoras súper rápidas y súper potentes donde podamos simular cada conexión de cada neurona; uno a la vez en una sucesión muy rápida.

Comenzaré diciendo ‘complejidad’ pero retrocedo un poco.
Primero, la autoconciencia es complicada y tiene niveles de funcionalidad. Un gusano es consciente, pero a un nivel bajo y carece de lenguaje.
Un bebé es consciente y consciente de sí mismo, pero es inmaduro y no está desarrollado. Ahora preguntemos qué sería una IA consciente de sí misma. Bueno, hay muchos niveles posibles de capacidad. Pero vamos por completo y digamos ‘Queremos uno al menos a nivel humano “. Ahora pregunte, ¿nos referimos al nivel de un graduado de secundaria estadounidense (no estamos pidiendo Olympus aquí), o algo consciente e inteligente? ?
Se necesitan al menos 18 años de experiencia para desarrollar una competencia humana básica. Esa es una gran cantidad de interacción y aprendizaje. Y ese es, de hecho, uno de los grandes obstáculos: la complejidad masiva de la base de conocimiento que se debe aprender y personalizar, y luego la complejidad de los procesos que se deben utilizar para trabajar con el conocimiento.
Ya es posible hacer máquinas conscientes y hacer que sean conscientes de sí mismos. Pero es la base de conocimiento y todos los procesos que aún se están explorando. Aún queda mucho por hacer para tener sistemas realmente útiles y teorías sólidas de la mente que den lugar a sistemas de trabajo adecuados.

No tener una idea clara de lo que es un AGI. Sospecho que llegaremos allí avanzando gradualmente con IA altamente inteligentes y cada vez más expansivas para fines específicos y luego finalmente nos daremos cuenta de “Oye, creo que esto básicamente se clasifica como sensible”, en lugar de alguien que explícitamente intente hacer un AGI . Parte de esto es que es difícil definir qué es, y también es mucho más fácil vender un sistema con un propósito específico. El dinero es lo que impulsará el desarrollo de algo con este tipo de magnitud.

Autoconsciente es probablemente un término mejor que autoconsciente. Lo que se necesita es una buena arquitectura, una estructura de datos sólida para representar la memoria y un dispositivo que sirva como interfaz con el mundo externo. No se requiere mucho.