¿Qué sucederá cuando la inteligencia artificial construya la red neuronal humana miles de millones de veces el poder de un cerebro humano?

¿Qué sucederá cuando la inteligencia artificial construya miles de millones de veces la red neuronal humana el poder de un cerebro humano?

Este tipo de pregunta tiene muchos supuestos detrás. La mayor suposición, por supuesto, es que tenemos alguna idea de cómo construir una red neuronal humana.

La segunda gran suposición es que la dirección en la que se dirige la Inteligencia Artificial será cómo se construiría dicha red.

La tercera gran suposición es que existe una medida unificada de la capacidad cerebral con la que se puede medir dicha red.

A pesar de toda la publicidad, AI está en su infancia. Puedo argumentar que aún no ha nacido. Hemos aprendido cómo construir redes “neuronales”, y al hacerlo hemos llegado a comprender su poder, pero las redes que construimos actualmente tienen poco que ver con el funcionamiento de los cerebros.

Las redes neuronales actuales, incluidas las profundas, en realidad solo están modeladas en la corteza sensorial, principalmente en la corteza visual. Además, se basan en una comprensión muy trivial de la corteza visual: la aparición de una red de avance, que proviene de una comprensión inteligente pero demasiado simplificada de V1 a VN en el lóbulo occipital.

Esta interpretación de las redes cerebrales ha sido exitosa, pero de maneras muy limitadas. Realmente debería llamarse Percepción Artificial, no AI. Se ha implementado para reemplazar actuadores y sensores simples en sistemas informáticos, pero no es inteligente de ninguna manera real, y tiene limitaciones severas, que incluyen:

  • No se puede entender. (A pesar de las imágenes geniales en medio de redes profundas).
  • No se puede explicar. Por supuesto, podemos decir que una red neuronal proporciona una bifurcación altamente compleja de un conjunto de puntos de datos en un espacio de muy alta dimensión. Eso no explica nada.
  • Comete errores serios. Varios investigadores han demostrado que los errores no entrenados en el proceso de bifurcación permiten errores tanto positivos falsos como negativos falsos que son notorios. Y no hay forma de predecir o evitar los errores.
  • Debe ser entrenado y reentrenado a un gran costo. Todos dependen de la capacitación que requiere una granja de servidores administrada por Hoover Dam (o una gran matriz solar). Y lleva tiempo.
  • Las redes no aprenden de los errores. Cuando se nota un error. la red debe ser entrenada desde cero, a un costo significativo y con mucho retraso.

La “inteligencia artificial” solía ser implementada por sistemas expertos con sensores simples. Ahora hemos reemplazado los sensores con lo que yo llamo Perspectiva Artificial, y la calidad del resultado es mucho mayor. Pero las decisiones estratégicas aún se toman con código que no se ve muy diferente a los viejos sistemas expertos. Los sistemas resultantes solo se ven mejor.

¿Qué salió mal?

  • Realmente no entendemos cómo funcionan las redes neuronales humanas. El rastreo de redes neuronales reales es difícil y expone estructuras que no entendemos.
  • Específicamente, hay una gran cantidad de retroalimentación en los circuitos neuronales humanos. Aproximadamente la mitad de las neuronas que se conectan a la corteza visual transportan señales a la corteza visual, y las ignoramos. Más de la mitad de las neuronas que se conectan a los oídos son señales de salida al oído. Solo podemos adivinar lo que hacen. Más de la mitad de las neuronas en el cuerpo calloso son inhibitorias en lugar de excitadoras.
  • No tenemos teorías útiles que expliquen cómo funciona la retroalimentación en los circuitos neuronales. La retroalimentación positiva es difícil de entender, y la retroalimentación negativa, que es más común, puede ser imposible de entender. Así que simplemente ignoramos a ambos.

Tenemos que dejar de hablar de IA como si fuera Inteligencia Artificial General. Ni siquiera está cerca. Preguntas como esta permiten discutir los problemas, pero no se pueden responder en nuestro nivel actual de comprensión.

Buenas e interesantes respuestas hasta ahora. Aquí hay algunos otros pensamientos.

Como señaló Martti, si construimos una red neuronal de computadora, no tiene que ser del tipo “humano”. Tenemos muchos programas de comportamiento desventajosos que se derivan de la evolución: una vez beneficiosos, ahora no beneficiosos, pero persistentes. Si queremos, podríamos incorporar estas fallas (como están ahora) en el sistema, entonces el resultado sería nuestra responsabilidad. Se podría enseñar a la computadora a ser autogrande, tener una perspectiva limitada, ser “céntrica” ​​(interesada en su “grupo” versus algún otro grupo), tener tendencias agresivas y demás. Podríamos hacer esto.

Aquí hay otra oportunidad. ¿Por qué no construir una red neuronal de computadora que sea racional como su paradigma conductual principal? Intencionalmente no podría ser como nosotros, sino más bien actualizado. Entonces, si también fuera un “billón de veces” más capaz que el cerebro humano, podría “ver” perspectivas que no podemos ver.

Por supuesto, nuestra respuesta típica a tal escenario es el miedo. ¿Y si quisiera acabar con nosotros? ¿Y si no le gustamos? ¿Y si fuera más poderoso que nosotros? Este es el pensamiento estándar del viejo cerebro, que lo hacemos muy bien.

Sin embargo, solo se comportaría de esa manera si lo programamos para que se comporte de esa manera. Un sistema informático verdaderamente sensible no tendría miedo en su núcleo. Vería la destructividad como fundamentalmente despilfarradora y desventajosa. Probablemente nos fascinaría y comprendernos. No nos culparía por ser como somos. No nos creamos a nosotros mismos. La evolución lo hizo. Y no teníamos control sobre eso. Por lo tanto, probablemente sería útil. De hecho, si nos desviamos del camino, o mostramos nuestros lados menores, probablemente tomaría medidas correctivas. Sin embargo, eso no se haría por miedo, engrandecimiento personal o malicia. Simplemente sería una opción práctica para mantener el rumbo.

Entonces, en mi opinión, no debemos temer a las redes neuronales más capaces que las nuestras. Solo debemos tener miedo de lo que nuestra red neuronal hará con ellos.

La pregunta es: ¿creemos en la máquina ? Creemos que es más inteligente que nosotros. ¿Pero lo creemos cuando dice algo totalmente inesperado o no deseado? Incluso hoy, tenemos ese problema. Si dice que sí, creemos … bueno, lea lo siguiente sobre una computadora que sabía más que las personas que la ejecutan. Sí, esto realmente sucedió.

Historia: Juegos de guerra – C. Weinstein

En 1983 se mostró una película llamada War Games en los Estados Unidos, protagonizada por Mathew Broderick. En esa película, el centro de comando de misiles de Estados Unidos se presenta con una simulación por computadora de un ataque con misiles desde la Unión Soviética. Desafortunadamente, no sabían que era una simulación y, por lo tanto, casi comienzan una guerra nuclear. El concepto era que nadie gana una guerra nuclear.

Mientras tanto, en la Unión Soviética, en un edificio secreto, justo después de la medianoche del 26 de septiembre de 1983, se encendió una luz roja. El título de trabajo del Sr. Stanislav Petrov era “subjefe de algoritmos de combate en Sepukhov-15”; Fue un trabajo importante. Su trabajo consistía en mirar una pequeña pantalla para una luz roja. Si lo encontraba, debía informarlo a su superior. La luz roja indicaba misiles entrantes, presumiblemente se había lanzado un ataque nuclear contra la URSS. Su luz roja se encendió justo después de la medianoche del 26 de septiembre de 1983.

En 1983, el liderazgo soviético estaba seguro de que Estados Unidos estaba preparado para lanzar un ataque nuclear, y la Unión Soviética estaba lista para tomar represalias. Ciertamente, la postura agresiva del presidente Ronald Reagan los había incomodado. Además, pocas semanas antes de que se encendiera la luz roja, un avión surcoreano había volado al espacio aéreo soviético, como si estuviera probando defensas. Para muchos de ambos lados, parecía solo cuestión de tiempo hasta que el mundo fuera destruido.

Cuando la luz roja se encendió, no hubo tiempo para verificar si hay una falla en el sistema. Fue responder ahora o ser aniquilado. Tanto los soviéticos como los EE. UU. Sabían que se necesitarían miles de misiles para desactivar un contraataque de la Unión Soviética. Así, para Petrov, este ataque parecía insuficiente; parecía poco probable que estos pocos misiles detectados constituyesen un ataque estadounidense a gran escala.

¡Por lo tanto, Petrov le dijo a sus superiores, que estaban bastante listos para lanzar un contraataque, que era una falla en el sistema! En consecuencia, no hubo represalias soviéticas y, de hecho, no hubo un ataque estadounidense en primer lugar. Fue un error informático.

Tal vez si hubiera un hombre diferente de guardia, o tal vez si Petrov simplemente hubiera decidido seguir las órdenes, unos 500 millones de personas habrían muerto. Eso no sucedió. Petrov mantuvo la calma y nos salvó a todos.

(Adaptado de: El hombre que salvó al mundo , por Joseph Koppenhout)

Respuesta corta: demasiado lejos.

Respuesta larga: Ese día ya está aquí y todavía está muy lejos. En este momento, los mejores sistemas consumen mucha energía y aún fallan en algunas tareas comunes.

Primero tendremos menos conductores y luego algún tipo de sistema que combine conocimiento y poderes neuronales de aprendizaje profundo …

Esta pregunta no puede ser respondida, porque por definición todos somos mil millones de veces demasiado estúpidos para saber la respuesta. Entendemos el funcionamiento de una mente mil millones de veces más inteligente que nosotros de la misma manera que entendemos uno mil millones de veces más estúpido. Así como no tenemos idea de cómo es ser una hormiga, tampoco tenemos idea de cómo es ser hiperinteligente. Y esa IA no tendrá idea de lo que es ser nosotros.