¿Puede la inteligencia artificial construir una máquina que los humanos no puedan entender como un pollo no entiende las máquinas que tienen los humanos?

Muchas redes neuronales artificiales son muy profundas y muy complicadas ahora y saber exactamente qué caminos de neuronas se usaron para llegar a una respuesta ya es imposible (piense en rastrear los pesos de las neuronas de 100m a través de un archivo de registro). Parte de “no saber exactamente qué está pasando” ya forma parte del aprendizaje automático. Sé lo que está haciendo el código. Se como funciona. Conozco el proceso Pero no sé exactamente qué neuronas estaban involucradas en una respuesta determinada. Algunos modelos, como el bosque aleatorio, se utilizan para aquellos casos en los que DEBE saber cómo tomó una decisión. Otros, como nuestro propio cerebro, solo producen una respuesta sin saber exactamente qué partes del modelo se usaron.

El futuro

Sí, imagine una computadora que pueda escribir su propio código para cualquier propósito que quiera lograr. Código sobre la marcha para lograr un solo objetivo.

Supongamos que tenemos un hardware que emula un cerebro biológico pero que es mucho más grande y mucho más rápido. Ese es un método para lograr una verdadera computadora inteligente. Tenga en cuenta que una computadora es tanto hardware como software. Me lo imagino como un hardware que actúa como neuronas artificiales que pueden conectarse en software o al menos configurarse mediante software, como lo hacemos con una matriz de compuerta programable en campo (FPGA).

Ahora agregue a eso un sistema informático “en blanco”. Me imagino que como una computadora en funcionamiento que es Bare metal, el sistema de inteligencia artificial tiene que funcionar. La IA podría programar este sistema sobre la marcha modificando directamente la memoria para escribir código, almacenar datos, etc. como parte de su “pensamiento”. No habría necesidad de un sistema operativo, ya que el código sería como la memoria que el sistema haría referencia a una neurona artificial, como pensamos en cualquier memoria. Piensa en la cara de tu madre. Los resultados, sean los que sean, fueron todas las neuronas disparadas y su “pensamiento” fue el resultado. Así es como sería el código para la computadora de metal desnudo. Las diferentes CPU que ejecutan un código diferente que eventualmente podrían volver a alguna “lista maestra” (los programadores de Forth que unieron palabras para crear programas tendrán una gran comprensión de cómo funcionaría esto, especialmente si alguna vez ha implementado un sistema de Forth).

Ahora piense en esas dos computadoras, la que ejecuta la IA y el metal desnudo son el mismo sistema. Entonces, la IA esencialmente podría modificar su propia programación en función del pensamiento. Me imagino que habría pequeños fragmentos de memoria que contenían código que era reutilizable o tan comercial que tal vez existía en toda la memoria. Es posible que el código no fluya en una serie de JSR (Jump to SubRoutine), pero podría ser solo un grupo de “saltar siempre” que ejecutó el código a través de la memoria en lo que llamamos código Spaghetti.

Los resultados, aunque podríamos “congelar” el sistema y examinar su memoria, sería una tarea importante, si no imposible, determinar exactamente lo que estaba haciendo.

Tenga en cuenta que no tenemos (y no estamos remotamente cerca de tener) una “inteligencia general”, una que pueda pensar por sí misma.

La generación actual de los llamados programas “AI” debe enseñarse con el ejemplo. En el mejor de los casos, les mostraríamos un montón de máquinas y les haríamos construir más máquinas como esa.

Es posible que se les ocurriera una máquina que sería difícil de entender, pero no creo que sea imposible para nosotros entender.

PERO, si tuviéramos una inteligencia general (recuerde: ¡no la tenemos!), Entonces es perfectamente posible que sea más inteligente que nosotros.

Vi una entrevista con Neil deGrasse Tyson donde señaló que un chimpancé es tan inteligente como un niño de 6 años … pero tienen el 99% del mismo ADN que nosotros. Entonces, la asombrosa diferencia en inteligencia entre un chimpancé y un humano adulto (o entre un niño pequeño y un adulto) se debe a solo el 1% de nuestro ADN.

Así que no es nada imaginativo imaginar una criatura que sería un 2% diferente de un chimpancé y un 1% diferente de nosotros que tendría una inteligencia mucho mayor. Esa cosa vería a nuestros humanos mejores y más brillantes como no siendo más inteligentes que uno de sus hijos. Como dijo Tyson, Stephen Hawking le presentaría a uno de ellos el mejor trabajo de su vida, y condescendientemente dirían: “¡Oh! ¡Qué * agradable *! ”Y colóquelo en su refrigerador al lado del pequeño jardín de infantes de Timmy.

Definitivamente no es difícil imaginar que una verdadera IA general podría construir fácilmente cosas que los humanos no tienen oportunidad de entender.

Pero ni siquiera tiene que tener una mayor inteligencia para hacer eso. Me gusta jugar con los gadgets de “Internet de las cosas”. Hice un cubo de madera, como un dado de 4 ″. Dependiendo de qué número esté en la parte superior, mi teléfono celular reproducirá una de las seis piezas musicales diferentes … ¡incluso si el cubo y el teléfono celular están a miles de millas de distancia! Te garantizo que el 99,99% de los humanos de hoy no podrían darse cuenta de cómo funciona. Lo abres, hay un montón de cables, una pequeña placa de circuito y una batería. ¿Sabes cómo funciona? No. Para hacer eso, tendrías que mirar cuidadosamente lo que hay en los extremos de los cables (pequeños cilindros con un rodamiento de bolas en el interior) y en la placa de circuito. Debería comprender que el chip que contiene es un microcontrolador ESP8266, pero aun así, no sabe cómo funciona. Tendría que extraer de alguna manera el software de su memoria flash, e incluso entonces, convertir el código de la máquina en software legible sería muy difícil incluso para las personas más experimentadas. Luego, finalmente decodifiqué el software que escribí y vi que usa los cilindros y los rodamientos de bolas como detectores de orientación y el software envía un número de 0..5 a mi teléfono celular a través de WiFi.

Pero incluso si la gente bien entrenada de hoy pudiera resolverlo … las mejores mentes del planeta de hace 100 años estarían completamente desconcertadas. Parecería mágico.

Entonces, incluso con inteligencia humana, no podríamos entender una invención a nivel humano desde solo 100 años en el futuro.

La inteligencia artificial ciertamente puede aprender patrones que los humanos pueden no ser los más adecuados para comprender todavía, sin embargo, no creo que esto necesariamente signifique que nunca podremos entenderlos. ¿Habrá un período en el que los humanos no puedan entender cómo funcionan las máquinas? Lo más probable es que no debamos tomar eso como que ese período de tiempo será indefinido.

Por ejemplo, las redes neuronales profundas son consideradas por muchos como una caja negra y hay una serie de esfuerzos de investigación para comprenderlas mejor, algunas de las cuales están a continuación:

Nuevas grietas teóricas abren la caja negra de las redes neuronales profundas

Cómo los detectives de IA se están abriendo la caja negra del aprendizaje profundo

Aunque desafortunadamente todavía estamos en su mayor parte aquí:

Hay un gran problema con la IA: incluso sus creadores no pueden explicar cómo funciona

Con respecto a la cuestión de si la IA puede construir una máquina que los humanos no puedan entender, definitivamente pueden hacerlo, sin embargo, dado el ingenio humano, no apostaría que ese sería el caso por mucho tiempo.

Recuerdo haber leído este artículo hace años: sobre el origen de los circuitos

En resumen, los investigadores utilizaron algoritmos genéticos para construir una placa de circuito que pudiera diferenciar entre dos tonos diferentes. Después de mil generaciones de selección natural, tenían una placa de circuito que funcionaba, pero nadie sabía cómo funcionaba. Había partes del circuito que ni siquiera estaban conectadas, pero de alguna manera eran absolutamente necesarias para que funcionara.

Entonces sí, creo que la IA podría construir algo imposible de entender, a través de un proceso similar. No ‘entendería’ lo que está haciendo, solo intenta diferentes cosas para lograr algún objetivo.

Sí, casi todas las redes neuronales artificiales no triviales son máquinas que los humanos no pueden entender. Sabemos que la red representa la función aprendida en capas de pesos, pero eso apenas explica las habilidades o errores de las máquinas. Esta es la razón por la cual este tipo de algoritmo a menudo se describe como ‘caja negra’, lo que significa que sabemos lo que entra y lo que sale, pero no lo que hay dentro.

P: ¿Puede la inteligencia artificial construir una máquina que los humanos no puedan entender como un pollo no entiende las máquinas que tienen los humanos?

Uno se lo imagina. Algunos de los circuitos diseñados por algoritmos genéticos son muy difíciles de entender en términos de cómo funcionan, uno imagina que los requisitos más complejos podrían ser imposibles de entender.

Las arañas tejen seda que los humanos no pueden entender. Estoy seguro de que no es increíblemente difícil “construir” algo que está más allá de la comprensión humana por un tiempo.

Por supuesto. La IA se desarrolla más rápido que la inteligencia humana, por lo que es posible que la superen antes de lo que pensamos.