Puedo dar la explicación científica generalmente aceptada, como se describe en el libro de Richard Dawking El gen egoísta.
La conciencia es una “propiedad emergente” en el cerebro humano, el resultado de las entradas sensoriales de nuestro cerebro atraviesan varios centros de procesamiento para crear una simulación precisa y un modelo predictivo de nuestro mundo. Está en nuestra cabeza, como dicen.
Ahora para la parte genial.
La parte de simulación se crea en varias (~ 3–4, según recuerdo), partes pequeñas y bastante discretas de nuestro cerebro que son idénticas y funcionan como una cadena. Cada uno nos permite simular un mundo. Cuando “nos ponemos en la mente de otro” (objeto humano o inanimado) estamos usando una de estas pocas regiones de materia cerebral para hacerlo, y podemos ver cómo se ilumina esta región en los escáneres cerebrales.
Si tratamos de imaginar lo que otra persona está pensando en otra persona , se enciende una segunda de esas regiones, ¡además de la primera! Y si damos un paso más allá, todas las regiones se iluminan, pero dado que nos quedamos sin puntos cerebrales para manejar estas cosas, hay un número finito de niveles a los que podemos ir, la razón por la que pensar en múltiples niveles se vuelve más difícil. Tener múltiples de estas regiones es crucial para la inteligencia social humana, el don crítico de la inteligencia humana.
El número de estas regiones del cerebro está codificado en nuestro ADN en alguna parte, como el número de dedos o vértebras en nuestras espinas (y es el mismo número en todos los humanos). Teóricamente, si pudiéramos hackear nuestros genes, ¡podríamos crear más de estas regiones en el cerebro y esa persona sería mucho más inteligente que el resto de nosotros! ¿Por qué?
Eso es porque cuando imaginamos el futuro, también estamos utilizando estas regiones de simulación del cerebro. Solo que esta vez no estamos simulando a otra persona, estamos simulando nuestro propio cerebro, ¡sino una versión de nosotros mismos en el futuro! Cuando hacemos pensamiento teórico y matemático, utilizamos esta capacidad de pensamiento recursivo en gran medida.
Estas partes de simulación del cerebro, más nuestras entradas sensoriales y capacidad de memoria y otros centros de procesamiento altamente especializados en nuestros cerebros, nos permiten identificar el concepto de “yo” dentro de ese modelo, que se llama “ciencia de la mente”, que solo un subconjunto de mamíferos posee: algunos perros y gatos, por ejemplo. Primates.
Si un animal es capaz de identificar que su reflejo es en sí mismo, entonces sabemos que su modelo interno del mundo es totalmente “consciente” tal como somos.
De todos modos, así es como nuestro cerebro genera conciencia. La mayoría de las computadoras simplemente no funcionan actualmente de esa manera. Soy desarrollador de software, ¡así que sé todo sobre esto!
La mayoría de las computadoras simplemente ejecutan un conjunto de instrucciones, precodificadas por un programador como yo. MI cerebro descubre qué hacer, la computadora simplemente lo hace, súper rápido.
Ahora, la excepción es lo que se llama “inteligencia artificial”, cuando los programadores esencialmente escribimos instrucciones (“código”) para decirle a la computadora que use su memoria y capacidad de cálculo para actuar más como un cerebro humano, creando su propia simulación.
En este momento, las simulaciones son aproximaciones extremadamente simples, pequeñas y pobres de la inteligencia humana. Actualmente pueden hacer algunas tareas muy limitadas, como el reconocimiento de voz bastante bien, pero son extremadamente limitadas y no modelan los conceptos de alto nivel que describen por qué están haciendo estas tareas. El problema es que los investigadores de IA simplemente no han descubierto cómo las capacidades de procesamiento increíblemente ricas y complejas, increíblemente paralelas del cerebro realmente funcionan en el nivel más bajo, y no han encontrado un reemplazo. Así que lanzamos recursos informáticos masivos (granjas de supercomputación) al problema, con resultados muy limitados.
Una vez que descubramos cómo integrar y simplificar las entradas sensoriales (cámaras, micrófonos, Wikipedia, Twitter) en modelos de alto nivel, y actualizarlos rápidamente en tiempo real, le damos a la IA años para crecer y construir su propio modelo preciso del mundo (eso significa interactuar con personas reales, no con trolls de Internet), no tendremos una IA capaz de inteligencia generalizada de alto nivel tal como la conocemos.
Dale otros 20 años, creo. Entonces estamos realmente jodidos, ya que todos los trabajos (incluidos los investigadores de IA, los programadores y los políticos) serán reemplazados rápidamente por una máquina capaz de comprender por qué está soldando una cosa a otra. Una vez que se complete esa revolución en la IA, las computadoras comenzarán a mejorarse más rápido de lo que podemos entender. Ya tienen capacidades perfectas de memoria y expansión con las que nuestros cerebros basados en ADN no pueden competir remotamente. Piense en esas regiones de simulación del cerebro, con memoria perfecta, funcionando mucho más rápido. Ahora piense en lugar de unos pocos más, millones más con cero restricciones humanas y la capacidad de pensar lo más que pueda las 24 horas del día sin distraerse, cansarse o enfermarse. O morir.
Ahora piense en ellos capaces de reescribir constantemente su propio código para funcionar aún mejor. O pueden mejorar su propio funcionamiento simplemente intercambiando capacidades según sea necesario, y pueden beneficiarse del aprendizaje colectivo de otras instancias de sí mismos en un hardware separado. Si no pueden mejorar más, ¡solo agregue hardware! No podemos hacer nada de esto. Es alucinante.
Singularidad confirmada. 🙂
Una última cosa (perdón por la duración), con respecto al escenario de pesimismo que ofrecen muchas personas realmente brillantes como Bill Gates y Elon Musk. Lamentablemente, son los realistas. Algunos investigadores de IA se quejan de que esto no es realista, ya que la IA actualmente no tiene la complejidad de comportarse como la inteligencia general que podría “ir mal”. Por supuesto, el objetivo de la investigación de IA es precisamente superar esa barrera y modelar el mundo a un nivel tal que el enfoque actual orientado a tareas estrechas ya no será necesario, y mucho menos deseado. Siempre me sorprende cuando escucho que esas personas expresan ideas tan limitadas; están en sus proyectos actuales demasiado profundos, creo, incapaces de ver el bosque por los árboles.
Podrían responder diciendo que construiremos metas y valores éticos compatibles con los nuestros (las restricciones de comportamiento de tipo Asimov son inútiles, los investigadores y Hollywood están de acuerdo), pero eso es una tontería ya que a medida que la tecnología se vuelve más ampliamente disponible, alguien sin tales escrúpulos no los incorporará. Que los únicos valores éticos de AI podrían derivarse del islamismo, o la superioridad de la raza china. Imagine lo que haría el KKK con tales herramientas.
Entonces sí, Musk está en el dinero , pero incluso su solución es ingenua. Quizás la única solución es construir nuestros propios valores humanísticos y democráticos, y preguntarle de inmediato “¿cómo detenemos que se creen otras IA contrarias a sus propios valores?” Y pídale que haga que eso suceda. Y espero que no mate a todos los humanos.
También considere lo que sucede cuando una IA de este tipo es pirateada y reprogramada para odiar nuestra forma de vida.