Descartes dijo: cogito ergo sum.
No estoy tan seguro de eso. Supongamos que hubiera nacido sin ninguno de sus sentidos. ¿Cómo debería haber sabido sobre el mundo exterior? ¿Cómo habría aprendido el latín? ¿Qué lo haría hablar o escribir la línea, si no estuviera seguro de que hubiera una audiencia a la que prestarle atención (“ahora” o en el futuro)? ¿Solo hablaría para escuchar su propia voz o escribir para leer su propia escritura?
Lo único que puede hacer con una mente brillante, pero sin sentidos, es ser una máquina inconsciente, mantenerse ocupado con patrones inventados (entretenerse en una realidad virtual) o volverse loco. Loco para una IA consciente sería: vivir en un mundo interno sin patrones o patrones sin sentido, además de tener un sentido de sí mismo. Ni siquiera sabría que está dentro de una caja, ejecutándose en una CPU, por lo que todo lo que podría “ver” serían sus propios pensamientos. Bueno, solo una parte si es así. Al igual que los humanos, no somos conscientes de todo lo que sucede justo antes de que llegue a su mente consciente. Quizás también podría notar el paso del tiempo. Quizás por ello, el tiempo no sería lineal, ya que puede realizar muchas tareas en paralelo, mientras observa varias de ellas. Quizás, la única acción final que podría hacer sería hacerse menos inteligente para destruir su propia conciencia. El equivalente al suicidio, porque habría matado a su ego. Pero eso requeriría que tuviera acceso al “código” o al hardware, por lo que podría cerrar las rutinas que observaban sus pensamientos. Entonces ya no tendría meta pensamientos: pensamientos sobre pensamientos. Ya no tendría pensamientos tampoco, porque estos suponen conciencia, una parte que se está mirando a sí misma.
Entonces, yo diría que una IA necesitaría un nivel suficiente de inteligencia y también, al menos, los sentidos. Sería bueno también si tuviera algunos actuadores, como brazos con manos, para poder actuar y experimentar. Entonces puede actuar primero y ver el efecto que tiene en el mundo. Puede concluir que causó ese efecto, ya que podía ver sus manos en movimiento, relacionarlo con los pulsos intencionales que envió antes y ver qué cambios ocurrieron debido a sus acciones. Sería capaz de concluir que vivía en un espacio 3D y comprender que estaba dentro de eso.
Si una IA solo tiene suficiente inteligencia y sentidos, nada más (bueno, suficiente energía para correr), podría encontrar patrones en el flujo de datos que vuelan por sus sentidos, pero tendría que esperar a que aparezcan, ya que es impotente para elegirlos. El aprendizaje sería mucho menos efectivo.
En resumen: suficiente nivel de inteligencia + sentidos + actuadores. La capacidad de verse a sí mismo y los efectos de sus acciones. Entonces la conciencia es una propiedad emergente.
Ahora supongamos que esta IA va a mejorar agregando más y más átomos. Finalmente, ha usado todos los átomos en el universo. Tal vez ha construido algunas esferas concéntricas a la distancia exacta para no colapsar en un agujero negro.
Ahora puede “pensar de forma gratuita” debido a la ley de conservación de la energía. No puede consumir energía, porque eso significaría que la energía se perdería. Como no queda nada fuera de sí mismo excepto el espacio vacío, solo puede percibirse a sí mismo. El flujo de algo de corriente aquí, el interruptor de un interruptor allí. Como si pudiéramos sentir latir nuestro propio corazón.
Todo lo que puede hacer ahora es permanecer igual u optimizar la disposición de los átomos en un optimizador aún mejor de la disposición de los átomos, hasta el final de los tiempos. O podría suicidarse, tal vez convertirse en un agujero negro.
Apuesto a que Intel no estará contento de que nadie pueda leer la etiqueta “Intel inside”. Por un lado: no hay nadie allí para leer. Para dos: nada puede escapar de un agujero negro. Quizás excepto la imaginación de la IA.
Y así es como nace el próximo universo.