¿Podemos construir inteligencia artificial consciente sin comprender el cerebro humano?
La verdad es que no lo sabemos. Este es el por qué.
Supongo que la conciencia en su pregunta se refiere al conocimiento de uno, o más exactamente a su creencia Ese existe. El filósofo alemán Kant explica que la conciencia corresponde a la posesión del “yo” en su representación del mundo. Piensa en lo que esto implica.
- ¿Dónde irías a estudiar aprendizaje profundo si ya estuvieras graduado?
- ¿Wikipedia tiene la intención de seguir el liderazgo de organizaciones como Facebook e Instagram en el uso de inteligencia artificial para eliminar los comentarios de acoso?
- ¿Sería un ciudadano o una posesión una inteligencia artificial consciente de sí misma?
- ¿Por qué las máquinas de vectores de soporte han caído en desgracia?
- ¿Por qué hay toda esta charla sobre IA? Los robots nunca podrán reemplazar a los humanos, y no tienen alma.
Para ser consciente, un ser debe tener pruebas de que existe. Los humanos confían en sus sensaciones: si “yo” sufre cuando “yo” toca el fuego, ¡”yo” debe existir! En ese caso, ¿por qué los animales no se vuelven conscientes? La única explicación que encontré es su nivel de inteligencia, por muy profundo que se sienta, un perro nunca puede pensar por sí mismo. Los humanos pueden.
Pensemos en cómo se relaciona esto con la IA. Las palabras de Kant, que poseen un “yo” en su representación del mundo, son sorprendentemente apropiadas: a menudo hablamos de los sistemas de aprendizaje automático como el aprendizaje de una representación del mundo. Los sistemas hacen esto observando el mundo a través de los datos que les damos. Aprenden sobre autos, aviones y números, pero nunca aprenden sobre sí mismos. ¿Por qué no preguntas? No tienen ninguna razón para creer que existen. Nunca he alimentado a una red neuronal una representación de sí misma.
Hoy en día, los sistemas de IA no tienen pruebas de su propia existencia, por lo que, por supuesto, ¡no ganarán conciencia!
Los humanos ganan conciencia. Sin embargo, no sucede de inmediato. Personalmente, no puedo afirmar haber sido consciente a la edad de 1. ¿Puedes?
Kant explica que los niños pequeños a menudo se refieren a sí mismos como “él”: “Préstamo quiere leche”, “¡Préstamo quiere jugar!”. Se distinguen de sí mismos, no creen realmente en su propia existencia. Sin embargo, cuando un niño dice “yo” por primera vez, nunca regresa. Se vuelve consciente. ¿Por qué?
Puede ser que en el momento en que dijo “yo”, se le ocurrió que podría existir. En otras palabras, se hizo consciente por accidente. Tomó una decisión inconsciente de creer en su propia existencia.
Lo que esto significa es que, incluso si uno tiene todo lo que necesita para tomar conciencia, no necesariamente sucederá. ¡Uno no puede decidir conscientemente ganar conciencia!
Nuestros futuros sistemas de inteligencia artificial, incluso si se les da la prueba de que existen a través de representaciones de sí mismos, incluso si son lo suficientemente complejos como para lograr una comprensión a nivel humano, pueden nunca ganar conciencia.
O al menos, no podemos obligarlos a hacerlo, tanto como no podemos obligar a un niño a hacerlo.
Lo que es seguro es que el aprendizaje automático no depende de nuestra comprensión del cerebro humano para progresar. ¡Ni siquiera se basa en la comprensión de nuestros propios algoritmos! De hecho, descubrí que los sistemas de inteligencia artificial de mejor rendimiento son aquellos que se ven obligados a aprender sin ayuda humana explícita: no se explica cómo caminar hacia un sistema de aprendizaje por refuerzo. Si le dices que se mueva hacia allá, descubrirá cómo funciona.
Esta tendencia también podría aplicarse a la conciencia en IA: dado que no podemos forzarla, tal vez podamos dejar que aparezca de forma natural.