Permítanme presentar esto diciendo que creo que inevitablemente tendremos que construir un sistema que se autoorganice para alcanzar la inteligencia. Aunque el escaneo de cerebros parece interesante (el nuevo dispositivo corta automáticamente y escanea cerebros, luego los coloca en un mapa de Google) Creo que, en última instancia, tal observación de la construcción natural solo servirá como guía para construir una IA nativa digital.
Creo que tendremos éxito en ofrecer una inteligencia artificial fuerte cuando proporcionemos una inteligencia que no esté modelada estrictamente por nuestra cuenta. Es decir, cuando buscamos crear una inteligencia que puede no estar centralizada en un cerebro, sino tal vez la construcción de una colmena.
Específicamente, si deseamos arrancar mayores magnitudes de inteligencia artificial mediante el diseño recursivo de una forma de la siguiente, entonces puede ser útil tener un grupo de cerebros en el nivel N para diseñar solo uno en el nivel N + 1.
- ¿Cuáles son los principales factores que inhiben el desarrollo de una IA fuerte?
- Teniendo en cuenta el último avance de DeepMind (AlphaGo Zero 2017), ¿qué tan probable es la creación de un AGI en los próximos 10 años?
- ¿Cómo es hablar con Quora similar a AI?
- Si no tengo ninguna capacidad matemática, ¿puedo ser de alguna inteligencia?
- ¿Hay alguna investigación sobre la ética de los humanos que se enfrentan a la IA, ya que la IA futura puede desarrollar la conciencia? Básicamente, dañar a un robot sería un asesinato.
Esto requiere que se aclaren también un montón de definiciones y criterios de adecuación: debe codificar claramente el problema y darle a la IA un espacio para resolverlo.
He estado pensando mucho sobre esto recientemente y aquí es donde la trama se complica. Creo que debemos mirar los modelos que rigen la inteligencia de los grupos. Esta línea de pensamiento se inspiró en el trabajo de Geoffrey West (¿POR QUÉ LAS CIUDADES SIGUEN CRECIENDO, LAS CORPORACIONES Y LAS PERSONAS SIEMPRE MUREN, Y LA VIDA SEA MÁS RÁPIDA) – si conocemos las circunstancias en las que se origina la inteligencia, entonces quizás podamos simular esas circunstancias?
No creo que tengamos que temer a la singularidad en el corto plazo, solo debemos estar en guardia para el punto en el que la simulación quiere comenzar a controlar el entorno en el que se aloja.
Supongo que la pregunta provoca especulaciones: mi respuesta debe tratarse como tal.