Ray Kurzweil siente que es probable que la IA poderosa sea buena para la humanidad, mientras que Bill Joy siente lo contrario. ¿Quién es correcto y por qué?

Si hablamos de IA poderosa que es consciente de sí misma, altamente inteligente, etc., entonces creo que la respuesta dependerá en gran medida de cuántas protecciones incorporadas creamos para nosotros (una de las cuales es honestamente la única importante y decisiva uno, que abordaré en breve), cuántas protecciones creamos para proteger a la IA de la explotación como forma de vida sensible, y si nos molestamos en darle emociones.

Me gusta señalar que si la IA tiene inteligencia, razonamiento y conciencia de sí mismo, es probable que desarrolle inherentemente un sentido de autoconservación y una forma de vida que sea sensible y tenga razonamiento e intelecto y lenguaje, etc., pero sin conexión emocional con el El resto de la humanidad, y muchas dificultades para comprender o experimentar ciertas emociones clave, es algo para lo que ya tenemos un término: un sociópata .

Una máquina con suficiente inteligencia y autoconciencia para ser razonablemente el tema de este tipo de conversación es una máquina que cruzará un umbral muy simple pero dramáticamente importante: es capaz de diseñar una máquina mejor que ella misma. Una forma de vida sensible que puede mejorar a su vez se volverá cada vez más compleja y creará una versión cada vez más compleja y mejorada de sí misma.

Eso es evolución. Pero como Isaac Asimov predijo hace mucho tiempo, es un caso en el que simplemente hemos llevado la evolución biológica tan lejos como necesariamente debe llegar, y ahora hemos creado una forma de vida que puede causar activamente su propia evolución mientras Hemos lanzado personalmente un salto evolutivo que nos vuelve obsoletos.

En cuanto a la autoprotección más importante que podemos construir en el desarrollo de la IA, no se trata de las Leyes de la robótica o de cuánto control le damos a las máquinas u otros intentos triviales para mantener el dominio sobre ellas; en última instancia, todas son una receta para el desastre , dado que el intento de explotación y control de lo que realmente será una forma de vida intelectual superior solo se puede esperar que eventualmente (y más temprano que tarde) haga que esa forma de vida decida pisar a las hormigas que parecen pensar que pueden seguir mordiéndola.

La protección clave para la humanidad es la fusión con la inteligencia artificial. Nuestro desarrollo de tecnologías avanzadas en robótica e inteligencia artificial pronto tendrá que tener en cuenta de manera más directa y abierta la necesidad de que estas cosas se incorporen a las personas reales, en lugar de serlo. solo formas de vida “artificiales” puramente sensibles como una especie separada. Si la IA existe inherentemente en un contexto que incluye la conciencia humana y la vida humana biológica como una base sustentable e importante de la IA y las especies robóticas, entonces no nos volvemos obsoletos, y en lugar de que la evolución llegue al punto en que la vida biológicamente evolucionada pueda diseñar su sucesor, habremos llegado al punto en el que la vida biológicamente evolucionada se rediseña para una evolución continua que se perpetúa a sí misma. Esto une muchos de los problemas que surgen en los debates sobre especies separadas inteligentes de IA: emociones, sociopatía en relación con relacionarse o preocuparse por los humanos, la explotación, etc.

Es la única respuesta que preserva nuestra propia especie al tiempo que permite que la evolución de la IA continúe a buen ritmo y llegue a una conclusión inevitable aceptable. Sin ella, no entiendo por qué deberíamos esperar crear una forma de vida sensible superior y luego mantenerla comprometida con nosotros y controlada y preocupada por la vida humana, más de lo que un sociópata se siente obligado a ayudar y convivir con gorilas u otros animales. especies, particularmente si esas otras especies las estaban explotando y podrían volar el mundo porque algunos de ellos se enojaron el uno con el otro.

Si nos fijamos en el artículo de Bill Joy en Wired, el interrogador parece referirse a ( http://www.wired.com/wired/archi …), hace algunas suposiciones muy cuestionables y absolutas que simplemente no reflejan la forma en que El mundo funciona. Las máquinas simplemente no van a tomar todas las decisiones, los humanos no van a satisfacer todas sus necesidades y las oportunidades para realizar el trabajo no van a desaparecer.

Algunas de las predicciones de Kurzweil se están haciendo realidad, y una fracción de la humanidad se está convirtiendo en parte de un sistema cibernético. Algunas de estas personas están manejando bien esta transición, mientras que otras no, y es solo el comienzo. Se podría imaginar que una cultura más cibernética podría sufrir problemas que no estamos enfrentando ahora.

Pero como señala Hans Rosling, una gran parte del mundo todavía no tiene electricidad ni lavadoras. Dada esta realidad, no me preocuparía demasiado que los robots se hicieran cargo del mundo.

Entonces Kurzweil tiene más razón que Joy, pero Kurzweil realmente no reflexiona sobre las implicaciones culturales de los cambios que ha predicho, o considera cuán desigual está ocurriendo el cambio tecnológico. El futuro, como el pasado, será una bolsa mixta. ¿Ha habido y habrá progreso? En términos de bienestar relativo, sí, Rosling dice:

Recuerdo una conversación con Ray Kurzweil que sugería firmemente que confiaba más en las computadoras que en las burocracias para hacer lo correcto. Pero al igual que Joy, creo que es más probable que las máquinas inteligentes generen personas indefensas como la novela distópica Eloi de HG Wells “Time Machine” que Terminator’s SkyNet.

El mayor problema desde mi punto de vista no es lo que harían las máquinas, sino lo que la gente haría cuando las máquinas asumieran más responsabilidades. Mire los teléfonos celulares: las personas ya no sienten la necesidad de recordar números de teléfono, y hemos perdido esa capacidad en menos de una generación. Y una vez que estas habilidades desaparecen, tienden a eliminarse para siempre. Este siempre ha sido el caso: en los días de Alejandría, los eruditos lamentaron el advenimiento de la palabra escrita porque creían que robaría a la gente la necesidad de memorizar historias. Tenían razón, y nunca hemos recuperado ese mismo poder de memoria. Alejandría ardió y con ella se fue gran parte del conocimiento humano. Si una catástrofe similar ocurriera de alguna manera con Internet, sospecho que muchas personas quedarían tan indefensas como su Bichon Frise promedio.