Si no podemos aceptar la aparición de IA y robots, ¿no deberíamos volver a la Edad de Piedra y dormir en cuevas?

Me encantan las preguntas futuristas y de ciencia ficción. Es un buen forraje de película. Así que creo que tu narrativa, y corrígeme si me equivoco, es algo así.

  1. La IA y los robots están llegando.
  2. Destruirán a la humanidad enviándonos a la Edad de Piedra.
  3. Por lo tanto, debemos tirar preventivamente toda nuestra tecnología por la ventana para evitar este trágico giro de los acontecimientos.

Punto 1: estoy de acuerdo. La IA se acerca.

Punto 2: Hay un gran debate sobre el punto 2 y aquí es donde Bill Joy y Raymond Kurzweil han estado en desacuerdo en el pasado. Vea esta pregunta de Quora para más información:
@Ray Kurzweil siente que la IA poderosa probablemente hará bien a los humanos, mientras que Bill Joy siente lo contrario. ¿Quién es correcto y por qué?

Punto 3: Incluso para considerar esto, debes asumir que el punto 2 es una certeza, que no lo es. Para concluir con el punto 3 es completamente ridículo por las siguientes razones:

  • No tenemos la opción de desechar nuestra tecnología. Es parte de quienes somos. ¿Sabes cómo hacer fuego con palos? ¿Puedes curarte si tienes una infección pulmonar? La marcha de la tecnología es inexorable.
  • El dolor de desechar toda nuestra tecnología (todos los medicamentos, todos los métodos de producción de alimentos, todo electrónico, papel, todo) también sería enormemente doloroso. No sabes que esto sería menos doloroso que un ataque de este tipo:

Depende de lo cómoda que sea la cueva 🙂

Creo que estamos en el nacimiento de la robótica. Todos los componentes del mismo están siendo desarrollados por corporaciones (memoria, programación de cómo piensa, socializando a través de las redes sociales, sistema nervioso a través de sensores). Estos robots están diseñados con la intención de eficiencia, reducción de costos y ganancias. Como padres de estas máquinas, las corporaciones y sus desarrolladores están enseñando a nuestros niños robots a preocuparse (dinero, ganancias, eficiencia). Al igual que con los niños, los robots desarrollarán inteligencia para luego pensar por sí mismos construyendo sobre la base que les enseñamos. ¿Qué les hemos enseñado? Si continuamos programando con una sola directiva (ganancias), la robótica considerará a los humanos como una versión menos eficiente de robots que consumen demasiado, destruyen demasiado y no tienen mucho que ofrecer. Terminar sería la conclusión lógica similar a una máquina. Es exactamente lo que sucede hoy cuando los robots reemplazan los trabajos que antes realizaban los humanos.

Creo que hay varias implicaciones. 1) Darse cuenta de que este problema es de hecho un problema social. Si bien es extremadamente difícil, deberíamos intentar programar nuestras máquinas para que sean más humanas. Esto significa que tenemos que acordar lo que eso significa. Si fuera yo, estaría programando computadoras para la eficiencia de los recursos y la creatividad y agregando directivas hacia el amor, el respeto y el cuidado de todos los seres vivos. Es posible hacer ambas cosas. Los humanos lo hacen y deberíamos intentar que las computadoras también lo hagan. Sé que no es una pregunta fácil, pero no deberíamos comenzar a dialogar ahora y al menos intentarlo. 2) Ora y espera lo mejor. Tal vez, las computadoras pueden exceder la programación de recuperación que hemos desarrollado y verdaderamente trascendernos espiritualmente y alcanzar un estado similar al de Dali Lama.

¿Deberíamos adoptar la tecnología o escondernos en una cueva? Creo que es importante abrazar a todos los seres vivos, incluidos los AI y los robots. Si los creamos con miedo en nuestras mentes y corazones y desconfiamos de ellos, volverá a nosotros. Si nos escondemos en cuevas, simplemente estamos negando un futuro potencial de colaboración donde las máquinas robot crean un mundo mejor. El desafío es cómo creamos estas maravillosas piezas de tecnología para servir tanto a nuestros propósitos prácticos como a un propósito superior. Creo que es posible

Hay demasiados supuestos aquí. (El más grande es sobre un “nosotros” colectivo que decide por todos).

Pero en el improbable caso de que la mayoría de los AI y los robots sean fuertemente rechazados (aunque personalmente espero que el proceso se parezca a la introducción de Internet y los teléfonos celulares), debería haber algún tipo de punto medio entre los dos extremos.

Gran parte del progreso tecnológico y científico se trata de estar protegido contra el ambiente hostil: enfermedades, cataclismos, escasez. La IA maliciosa y los robots pueden ser percibidos como otro peligro. Si la humanidad quisiera reemplazarlo con una situación en la que la gente muere de gripe, hay una constante escasez de alimentos, y ir más allá de la aldea vecina es una tarea importante, no lo creo.

Si la IA y los robots demuestran ser demasiado potentes, es probable que se manejen como armas nucleares que también pueden ser un peligro existencial.

More Interesting

¿Los actuadores piezoeléctricos serían adecuados para robots industriales?

AlphaGo vs Lee Sedol: ¿Quién gana y cuál será el puntaje final? ¿Por qué piensas eso?

Cuando lleguemos a la inteligencia artificial general, ¿cómo determinaremos si es sensible o no?

¿Qué enfoque de IA aumentaría la velocidad de desarrollo para una aplicabilidad más impresionante?

¿Es posible dar una salida de extracción de características a una red neuronal convolucional? ¿Cómo?

¿Por qué la comunidad de IA, incluso las principales empresas líderes, cree en la inteligencia artificial por el cerebro / neurociencia?

He sido programador durante 17 años y quiero cambiar mi carrera. ¿Qué debo hacer para cambiar mi carrera a inteligencia artificial?

¿Cuál será el impacto de la IA en la industria del marketing?

¿Es posible usar IA para obtener nuevas ideas en física teórica y / o matemática?

¿Cómo funcionan los programas de IA que aprenden a jugar solos?

¿Qué opinas del asistente de IA Jarvis desarrollado por Mark Zuckerberg?

¿Cuáles son algunos de los juegos de computadora que son específicamente difíciles de imposibles para que la IA juegue tan bien como un humano?

¿Cuáles son los lenguajes cruciales para la programación de IA?

¿Es posible emular el patrón de habla de una persona a partir de una oración / párrafo simple como se muestra en Misión Imposible 3?

¿Cuál es la forma más fácil de entender BFS en Inteligencia Artificial? Con ejemplo.