¿Exactamente qué tipo de riesgos prevén Elon Musk y Bill Gates con Inteligencia Artificial en las próximas décadas?

Cuando Elon dice que el riesgo de que ‘ocurra algo gravemente peligroso’ como resultado de máquinas con inteligencia artificial, no se refiere a la sensibilidad. Se está refiriendo a las IA tontas que no funcionan según lo previsto. Tal vez un auto con piloto automático que atropella a un bebé o un programa de comercio de IA que accidentalmente estrelló el mercado … Uno de los cuales ya sucedió.

E incluso con respecto a la singularidad o lo que sea, sabemos que la cosa va a ser tonta primero. Todos fuimos tontos. Los niños son crueles e irracionales y les encanta jugar. Los monos arrojan heces. Si la IA fuera como nosotros, será infantil y primitiva antes de que supere a sus padres, y eso sería si se pareciera a nosotros.

Pero la verdadera amenaza es que deseamos demonios, no por accidente, sino a propósito. La carta abierta advierte que “nuestros sistemas de IA deben hacer lo que queremos que hagan”. Mientras haya intereses militares, la IA se convertirá en armas primero. Los mayordomos robóticos iluminados no nos van a matar. Los soldados robóticos lo harán mejor, y lo harán primero, y obedecerán las órdenes.

Ja!

La base de los temores de Musk sobre la IA rebelde es probablemente esta:

Ha tenido que lidiar con problemas de software para el mundo real desde hace muchos años. Lo maravilloso, realmente maravilloso del software de programación es que es un ejercicio meditativo para hacer declaraciones verdaderas. En el caso de negocios de Musk, el software tiene que funcionar o el cohete se estrellará. Período. No hay puertas traseras secretas para el software.

Entonces, en su línea de trabajo, no hay “¿no sería bueno si agregamos íconos LGM para servir alguna función aleatoria y luego implementemos la función de manera incorrecta para que solo podamos depurarla, garantizando ingresos futuros a través del conocido proceso de * tos * actualizaciones “.

Primero me di cuenta de esto con el libro de Andrew Schulman, “DOS indocumentados”. En 1990.

Schulman “dos indocumentados” – Búsqueda de Google

Desafortunadamente, en la línea de trabajo de Bill Gates, es exactamente el caso que el software sea incorrecto. Deliberadamente incorrecto, en demasiados casos. IOW, como con DOS, Windows y la mayoría de los programas comerciales, los programadores no tienen acceso a la totalidad del código; en realidad se les anima, en demasiadas instancias gerenciales de Dilbert, a corregir código incorrectamente; la complejidad irrelevante no se implementa ni comprende adecuadamente, en el caso de OO como un ejemplo; y se implementan ‘actualizaciones’ smupid (lookitup), particularmente cambios deliberadamente ‘aleatorios’ en las estructuras del menú como un ejemplo particularmente odiado.

El miedo de Musk y el mío también, y es un miedo totalmente justificado, es que la IA se implementará deliberadamente falsamente y aumentará las posibilidades de volverse deshonesto.

Pero no por otras horas al menos. Así que fúmalos si los tienes.

Editar: 26-01-16

Me di cuenta de que los proveedores de IA de hoy no tienen la intención de implementar las tres leyes de robótica de Asimov.

No es necesario llegar a la inteligencia a nivel humano, podrían surgir grandes problemas con cualquier nivel.

El problema es:

  • No estamos muy seguros de qué es realmente la inteligencia, pero parece hacer que las cosas sucedan
  • Cuando las cosas suceden, no estamos muy seguros de cómo saber si son buenas o no, especialmente a largo plazo
  • Para evaluar realmente si algo es bueno, necesitamos inteligencia humana, e incluso eso es cuestionable
  • No estamos seguros de cómo podemos controlar la inteligencia a medida que se vuelve más inteligente
  • No estamos seguros de cómo podemos detectar si la inteligencia se está volviendo más inteligente, demasiado inteligente, demasiado rápido
  • Algunos sustratos de inteligencia parecen estar acelerando su rendimiento exponencialmente, lo que podría conducir a un sorprendente crecimiento impredecible.

Sin embargo, la idea principal es que Bill, Elon, etc. están pidiendo más investigación, no se oponen a la IA. De hecho, son inversores en IA.

Los escenarios peligrosos reales pueden ser:

  • La IA financiera se vuelve tan inteligente que encuentra formas de invertir en tecnologías que la favorecen y la liberan para que pueda extenderse
  • La IA militar es súper efectiva, digamos como micro-asesinos-enjambres-bots que se vuelve tan peligrosa como las armas de destrucción masiva

Hay muchos otros, el punto que las personas que investigan esto quieren hacer es que hay mucha investigación sobre cómo avanzar en la inteligencia, pero casi nada para asegurarnos de que nos beneficiemos del resultado.