¿Por qué Stephen Hawking está preocupado por el Día del Juicio Final causado por la Inteligencia Artificial cuando las máquinas tienen que seguir las instrucciones programadas por los hombres?

Porque como cualquier otro ser humano, Hawking tiene algunas ideas ridículas junto con las brillantes.

No estamos cerca de desarrollar inteligencia artificial. Lo que tenemos ahora son sistemas expertos, redes neuronales, algoritmos genéticos, etc., que no son más que programas informáticos inteligentes. La “inteligencia” que exhiben es en realidad la inteligencia subyacente de los programadores.

Incluso si eso cambia la seguridad es simple. No los conecte a cosas peligrosas y, si lo hace, tenga un interruptor de apagado físico (o software independiente). Un ser humano es inteligente (y a menudo malévolo), pero lo que hace que una persona sea peligrosa es su cuerpo donde podemos traducir los malos pensamientos en malas acciones.

Ya tenemos programas de computadora que controlan cosas peligrosas hoy y eso es lo que hacemos. Un ejemplo serían los grandes sistemas informáticos que utilizan una forma de inteligencia artificial para controlar los semáforos de varias ciudades. Si ese programa se volviera milagrosamente consciente de sí mismo, podría encender todas las luces de color verde y causar bastantes muertes.

Excepto que no puede. Una segunda computadora, muy simple y completamente separada, monitorea la salida de la primera computadora y, si encuentra que la primera computadora ha encendido varias luces verdes que causarían accidentes, desconecta la computadora principal y pone todas las luces en rojo intermitente hasta que los técnicos puedan Solucionar problemas de la computadora principal. A prueba de fallos, muy simple.

De lo que tenemos que tener miedo es de las PERSONAS artificiales. Esos ya existen, se llaman corporaciones. No juran lealtad a ningún país, están en gran medida por encima de las leyes, son increíblemente ricos, muy inteligentes, controlan la mayoría de los recursos del mundo, son inmortales. Si la población se opone a sus acciones, simplemente compran algunos políticos y deshonran a los que no están a la venta.

Ahora eso es aterrador.

La respuesta obvia es errores en el software. Incluso los programas relativamente simples tienen errores que resolver. Si los errores están detrás de una poderosa fuerza destructiva, desde drones hasta equipos médicos, los resultados podrían ser problemáticos.

La respuesta menos obvia, pero aún más peligrosa, es que el objetivo de la programación de la inteligencia artificial es ver resultados poco intuitivos de problemas complejos. A través de la repetición masiva o la recursividad, las computadoras pueden descubrir soluciones a problemas que los humanos no son capaces de hacer actualmente. Vea el Juego de la vida de Conway ( http://en.wikipedia.org/wiki/Con …) o cualquier cosa sobre Complejidad (como lo define la teoría de la complejidad, no la definición laica que significa complicado). Estas complejas “soluciones” determinadas por la IA a menudo son impredecibles y, en ocasiones, contradictorias. Agregue a eso el potencial de entradas actualizadas dinámicamente en tiempo real y tendrá una receta para la imprevisibilidad.

¿Es posible que AI eventualmente altere su código, ya que necesita código para decirle qué hacer?

La mayoría de las ofertas de tecnología de consumo y tecnología corporativa con códigos preprogramados; aquellos que “reaccionan” a diferentes situaciones están programados para hacerlo, por lo que no hay que preocuparse de que estos programas se salgan de control.

Incluso las tecnologías de inteligencia artificial del consumidor eran IA que estaban aprendiendo en un laboratorio, capacitadas para aprender una determinada tarea o reaccionar a una variedad de entradas, pero una vez que terminan de aprender, se convierten en un programa que se integra en el producto (como el reconocimiento facial en cámaras).

Sin embargo, las tecnologías de investigación AI están allí para romper los límites y estos programas pueden aprender y reprogramarse en consecuencia. Hay muchos factores que no pueden controlarse, como la interpretación del mundo, qué es el refuerzo positivo o negativo, la corrección de errores en el aprendizaje, cómo clasificar la información / datos. Ejemplo: si tienes hambre y robas, el dueño de la tienda te atrapa. El dueño se apiada de ti y te da más comida. ¿Cómo interpretaría una IA este evento? ¿Robar lleva a más recursos? ¿Qué es lástima? ¿Es bueno o malo?

Todavía estamos lejos de desarrollar una IA que pueda convertirse en skynet, porque la IA es un área de estudio multidisciplinaria. Me especialicé en redes neuronales, pero hay otras categorías como clasificación, algoritmos genéticos, autómata de estado finito-infinito, etc. Muchas de estas categorías tienen que unirse y avanzar para lograr algo fuera de las películas, y nosotros Ni siquiera están lo suficientemente lejos como para poner dos disciplinas juntas todavía.

Sin embargo, la pregunta no es si llegaremos allí, sino cuándo. Con el éxito reciente en los avances de la IA, los programas de IA han logrado resultados mucho más avanzados de lo que los investigadores habían predicho posible. La IA literalmente aprendió y resolvió problemas que no fueron diseñados para resolver. Eso es lo que está asustando a Elon y Stephen.

Porque puede programar una IA para calcular y almacenar datos como resultado de su interacción con el entorno.
Si la IA utiliza los datos recopilados para calcular su comportamiento, podemos estar hablando de un comportamiento impredecible.
En el momento en que programa la IA, no puede predecir todas las interacciones que la IA puede tener con el entorno (imagine que interactúa con las personas como parte de su entorno), por lo tanto, es imposible que sepa cómo funcionará la IA comportarse a largo plazo.

Por esta razón, a pesar de que la IA solo sigue sus instrucciones, esas instrucciones permiten tanto grado de libertad que no puede saber qué va a hacer. Y puede terminar haciendo cosas desagradables.

Porque las consecuencias de los programas no se predicen fácilmente. Tenemos suficientes problemas para evitar bloqueos y mal comportamiento de programas relativamente simples sin introducir inteligencias artificiales.

También existe la idea de que, dado lo que los humanos se hacen entre sí, las inteligencias artificiales inteligentes y poderosas pueden llegar a la conclusión de que necesitamos ser controlados o eliminados.

Si las computadoras pueden aprender y autoprogramarse, entonces, en teoría, serían capaces de mejorarse a sí mismas más rápido que los humanos.

En 2014, una computadora pasó la prueba de Turing, engañando a un grupo de jueces para que pensaran que se estaban comunicando con un niño de 13 años en lugar de una computadora.

Google adquirió recientemente DeepMind Technologies, con el objetivo de construir una computadora con habilidades de aprendizaje similares a las de los humanos que se programe sola.

Máquinas que crean automáticamente otras máquinas, software que crea automáticamente otro software, esa es una de las principales barreras contra las que estamos luchando.

¿Es este un motivo de preocupación? Probablemente lo sea.
La pregunta es: ¿queremos ir tan lejos para descubrirlo?

Lea más en nuestro sitio web:
Cuando los programadores de software se vuelven redundantes

Porque sobreestima la capacidad de los defensores de la IA para cumplir su promesa. Sin embargo, tiene razón al creer que podríamos dejar demasiadas decisiones que no podemos tomar nosotros mismos (debido a la alta complejidad o falta de tiempo) a una máquina falible. Esto no es un problema de IA porque la máquina no necesita tener ninguna intencionalidad para que esto ocurra.

Quizás hace algunos años fue fácil apagar los sistemas informáticos, pero cada vez hemos otorgado más control a las máquinas en muchas áreas. Por ejemplo, este artículo de WikiPedia habla sobre el “colapso repentino” en el mercado de valores (2010 Flash Crash), y describe una de las causas como que “los operadores automáticos computarizados en el mercado de valores cerraron al detectar el fuerte aumento en la compra y venta “(cita del New York Times). Sin embargo, creo que es un gran salto desde allí hablar de máquinas que se vuelven inteligentes y se apoderan del mundo. En 50 años de investigación de IA, veo muchos ejemplos de programación notable de computadoras: amo mi GPS, y encuentra rutas mejores / más rápidas de lo que puedo. Pero la verdadera inteligencia y autoconciencia … No hay indicios de que esté en el horizonte.

La inteligencia artificial en particular no se tratará de una máquina que siga las instrucciones. Aunque el nivel base puede ser así, será construir estructuras capaces de hacer otras cosas sobre las cuales tendríamos un control mucho más flexible. Las técnicas actuales de IA implican el aprendizaje automático, en el que la computadora presenta una solución basada en datos. Incluso si podemos ver esa solución, sus implicaciones precisas pueden no ser obvias. Esto es mucho más simple de lo que sería una IA completa.