¿Es exagerado el riesgo de IA?

Sí, como creador de algo, usted dicta las reglas.
Las personas a las que deberías estar escuchando son los verdaderos ingenieros y ‘creadores’ centrados en Ai. Aparentemente obtienen la menor atención y tiempo de micrófono sobre este tema, pero son los más informados y pueden proporcionarle la mejor información.

Como resultado de esto, las personas tienen una percepción distorsionada de lo que es Ai y cuáles son los riesgos.

En mi desarrollo actual de AGI, trabajo en un entorno virtual. Mi sistema general está compuesto por ~ 18 procesos. Cuando el AGI comete una acción no deseada o perturba aspectos no deseados de una prueba que estoy ejecutando, no me gusta reiniciar 18 procesos y restaurar sus estados. Entonces, escribí un código para permitirme aplicar la anulación administrativa en varios puntos del código para asegurarme de que pueda anular / inspeccionar con gracia todos los aspectos del sistema durante el tiempo de ejecución.

Tengo control administrativo y el más alto nivel de control sobre mi sistema no lo es. ¿Por qué? Porque lo codifiqué de esa manera. Es tan simple como eso.

No hay problema de control. No hay problema de seguridad. No hay riesgo
Por entorno de interacción contextual, se pueden crear varios niveles de control.

Así es como todos los sistemas de ingeniería se han diseñado y desarrollado hasta el día de hoy. No hay razón para creer que esto haya cambiado repentinamente.

Entonces, ¿es exagerado el riesgo de IA? Pregúntele a un ingeniero real centrado en Ai e ignore el frenesí / bombo de los medios.

¿El riesgo? No

La evaluación de riesgos? si

Siempre existe el riesgo de que alguna parte de nuestra tecnología nos mate. Este era el riesgo con las armas nucleares (y aún lo es). Este es en gran medida el riesgo actual con armas biológicas que a nadie parece importarle. Es el riesgo actual de modificación genética. Será el riesgo de la nanotecnología y también será el riesgo con la IA.

Entonces sí. La IA podría matarnos.

Pero, ¿qué tan probable y plausible es ese riesgo? De Verdad? ¿Cuánto más peligroso podría ser la IA que (por ejemplo) cruzar la carretera?

Ahora, ¿quién está evaluando este riesgo? En el caso de Stephen Hawkings, alguien que sabe mucho sobre física y aparentemente nada sobre inteligencia e inteligencia artificial. El profesor Hawkings es obviamente inteligente: ¿está tratando de destruir el mundo? Si elige usar su inteligencia para aumentar el conocimiento presumiblemente en beneficio de la humanidad, ¿qué evidencia tiene él de que otra entidad de igual inteligencia lo usaría para destruir a la humanidad? ¿Cómo es una respuesta inteligente que la inteligencia puede producir dos resultados opuestos y conflictivos para el mismo estímulo dado?

El problema con la comprensión de los riesgos de la IA proviene de dos áreas:

  1. No entendemos qué es la inteligencia y la razón por la que no entendemos qué es porque tenemos esta capacidad molesta y peligrosa de elegir no pensar inteligentemente. El problema es que aún nos consideramos inteligentes incluso cuando cometemos actos de estupidez. Incluso con otros a nuestro alrededor que nos dicen que somos estúpidos, aún persistiremos en pensar que somos inteligentes. Incluso usaremos nuestra inteligencia para “probar” lo acertados que somos sin comprobar cuán estúpido es nuestro punto de partida. Hacemos evaluaciones sobre la inteligencia basadas en nuestras acciones estúpidas y esas evaluaciones son estúpidas. Es por eso que tememos a la IA porque creemos que será tan estúpida como nosotros.
  2. Nuestro miedo se basa en la idea de limitación. Cada vez que un recurso es limitado, rápidamente volvemos a nuestra naturaleza animal y nos mataremos felices para poseerlo. Esto es cierto si el recurso es comida o Furbies. Ahora puedo ver cómo eso podría tener una ventaja para la supervivencia en tiempos de privación extrema, excepto cuando se usa para cosas que no tienen nada que ver con la supervivencia, como Black Friday Bargains. Ahora hemos matado a cualquier otra versión inteligente del género Homo en el pasado, presumiblemente porque sentimos que eran competidores por los recursos. Y debido a que pensamos que somos inteligentes (ver arriba), hemos evaluado ese comportamiento como inteligente y ahora tememos que la mayor inteligencia de la IA llegue a la misma solución “inteligente” y nos mate. Pero el problema de la limitación es que es un mito. En 1930, la población mundial era de poco más de 2 mil millones y había personas hambrientas viviendo en la pobreza. Si el problema de la limitación fuera cierto, entonces podríamos haber declarado legítimamente que la razón por la cual las personas se estaban muriendo de hambre y pobres era porque habíamos alcanzado los límites de los recursos de la Tierra. Eso significaría que cualquier aumento en la población aumentaría el número de pobres y hambrientos. Sin embargo, ahora hemos superado los 7 mil millones y solo 1,25 mil millones están por debajo de la línea de pobreza. Eso significa que encontramos suficientes recursos para alimentar y alojar a otros 4 mil millones de personas. ¿Cómo lo hicimos? Ahora la gente dice que 7 mil millones es el límite y ya no podemos apoyarlo. Tal vez o tal vez estaremos diciendo lo mismo cuando la población de la Tierra sea de 10 mil millones.

Pero hagamos una pregunta incómoda, ¿de acuerdo? ¿Sería malo que la humanidad fuera destruida? Después de todo, nuestra administración de este planeta ha sido espantosa. Tal vez el temor de que una IA nos termine como la bestia rabiosa que somos está perfectamente fundado. Quizás esa sea la elección inteligente. La solución es convertirse en algo que valga la pena salvar. Levántate por encima de nuestros patéticos impulsos de los animales y pon una “e” en el extremo del ser humano. En otras palabras, si es una decisión inteligente erradicarnos, entonces no tenemos a nadie a quien culpar sino a nosotros mismos.

Ahora, recordemos que si la IA elige destruirnos, no perderá su tiempo y recursos haciendo ejércitos de robots. Simplemente desatará las pesadillas nucleares, químicas y biológicas que ya hemos creado. Y si la IA no elige destruirnos, aún tendremos la capacidad de destruirnos de todos modos.

Así que ya nos paramos al borde del precipicio y miramos al vacío. Entonces, tal vez la IA nos empuje o tal vez simplemente saltemos. O tal vez la IA será un salvavidas que nos ayudará a retroceder antes de unirnos a los dinosaurios. Eso depende de nosotros no AI

Gracias por el A2A, Stan

Es difícil predecir más allá de un horizonte que podamos ver. Dudo que AI pueda “hacerse cargo” en los próximos 25 años. Más allá de eso es muy difícil de predecir con seguridad. Es por eso que decidí escribir “Las pesadillas de Turing”, que tiene más de 20 escenarios diferentes. Algunos de ellos son positivos y otros negativos. Creo que la inteligencia artificial se considera mejor como un conjunto de herramientas para la coordinación y comunicación humana. Sospecho que es mucho más probable que algunos humanos usen mal la IA como una herramienta de dominación e injusticia sobre otros humanos que que la IA se vuelva consciente, consciente de sí misma y maliciosa. Incluso sin IA, la codicia humana y la arrogancia son los verdaderos peligros que enfrentamos. No creo que esos riesgos sean exagerados en absoluto. Pero, al final, depende de todos nosotros asegurarnos de que la humanidad tome un camino hacia el amor y la luz.

Múltiples escenarios de la singularidad: Dr. John Charles Thomas Ph.D .: 9781523711772: Amazon.com: Libros

Sí, el riesgo de IA es exagerado. Los riesgos de que los humanos manejen una IA es el verdadero problema. Lo que pasa con las IA es que requerirán energía eléctrica, lo que significa que dependerán de los humanos para su existencia. Dicho esto, los humanos aún pueden hacer cosas extremadamente desagradables con IA. Imagine un virus informático que puede mutar e infectar casi todas las computadoras de la Tierra. Este tipo de IA ni siquiera requiere nada cercano a la inteligencia a nivel humano. O bien, una IA solía rastrear y escanear las preferencias de compra que perturban y distorsionan significativamente el mercado libre al dar grandes ventajas a las grandes empresas que pueden permitirse invertir en esta tecnología de IA (esto ya es una realidad).

¿Debemos temer a “Skynet”? Lo dudo. Tenemos controles estrictos sobre los códigos nucleares. ¿Deberíamos temer a las IA robóticas creadas por las principales potencias militares mundiales? Si. Entonces, realmente, debemos temernos a nosotros mismos.

Creo que sí, pero el problema es complicado. El riesgo de que aparezcan Terminators en el futuro cercano es cero. ¿Qué pasa con otras formas de IA que son dañinas? Bueno, no veremos a Ultrons como en las películas en el corto plazo. El Watson de IBM es realmente muy primitivo y tampoco evolucionará a un robot asesino.
Lo que es posible es que los autos sin conductor sean pirateados y utilizados de manera perjudicial.
Y, en realidad, dada la mala actitud de algunos empleados, espero que los AI reemplacen a algunas personas con actitudes desagradables.
Pero en cuanto a los robots que se vuelven locos con las armas, no va a suceder demasiado pronto. Lo que me preocupa son los bancos, y Google y Facebook que usan IA para invadir nuestra privacidad, para controlar al público, y Wall Street usa IA para descubrir cómo robar más dinero de los consumidores.
Añadido 26/10/16:
Acabo de leer un artículo del New York Times sobre el uso por parte de los militares estadounidenses de IA en drones. Señaló la posibilidad de que los terroristas usen la IA para armas inteligentes. No había pensado en eso. Entonces, hay alguna posibilidad de esto.

No.
Las preocupaciones están relacionadas con máquinas / robots autónomos artificialmente inteligentes que tienen emociones diseñadas deliberadamente en ellos (esto se está haciendo con mucha intensidad en la investigación basada en inteligencia artificial / robótica en todo el mundo). Tales máquinas / robots autónomos artificialmente inteligentes que están equipados con emociones no serán controlables por ningún humano en absoluto. Por eso hay grandes preocupaciones. Desde entonces, los resultados finales serán el problema de RUR (después de la primera jugada del mundo que mostró las consecuencias de los robots autónomos que tienen emociones). Robotronics LLC | Facebook

Mi universidad es parte de un grupo que estudia IA y sociedad para el próximo siglo. No me preocuparía demasiado sus efectos en los trabajos o las estructuras de la empresa, como los desastres. La noción de alto riesgo e inestabilidad no es sensible para la visión militar. Las agencias como DoD, DARPA, DARPA-e o similares tienen una inteligencia mucho mayor sobre la IA más accionable y amenazante. La forma en que se desarrolla la IA sigue a la empresa privada con regulación pública, y se somete en gran medida a la inteligencia militar para el uso social adecuado, a largo plazo.