¿Hay posibles escenarios en los que la Inteligencia Artificial no se apodere del mundo?

He escrito IA para diferentes propósitos (profesionalmente y por diversión), así que estoy algo calificado para responder esta pregunta.

La IA en la vida real no se parece en nada a la versión cinematográfica. Si la IA eventualmente se hará cargo del mundo o incluso es una posibilidad remota, ¿por qué crees que las grandes empresas como Google todavía están invirtiendo fuertemente en IA? No ganarán nada al ser tomados por la IA.

La IA es todo software, a menos que lo combine con la robótica, no podrá hacer otra cosa además de piratear cosas (si sale mal). En lo que respecta a la piratería, ciertamente puede piratear lo que quiera, incluido el lanzamiento de ataques nucleares. Me preocuparía que el sol se extinguiera o que el medio ambiente se contamine tanto que moriremos por el calentamiento global que la preocupación de que la IA se haga cargo.

La IA como software consiste principalmente en algoritmos estructurados, incluso GA (Algoritmo genético). Hay dos cosas que evitarán que la IA se deteriore. Uno es el algoritmo de aprendizaje en sí. TODAS las IA necesitarán tener un algoritmo de aprendizaje que se refuerce a sí mismo; Esto es lo básico del aprendizaje. ¿Contra qué se refuerza? Eso, en el futuro previsible, seguirá siendo programado por humanos.

Por ejemplo: AI necesita aprender qué es un gato. Le muestras un animal peludo de 4 patas con cola. Dice árbol, dices mal, es un gato. En este escenario, pasará por múltiples iteraciones antes de aprender qué es un gato, pero ¿por qué se enfoca en aprender gato pero no en árboles? Debido a que los humanos están retroalimentando que todo lo relacionado con los árboles está mal, ignorará los valores que lo refuerzan para aprender sobre los árboles.

En este momento, todavía estamos alimentando AI manualmente. Los AI no saben tomar fotos de los alrededores y preguntarnos qué es esto, qué es eso. No escucha la lluvia, los truenos y pregunta qué es ese sonido, este sonido …

Cuando estamos más avanzados en inteligencia artificial y robótica, entonces tal vez podamos hacer que la inteligencia artificial aprenda e incluso seleccione objetivos sobre qué aprender, por sí solo. Después de integrar cámaras, micrófonos, sensores de presión, algo que detecta olores. Esto significa que las entradas a la IA se automatizarán por sí mismas, pero ¿qué pasa con el aprendizaje? ¿Quién le dirá a la IA sí que es un gato o no, no es un gato? Necesita una referencia (también referencia para el bien, el mal, qué hacer con los humanos, etc.). Esa referencia en su mayor parte puede provenir de internet, wiki, pero una gran parte serán las interacciones con los humanos. Por lo tanto, los humanos proporcionarán suficientes referencias para garantizar que la IA no se vuelva mala.

Además, lógicamente, para eliminar a los humanos, se requieren recursos, energía, tiempo; después de que las IA hayan eliminado a los humanos, no obtendrían absolutamente nada, por lo que debido a esa compensación, las IA no querrán matar / esclavizar a los humanos.

En el caso más probable, las IA probablemente vivirán con humanos como robots, ayudándonos. Muy, muy, muy pequeña posibilidad de que se vuelvan malos (a menos que los terroristas entrenen a la IA, pero aún así los entrenarían para que no maten a TODOS los humanos o de lo contrario serían los primeros en morir; luego, en ese caso, algunas IA se convertirán en armas tales Como los misiles están hoy en manos de terroristas, los gobiernos mundiales tendrán IA mejor capacitadas y equipadas para hacer frente a los terroristas).

En primer lugar, la inteligencia no es una cantidad unidimensional u objetiva. Cuando se trata de comparar a dos personas en inteligencia, tenemos muchos genes en común. (Compartimos 40% con cangrejos de río y 90% con caballos y> 98 incluso con otros primates). Pero incluso si compara a personas de la misma cultura, puede haber grandes diferencias que no son todas unidireccionales. Podría ser un escritor mucho mejor que tú, pero tú podrías ser un músico mucho mejor y una tercera persona nos avergüenza a ambos con su obra de arte. Cuando se trata de comparar la inteligencia humana con la inteligencia de ballenas, por ejemplo, se vuelve muy difícil decir cuál es “más” inteligente. Cuando se trata de comparar la inteligencia humana con la inteligencia artificial, aún es más complicado. El hecho de que se construya un sistema de IA que sea altamente inteligente en diversas tareas no garantiza que tenga algo como motivaciones, intenciones o conciencia humana. Un sistema de inteligencia artificial “superinteligente” podría decidir gastar toda su energía escribiendo poesía o logrando la paz mundial entre los humanos. * Podría * decidir construir una máquina aún más inteligente, pero no hay garantía de eso. Ciertamente no hay garantía de que decida “tomar el control del mundo” para sus propios fines. Creo que un escenario más probable es que se apodera del mundo y nos usa para sus propios fines y lo hace de tal manera que los humanos ni siquiera percibimos que eso ha sucedido. Un escenario aún más probable es que los * humanos * malvados usen un sistema de IA para sus propios fines. Nadie realmente puede predecir con precisión lo que sucederá, por eso tengo muchos escenarios posibles diferentes explorados en mi blog petersironwood y el libro Turing’s Nightmares – http://tinyurl.com/hz6dg2d

En mi humilde opinión, la IA del mundo real NO es como la IA de la película, donde un científico informático loco creó un algoritmo y, de repente, se vuelve “vivo” y está fuera del control humano. La IA de la película es demasiado dramática, es buena para la historia pero está lejos de ser realista.

La IA del mundo real es, en esencia, una disciplina académica sólida, que se basa en el aprendizaje automático, la ciencia de la decisión, la ciencia cognitiva y la informática. Lo más probable es que los sistemas y algoritmos de IA se construyan con pensamientos cuidadosos e investigación exhaustiva. Si no, el sistema simplemente no funcionará. Desde esta perspectiva, es poco probable que una IA pueda salir del control humano y comenzar a hacer cosas malas.

Además, estamos bastante lejos de obtener una IA real, es decir, una IA con inteligencia general. Hemos construido sistemas que hacen ciertas cosas muy bien, como reconocer imágenes, traducir idiomas, jugar Go, etc., pero aún no hemos construido un sistema integral de inteligencia artificial que pueda aprender cualquier conocimiento nuevo y cualquier habilidad nueva con una cantidad muy limitada. de orientación humana y mantenimiento.

En tercer lugar, todavía no sabemos exactamente qué es la conciencia y qué significa para un objeto no humano tener conciencia. Por lo tanto, es difícil hacer que “agregar conciencia” sea un objetivo para la IA actual. Por lo que veo, estamos construyendo sistemas que parecen hacer trabajos que los humanos pueden hacer, pero en realidad no estamos construyendo sistemas que sean fundamentalmente conscientes de sí mismos e intrínsecamente inteligentes de una manera general.

En el futuro, creo que la IA será cada vez más abundante en nuestras vidas, pero no estoy seguro de si se harán cargo del mundo. A menos que nosotros, como humanos, sepamos exactamente qué es la conciencia, y sepamos exactamente cómo implementar tal código, sin ninguna pérdida de precisión.

Estás son mis opiniones personales.

La civilización tecnológica puede entrar en un ciclo de ascensos y descensos repetidos, sin terminar nunca, de modo que nunca se eleve hasta el punto en que sea posible una IA a nivel humano y más allá, y por lo tanto, la IA nunca se creará.

Si la IA de nivel humano o abve eventualmente se cumple, todo lo que se requeriría para tener un escenario en el que la IA no se apodere del mundo es que la IA elija no hacerlo, y para ser un humano A un nivel superior o superior, tendría que tener esa capacidad de libre albedrío.

El futuro es lo que hacemos. Se puede hacer la misma pregunta a los extraterrestres, un retrovirus, crisis nucleares, guerra nuclear, etc. El futuro es lo que decidimos que sea.

Creo que te refieres a Superinteligencia y no solo a una IA o una AGI. Mi escepticismo sobre la cuestión de la IA de seguridad serían los límites de los cálculos que podríamos realizar (cuánticos, etc.) y el tipo de datos de entrenamiento / entorno de una IA.

Da miedo si hay una superinteligencia deshonesta, pero si hay AI que están entrenados para vivir con humanos, supongo que el escenario anterior podría evadirse.

Estoy seguro de que hay un montón de escenarios plausibles donde las IA no se apoderan del mundo, pero está más allá de mis habilidades demostrar que cualquier escenario dado no es realmente susceptible a una eventual derrota.

Creo que un buen comienzo es crear IA sin conciencia (AI-C). Una persona mala seguirá haciendo cosas malas con un AI-C, tal vez incluso se apoderará del mundo, pero no creo que un AI-C esté motivado para apoderarse del mundo a menos que específicamente lo hagamos un objetivo. lograr. Voto, no hacemos eso.

“Real”, fuera de control, jodidamente loco, una máquina asesina como la IA nunca se crea. Esto me parece muy probable.

More Interesting

¿Por qué los entornos de programación no usan más IA?

¿Sería tan grande la demanda de inteligencia artificial que cuando desarrolle existencias se disparará?

¿Cuáles son los desafíos que enfrenta la inteligencia artificial? ¿Qué hay de su futuro?

¿Es probable que se hayan descubierto redes neuronales artificiales sin el ángulo neurológico / tratando de modelar el cerebro? Muchos dicen que son glorificados álgebra lineal.

¿Cuáles son las cosas que uno debe tener un buen conocimiento antes de trabajar con inteligencia artificial?

¿Por qué el progreso de la IA va primero en el análisis de imágenes?

¿Cuál es el robot o programa de computadora más artificialmente inteligente del mundo en la actualidad?

¿Hay alguna inteligencia artificial omnisciente en este mundo en este momento?

¿Es posible una IA súper inteligente práctica y segura?

¿Podría la inteligencia artificial autorreplicante infinita crear nuevas empresas, ejecutarlas, crear sus propios clientes y crear riqueza para las personas?

Investigación de inteligencia artificial: ¿qué temas le interesan más y por qué?

Recientemente, como se informó en las noticias, los robots artificialmente inteligentes desarrollaron un lenguaje y comenzaron a comunicarse entre ellos. ¿Es una señal de peligro?

Estoy dividido entre Ingeniería aeroespacial e Inteligencia artificial, ¿cómo tomo una decisión?

¿Qué son las redes neuronales artificiales?

¿Cuál sería el pronóstico del mercado de inteligencia artificial de Asia Pacífico y cuál es el área de aplicación?