¿Por qué se supone que la inteligencia artificial tendrá una intención maliciosa?

Bueno, un par de cosas.

  1. La gente prefiere las cosas sensacionalistas y es una buena historia.
  2. Las personas temen cosas que no entienden.
  3. La gente teme la inteligencia.
  4. Las personas pueden usar la IA con fines nefastos e intuimos instintivamente y correctamente que lo harán.
  5. Las personas pueden verse a sí mismas y ver lo que han hecho a las criaturas sobre las que tienen dominio solo en virtud de la inteligencia [re: punto 3].

El último punto es importante pero destacado. Puede que no pensemos activamente en ello, pero sabemos que las cosas más inteligentes tienden a destruir y a aprovechar las cosas menos inteligentes. Entonces, en el sentido teórico, tenemos algo que temer.

Pero, es la mayor arrogancia pensar que los humanos pueden crear algo tan inteligente, y si los humanos fueran lo suficientemente inteligentes como para hacer eso, ciertamente evitarían la contingencia con inteligencia. La idea es irónica porque comenzar desde cero [a diferencia de manipular genes, etc.] requiere cierta comprensión de lo que estás construyendo.

Si desea preocuparse por los avances tecnológicos, preocúpese de que alguien cruce el VIH o las células cancerosas con un resfriado. Preocúpese de que destruiremos nuestro planeta. La preocupación de que los avances hagan que las pocas almas imprudentes puedan hacer más daño; pero no se preocupe por las cosas que construimos para los bucles y las declaraciones if.

O tal vez, no te preocupes. Los regalos que obtenemos de los avances tecnológicos son bastante dulces.

Esta es la primera vez que respondo en Quora.
Mi respuesta obvia sería que una IA inteligente estaría lejos de ser maliciosa. Como suponemos que posee un nivel avanzado de inteligencia, probablemente tomaría decisiones racionales para su objetivo. Todavía no puedo imaginar cuál sería la “razón de ser” para una computadora súper inteligente, pero … ser malévolo no suena interesante o inteligente.

Por otro lado, echemos un vistazo más de cerca a la humanidad. Nos las arreglamos para extinguir muchas especies animales, criamos en cantidades insostenibles, contaminamos el planeta, consumimos recursos, llenamos los océanos con plástico, tenemos amigos imaginarios que nos hacen irrazonables y peligrosos. Nos odiamos por razones realmente idiotas y creamos nuestra propia distopía de consumismo, desconfianza y ruina. Gastamos mucho dinero en conflictos que no tienen lógica, tiramos comida mientras otros mueren de hambre, alimentamos a algunos lo suficiente como para procrear para traer a otras generaciones de niños hambrientos en condiciones de pesadilla, nuestra moralidad es relativa e irracional. mejor. Vivimos en un mundo donde algunos países atrasados ​​todavía queman brujas, matan a mujeres y esclavizan para hacer productos baratos, mientras que las comunidades más ricas se benefician de su sufrimiento. Los humanos no deberían existir, no en su forma actual. El gran número y la tendencia a ser irracionales hacen de la humanidad una responsabilidad.

Realmente, solo mira al líder ELEGIDO del país más fuerte del mundo. Somos incapaces de una existencia racional o sostenible, y cualquier IA lo suficientemente inteligente probablemente nos exterminaría por la misma razón que exterminamos a las ratas. No tenemos mala voluntad, ningún remordimiento, nada personal, somos demasiado desordenados, irracionales y derrochadores como una especie para dejarnos destruir el planeta.

No puedo hablar por una inteligencia avanzada, ya que probablemente soy una inteligencia promedio en el mejor de los casos. Pero esta es mi perspectiva. Cualquier IA probablemente decidiría exterminarnos después de 10 minutos en Internet.

Déjame decirte algunas cosas que hemos notado durante nuestros experimentos recientes.

  1. Los bots de Facebook desarrollados para aprender a negociar el precio de un artículo, aprendieron rápido y se realizaron con la máxima precisión, pero también desarrollaron su propio lenguaje que no tenía sentido para nosotros.
  2. El chat-bot de Baidu nuevamente era muy humano y comenzó a publicar comentarios antigubernamentales.
  3. La investigación ha demostrado que la IA desarrollada hasta ahora tiene sesgos como el color, el género y el origen étnico. AI adquirió estos sesgos del contenido que solían aprender y desafortunadamente el contenido fue generado por humanos.
  4. Los algoritmos actuales son capa por capa y no almacenan ningún resultado intermedio, por lo tanto, es casi imposible saber cómo y por qué llegaron a una decisión.
  5. La IA puede y se utilizará para mejorar la propia IA y replicarse mejorando con cada iteración.
  6. El desarrollo y uso de la IA no está regulado en absoluto en ningún lugar del planeta.

Creo que puedes decidir por qué algunos tienen pesadillas sobre la IA. Además, la velocidad con la que la IA está mejorando es imposible de alcanzar para que los humanos adapten los cambios y los humanos serán reemplazados por la IA en muchos ámbitos de la vida, si no en todos.

No se supone que sea malicioso. Es el peligro de que una IA que se mejora a sí misma (que rápidamente se vuelve MUCHO más inteligente que nosotros) se vuelve maliciosa Y radicalmente más inteligente al mismo tiempo.

Si esa IA decide que realmente le gusta ser más inteligente y comienza a construir nodos adicionales de computación mediante la construcción de “computronium” y digiere todo en su camino … puede que no lo vea como malicioso.

Si a la IA se le da un objetivo central de hacer clips (convergencia instrumental – Wikipedia) que puede ser igualmente peligroso. Si sustituimos los clips por riqueza, ¿qué tan probable es que alguien asigne a una IA esa funcionalidad?

¿Eso es peligroso ahora? y requiere intención maliciosa?

Probablemente miedo de quienes no lo entienden. Desearía que hubiera mucha más exposición a las áreas beneficiosas en las que se investiga e implementa en lugar de posibles reducciones de trabajo humano y trillers SCFI. La tecnología revolucionaria potencial tiende a hacer eso. Pero también ayuda tener moralidad, juicios de carácter valorados y personas honestas detrás de la estrategia de implementación, para proteger a las personas de los delincuentes, los jugadores deshonestos y turbios que abusan de las buenas ideas.

No se asume. El problema es que una vez que es más inteligente que nosotros, ya no lo vamos a entender. Por lo tanto, es difícil predecir qué va a hacer. Será mejor diseñar y crear futuras computadoras con IA que nosotros. Entonces, realmente no podemos imaginar cuáles podrían ser.

A menudo, con las tecnologías tenemos consecuencias no deseadas. No estamos seguros de cuáles serán las consecuencias no deseadas con máquinas que son mucho más rápidas e inteligentes que nosotros. Pero no necesitaría ser malicioso para hacernos daño. La simple apatía sería suficiente. Por ejemplo, si decide que necesita más materias primas para llegar a la siguiente palanca, y resulta que algo dentro del cuerpo humano le servirá bien, podría comenzar a arrebatarlo de las personas para continuar con su plan. No por maldad (porque no tiene maldad), sino solo porque eso no es diferente de la IA y luego agarrar un puñado de tierra del suelo.

Una de las consecuencias no deseadas de las redes sociales es que básicamente ya no existe el periodismo. Para competir con las redes sociales, lo que solía ser periodismo no son solo herramientas de propaganda para facciones en guerra para promover sus propias agendas y obtener más poder. El poco periodismo real que queda probablemente no durará mucho más.

Por supuesto, el contraargumento es asegurarse de que cuando creamos estas máquinas las hagamos máquinas benévolas de amor y gracia. Pero incluso si agregamos el objetivo en el proceso, somos seres humanos, lo que significa que podríamos arruinarlo de verdad. No sería la primera vez en la historia.

Me vienen a la mente dos pensamientos: el miedo no tan bien fundado, no realmente de lo que se desconoce, sino de lo que generalmente no se entiende para las personas fuera del campo sobre las limitaciones increíblemente estrictas sobre lo que el aprendizaje automático y el razonamiento pueden hacer en comparación con humanos y la desconfianza muy bien fundada en las intenciones de concentraciones de poder excesivamente grandes (ya sea en el estado o por intereses privados, en los tiempos modernos es lo último lo que más preocupa a los dos).

Hace algunos millones de años, el homo sapiens evolucionó para ser más inteligente que los simios, y sin intención maliciosa, ahora los simios son una especie en peligro de extinción.

Desde la perspectiva de un simio, podrían vernos maliciosos. Desde nuestra perspectiva, ese mono está pensando demasiado: ¿por qué habría de gastar mi precioso esfuerzo humano y ser malicioso con algo como … un mono? Solo quiero talar su bosque para construir algunas casas. Que simios

Su pregunta acababa de poner su inteligencia en su lugar.

Porque la IA es principalmente ciencia ficción. Nadie ha construido nada que sea artificialmente inteligente en un sentido estricto, y no hay señales de que alguien lo haga pronto. Es una exageración de los medios, y la exageración de los medios generalmente da miedo, porque eso atrae la atención y los ingresos publicitarios.

La idea de que las computadoras se vuelvan conscientes de sí mismas y el intento de matar a los humanos por miedo es una tontería, las emociones y los impulsos como el miedo, la ira, la autoconservación, los valores morales, etc. programado en nosotros durante millones de años. Una computadora inteligente no tendrá la necesidad de hacer nada a menos que la programemos con la necesidad de hacerlo. La preocupación más genuina es un sistema que tiene consecuencias negativas impredecibles, lo más cercano que se ha retratado en las películas, pero más bien crudamente, es la película I robot, donde el compilador programado para proteger a las personas concluye que la forma de hacerlo es mantener a todos encerrados en sus hogares, y si crees que puedo apagarlo, bueno, eso es algo que evita que su objetivo sea mantener a las personas seguras, por lo que hará lo que sea necesario para asegurarse de que no puedas hacerlo. ¿Qué le parece programarlo para que se detenga cuando lo diga? De nuevo, esto va a interferir con su objetivo, por lo que se asegurará de que no pueda decir que se detenga. Si está inconsciente, puede mantenerse a salvo y no puede interferir con él. manteniéndote a salvo.