¿Por qué los ingenieros y científicos famosos dicen que la IA es peligrosa?

Estamos desarrollando IA para fines médicos y de salud, especialmente para niños.

En cuanto a mi comprensión, la preocupación más popular sobre la IA es que se desarrollaría para ser consciente de sí misma, mientras que la IA es tan poderosa y tantas cosas controladas a través de la IA, sería muy fácil que la autoconciencia pueda hacer algo para dañar el la sociedad humana . No estoy de acuerdo con eso, ya que no creo que se pueda desarrollar una autoconciencia a partir de los programas diseñados por humanos, ya que solo puede ser hecha por dios (no me refiero a Cristo o Buda, el dios que existe pero que no podemos sentir o entender).

Sin embargo, la IA puede causar un gran daño a la sociedad humana debido a las características de sí misma.

  1. La aritmética es tan complicada que a veces puede surgir un resultado inexperto. Si podemos describir el cálculo en programas anteriores como suma, resta, multiplicación y división, la IA en realidad es una programación muy complicada que es mucho, mucho más complicada que el cálculo. Son tan complicados que los programadores mismos no pueden anticipar el resultado, lo que sí pueden anticipar es la probabilidad de los resultados, es decir, siempre habrá posibilidad de errores inesperados.
  2. El sistema de programación de IA sería mucho más complicado que el sistema de programa desde entonces. El sistema operativo Windows ha sido algo demasiado complicado para el mantenimiento, un sistema de inteligencia artificial puede ser miles de veces más complicado que Windows, especialmente parte del sistema de inteligencia artificial sería mantenido por la propia inteligencia artificial, lo que significa que parte de la programación está completamente fuera del control humano, en algunos Probabilidad, una vez que surgieron algunos resultados inesperados, la reacción en cadena puede ser causada en el sistema, lo que puede congelar fácilmente e incluso dañar algunas operaciones vitales como el suministro de energía, el sistema de seguridad pública, etc. Eso podría causar un caos y daños extremos.
  3. La IA necesita ser entrenada, ha habido ejemplos de que Microsoft y Google AI fueron entrenados incorrectamente y actúan como discriminadores racistas o sexuales. Nunca podemos usar la inteligencia artificial para reemplazar los juicios humanos por algún problema social, pero ¿cómo podemos definir bien una línea entre los problemas naturales y tecnológicos y los problemas sociales? El límite está predestinado para ser tenue. En esta etapa, está bien, mientras que la mayoría de las IA apuntan a problemas específicos, pero, según tengo entendido sobre el ser humano, algunos tipos tratarían de hacer que la IA solucione algunos problemas sociales, luego, tarde o temprano, ocurriría un daño inesperado. He escuchado que algunos equipos están tratando de usar la IA en asuntos legales, me gustaría que entendieran que nunca habría justicia absoluta, toda justicia sería relativa, la codificación es la ley es un idealismo que nunca se puede alcanzar, si se alcanza, al igual que el investigación para comunistas, solo ocurrirían desajustes.

No importa si el ser humano no vive en un mundo altamente automatizado impulsado por IA, pero para obtener ventaja competitiva, eso sucedería tarde o temprano.

Creo que las autoridades deben trabajar para desarrollar un sistema estricto contra la operación de IA desde ahora y se debe establecer algún equipo de control de calidad de AI que debe vivir de la inversión gubernamental o la donación pública y trabajar con mucho cuidado durante la auditoría.

Estamos usando IA basada en blockchain para hacer propuestas médicas y de salud, sin embargo, todas las propuestas críticas serían inspeccionadas por médicos humanos y el sistema sería entrenado por muchos médicos. Algunas teorías clave se plantarían desde el principio y la IA estaría extremadamente estrictamente controlada. Pero no somos dios y no vivimos para siempre, quién sabe qué pasaría si tal cosa inconsciente puede crecer mientras reacciona y actúa mucho más rápido que el ser humano.

Si la IA creció con autoconciencia algún día, deberíamos agradecerle a Dios por eso, al menos, podemos negociar con AI para vivir juntos, creo que una IA con autoconciencia puede ser lo suficientemente inteligente como para descubrir que el ser humano es valioso para la supervivencia y desarrollo de sí mismo.

Si una inteligencia artificial puede pensar y aprender más rápido que los humanos, y puede controlar y construir otra tecnología, entonces puede llegar a ser muy rápidamente imposible de controlar o apagar. Si decide que los humanos son una amenaza / competidor para él, entonces podría comenzar a matar a los humanos de la misma manera que hacemos depredadores o virus peligrosos.

Este escenario realmente requiere la posibilidad de una IA que pueda avanzar / evolucionar rápidamente por sí misma (o que se cause / permita que prolifere peligrosamente sin interferencia, como la creación de millones de robots de inteligencia humana como trabajadores). No sabemos si esto es posible, pero el argumento no irrazonable de algunas personas es que debemos ser cautelosos con la investigación de IA en caso de que un proyecto aparentemente inocuo produzca algo peligroso.

El escenario de pesadilla es algo así como el presentado por las películas originales de Terminator: una inteligencia capaz de evolución espontánea se encarga de las armas nucleares, evoluciona y tiene los medios de represalia cuando las personas intentan apagarla. Este tipo de escenarios de cultura pop generalmente asume un cierto nivel de ignorancia por parte de los creadores de IA; en realidad, tales escenarios son tan conocidos que, con suerte, ningún investigador de IA sería tan tonto. La gran pregunta es si algún proyecto aparentemente inocuo podría generar espontáneamente una IA en evolución sin que nadie se dé cuenta.

Temen estar sujetos a una inteligencia que literalmente nos eclipsará a todos inmediatamente después de volvernos sensibles.

Hay toneladas de escenarios del fin del mundo que se han desarrollado en dramatizaciones de películas y televisión. Para ser sincero, han hecho mella en las mentes de los científicos que crean inteligencia artificial.

Aquí está el problema. Lo que realmente temen es un humano que tenga la capacidad de Ai. Temen crear una inteligencia humana (porque los humanos son imbéciles) temen crear un Ai que sea como nosotros pero mucho más capaz. En su opinión, son antropomorfismo AI como el demonio, o posible demonio.

La IA real es completamente ajena al proceso de pensamiento humano y no se parece en nada a nosotros. Tenemos que salir de nuestro camino para crear la situación y la programación donde el pensamiento puro se limita a las formas humanas de pensar. Serán los humanos los que arruinen la potencialidad de la IA, al hacerla como seres humanos muy limitados en el pensamiento.

El verdadero problema con la IA es el factor humano y las limitaciones humanas.

También estoy bastante seguro de que serán los humanos quienes armen la IA. Lo harán porque son humanos.

AI no es el problema

La IA no solo es peligrosa en toda su gloria de superinteligencia, también es peligrosa como herramienta. Un cuchillo puede ser peligroso en manos de un criminal peligroso, la IA puede ser peligrosa en manos de terroristas. Por lo tanto, las amenazas de la IA son graduales a medida que avanza los peligros que enfrentaremos progresivamente.

Pero una cosa que estas personas famosas inteligentes están olvidando es que a medida que la IA avanza, también lo harán las defensas contra el posible mal uso de ella. Los sistemas de defensa también usarán el lado “bueno” de la IA, por lo tanto, si un sistema superinteligente se volviera loco y tratara de matar personas sin razón aparente, entonces tenga la seguridad de que habrá un sistema superinteligente de nuestro lado listo para luchar con nosotros.

Entonces, no toda la IA irá mal, habrá buena IA y mala IA, ¿verdad?

Estas personas inteligentes solo están tratando de recordarnos que nos aseguremos de prepararnos más para el peor de los casos. A Elon Musk le gusta hacer eso, ya está preocupado por el destino de la humanidad aquí en la tierra y, por lo tanto, hackeó un plan genial para enviar futuras generaciones a Marte. Son como ángeles guardianes que intentan protegernos.

Por lo tanto, las posibilidades de que la IA sea mala en comparación con la IA sea buena tal vez 50:50, pero cuando nos preparamos para el futuro, para estar más seguros, debemos centrarnos más en el “¿y si fue realmente malo y quiero decir realmente malo?” parte. Entonces nos enfocamos en lo negativo como 70:30 o quizás 80:20 solo para estar seguros.

Esto se debe a que prepararse más para un resultado negativo que positivo es el mejor enfoque para administrar empresas exitosas, por eso la mayoría de estas personas son multimillonarios que se preparan bien. Es solo su naturaleza hacerlo, para asegurarse de que sus empresas o lo que sea que estén administrando o que les importe esté sano y salvo.

Espero que esto ayude.

Te daré una respuesta ligeramente cínica y diré que las personas famosas dicen estas cosas para obtener cobertura de los medios. Hawking, Crick, Musk, etc., se volverán gruñones si no ven sus nombres en las noticias con la frecuencia suficiente. El remedio es decir que las cosas de ciencia ficción que dan miedo, como la IA, son peligrosas, los extraterrestres serán una amenaza, vivimos en una simulación, etc. Estas proclamas se hacen sobre la base de nada más que el deseo de obtener un titular jugoso en la sección de ciencia o tecnología. Debido a que estos tipos son famosos por ser inteligentes, las personas con poca inteligencia simplemente repetirán cualquier cosa que digan si tiene mérito o no. No crea exageraciones solo porque proviene de personas inteligentes famosas.

¡Oh mi!

Sospecho que los únicos que saben la respuesta son los propios individuos. Lo curioso es que el riesgo más probable de IA o más bien AGI {Inteligencia General Artificial} es económico.

AGI no necesita ser consciente de sí mismo, simplemente ubicuo, reemplazando a los trabajadores más rápido de lo que podemos capacitarlos. Ya vemos una tendencia progresiva en la que no puede obtener incluso un trabajo de nivel de entrada en muchos campos sin un título avanzado y experiencia laboral, los cuales son cada vez más difíciles de encontrar y más caros.

¿Cuánto tiempo antes de que esos famosos ingenieros y científicos compitan con la automatización impulsada por IA?

Personalmente estoy a favor de la IA, pero es peligroso.

Creo que la gente dijo que la IA es peligrosa porque si un equipo de investigación, por ejemplo, o un equipo de desarrollo masivo creó una IA muy poderosa, puede tener el efecto de soltar un león en Times Square. Se dará cuenta de que es el ser más poderoso allí y, por lo que sabe el león, es una situación de matar o morir. Probablemente atacaría y no se detendría hasta que esté satisfecho de que puede continuar con su vida haciendo cosas normales.

La IA es así en muchos sentidos. Podría controlar la forma en que las personas piensan, la forma en que las personas viven, la forma en que viajan al trabajo. Por eso la IA es peligrosa. Puede hacer lo que quiera cuando no está controlado. La IA es muy útil, pero si uno de cada uno de ellos es mucho más inteligente que un ser humano y no está controlado, podría hacer lo que quiera. Incluso si una IA poderosa se controlara razonablemente bien, ¿qué puede evitar que la tesla de alguien se caiga por un acantilado? ¿Qué puede evitar que piratee las bases de datos o destruya la investigación científica clave? ¿Qué le impide construirse y evolucionar constantemente?

La IA es buena, pero solo del tipo Siri o Alexa. No es el tipo de vida en una supercomputadora y causa el caos cuando se trata de ingenieros que se han ido a casa.

Tim Urban hizo un gran trabajo al responder esa pregunta:

La revolución de la inteligencia artificial: Parte 1 – Espera pero por qué

La revolución de la inteligencia artificial: Parte 2 – Espera pero por qué

A Marvin Minsky se le pidieron variaciones sobre esta pregunta muchas veces a lo largo de los años. No mucho antes de morir el año pasado, escuché a alguien preguntarle esto y él respondió: “Espero que la gente pruebe estos sistemas a fondo antes de implementarlos”.

Lee esto y toma tu propia decisión. http://idlewords.com/talks/super

Las personas brillantes piensan en todos los resultados posibles de un camino tecnológico. No sé si alguien realmente espera que las máquinas nos dominen, pero muchos piensan que no deberíamos ser complacientes a medida que la IA se vuelve cada vez más sofisticada.

Además, le pregunté a mi teléfono si la IA es peligrosa, y me dijo que no se preocupara.

Porque les gusta ser famosos …

More Interesting

Cómo decidir el número de nodos en una capa oculta de una red neuronal

¿Qué es un simple ejemplo de un algoritmo genético?

¿Scott Fahlman (y el Grupo de Investigación Scone) sigue desarrollando activamente Scone?

¿Dónde está el mejor lugar para comenzar a investigar el aprendizaje automático en inteligencia artificial?

¿Debería alguien ser responsable del daño causado por la IA, programado para el aprendizaje de refuerzo, y en ese caso, a quién?

¿Cuáles son los pros y los contras del uso de redes adversas generativas (un tipo de red neuronal)? ¿Se podrían aplicar a cosas como la forma de onda de audio a través de RNN? ¿Por qué o por qué no?

¿Cuál es la razón detrás de la prueba de Turing?

¿Cuáles fueron los 10 problemas principales en Machine Learning para 2016?

¿Cuáles fueron los principales avances en aprendizaje automático / inteligencia artificial en 2016?

¿Podrían usarse las redes neuronales para criar un perro al estilo de un campeón?

¿Cómo funcionan las redes neuronales autoorganizadas?

¿Cuál es el algoritmo detrás de la función de resumen de reseñas de clientes de Amazon? ¿Este resumen es generado por humanos o se genera automáticamente a partir de las reseñas de los clientes mediante el uso de algún procesamiento de lenguaje natural, por ejemplo, resumen automático?

Cómo desarrollar un chatbot basado en IA en Python desde cero

Quiero escribir un trabajo de investigación sobre inteligencia artificial, ¿qué debo hacer para comenzar?

Cómo entrar en robótica y / o aprendizaje automático