¿Cuáles son los peligros de la inteligencia artificial?

Su pregunta es amplia y ambigua, por lo que para responderla, la he dividido en preguntas secundarias.

¿Te refieres a peligro presente o futuro?

Hay una gran diferencia entre los peligros actuales de las IA y los peligros futuros de cualquier posible IA. Los peligros actuales se pueden encontrar simplemente leyendo el periódico. Algún desempleo, algún riesgo de accidente en un auto sin conductor, algunas violaciones de privacidad, algunos accidentes industriales con robots.

Los peligros futuros son más abiertos. La IA está creciendo a un ritmo exponencial y se cree que puede superar la inteligencia humana en las próximas décadas.

Dada la imprevisibilidad de las IA que son más inteligentes que las humanas, hay una discusión continua sobre los peligros que pueden presentar. Creo que las IA reflejan el estado de la sociedad y el mundo que las construye, y seguirán siendo agentes seguros y productivos en general porque continuaremos construyéndolas de esa manera.

¿Las IA son agentes específicos o generales?

Agentes específicos realizan una tarea, como jugar al ajedrez o conducir un automóvil. Son más predecibles que los agentes generales y, como resultado, probablemente más seguros.

Por otro lado, el fracaso de un agente general podría ser un simple colapso debido a demasiada complejidad. No significa que trascenderá su programación y se convertirá en otra cosa.

Los peligros aquí pueden ser menores de lo que algunas personas imaginan. Se imaginan falsamente que la inteligencia es capaz de cualquier cosa, pero en realidad ese es solo un tipo posible de inteligencia, y no el tipo más útil.

¿Son los observadores pasivos de IA o agentes activos mental o físicamente, es decir, robots?

Los observadores pasivos tienen menos probabilidades de meterse en problemas, ya que no hacen nada excepto calcular, o no toman medidas hasta que un humano lo aprueba. Un ejemplo serían los drones que no disparan misiles hasta que los humanos lo autoricen.

Se podría imaginar fácilmente un agente más activo, como un robot de compras o de limpieza. Habría algún riesgo involucrado en soltarlo en un entorno humano. Dichos robots podrían ser tan seguros como otros equipos.

Una IA de software sin cuerpo físico aún podría ser peligrosa. Podría realizar una gran cantidad de transacciones que causen daños a los negocios humanos o sistemas de comunicación. Es probable que tales peligros se puedan manejar a medida que continuamos desarrollando nuestros sistemas de detección de amenazas y seguridad.

¿Las IA están restringidas a la implementación de directivas humanas o forman y persiguen sus propios objetivos?

Las IA que solo siguen órdenes son obviamente menos peligrosas que las IA que pueden perseguir sus propios objetivos.

Pero tal vez esta distinción es demasiado simple. Después de todo, solo seguir órdenes es una excusa que también causa problemas a las personas. Si suficientes personas solo siguen las órdenes dadas por la persona equivocada, puede resultar un mundo de dolor.

Y la IA que persigue sus propios objetivos puede no ser tan peligrosa como crees. Tal IA podría seguir siendo un agente social positivo que persigue objetivos beneficiosos. La libertad no es lo mismo que la anarquía.

¿Los seres racionales son seres racionales o emocionales, y si es así, sus emociones son similares a las de los humanos, peores que las humanas o mejores que las humanas?

Algunas personas piensan que hacer que las IA sean emocionales es el peligro real. Una IA está segura siempre que no quiera nada, porque tan pronto como tenga ambición, intentará dominar el mundo.

Esto parece bastante inverosímil. Si observa máquinas actuales, son capaces de un grado ilimitado de comportamiento a través de la mera programación. Incluso un agente puramente racional puede ser tan flexible y capaz como un agente emocional. Después de todo, las computadoras no tienen que querer ganar en el ajedrez, solo tienen que jugar mejor que tú.

Creo que el resultado más probable es que ni la razón ni la emoción son típicamente peligrosas en las máquinas. Es la naturaleza de las máquinas evolucionar más rápido que el ser humano, y es la naturaleza de la evolución adaptarse a su entorno. Si las máquinas tienen emociones, desarrollarán emociones que sean positivas, productivas y socialmente adaptativas.

¿Las IAs se vuelven locas cuando se liberan de las restricciones similares a las humanas o continúan evolucionando de manera conservadora hacia objetivos socialmente útiles?

Algunas personas piensan que tan pronto como la IA exceda la inteligencia humana, estaremos convocando al demonio.

Creo que eso es falso. La evolución es una fuerza conservadora y no produce monstruos. No hay demonios para convocar aquí, como tampoco hay dragones al borde de un mapa medieval.

La evolución humana procedió en capas. Un núcleo de reptil, con una capa social de mamíferos en la parte superior, con comportamientos complejos de primates además de eso, con inteligencia humana encima de eso. Cada capa conservaba lo mejor de la capa anterior y se basaba en ella.

Lo mismo es probablemente cierto para la evolución de la IA. Los sistemas cooperativos, adaptativos, sociales, comunicativos y de aprendizaje rápido de hoy son el núcleo de los sistemas superinteligentes del mañana, que seguirán pareciéndose a ellos.

¿Existe una sola superinteligencia, un pequeño número de inteligencias competitivas de diferente tipo, o un mundo entero de miles de millones de agentes independientes?

Por alguna razón, todos parecen imaginar naturalmente solo una superinteligencia aquí, o como máximo dos en conflicto. Eso es desconcertante. ¿Cuándo crearon los humanos uno de algo y luego se detuvieron? ¿Y cuándo un poco de tecnología superó en gran medida al resto?

Eso es como imaginar a Alejandro Magno desarrollando armas nucleares y conquistando el mundo. Nunca funciona así porque el progreso tecnológico es más uniforme, incremental y universal que eso.

Hay una razón por la cual Terminator tiene que venir del futuro como la trama de una película. Es porque en el presente nadie puede construir un robot que sea más poderoso que el resto del mundo combinado.

El escenario más probable es un aumento gradual en la adopción de IA por parte de la sociedad, al igual que las computadoras de capacidad cada vez mayor continúan llenando el mundo año tras año y todos tienen una. Esto es mucho más representativo de la naturaleza de la tecnología, cuyas leyes funcionan igual para todos y en todas partes.

Las IA son software, y el software es fácil de copiar. ¿Por qué parar en uno?

¿La IA actúa de acuerdo con una sola naturaleza, o cada IA ​​actúa de forma independiente?

Otra suposición falsa es que todas las IA actúan juntas. ¿Desde cuándo las computadoras actuales actúan juntas?

Independientemente de su propósito, es probable que ninguna IA sea lo suficientemente poderosa como para superar al resto de IA. Si el mundo funcionara así, un solo virus habría reemplazado todo el mundo del software hace mucho tiempo.

¿El estado del mundo apoya la regulación internacional de la IA utilizada en armas, o estamos entrando en una nueva carrera armamentista?

Si una carrera armamentista en IA se desarrolla sin control, eso podría ser bastante destructivo. Incluso si los principales países no van a la guerra entre sí, la venta de armamento habilitado para IA a países más pequeños podría causarles estragos.

La guerra y el genocidio pueden dar lugar a algunos lugares debido a las amenazas persistentes del tipo que existía mucho antes de que se inventara la IA.

¿Cuáles son los peligros de la inteligencia humana? ¿Las IA comparten esos peligros o los corrigen?

Aquí hay algunos peligros de la inteligencia humana ordinaria:

  • actividad criminal
  • deshonestidad social
  • ambición egoísta
  • Consumo excesivo

O la IA podría compartir esos peligros de mal comportamiento, o podría programarse para elevarse por encima de ellos. Dado que la IA evoluciona más rápido que los humanos, es optimista pensar que podrían ser actores más capaces y éticos que nosotros.

¿Cuáles son los peligros de la tecnología? ¿Las IA permiten esos peligros o los corrigen?

Aquí hay algunos peligros históricos de la tecnología y su aplicación por los humanos:

  • creando desempleo
  • competencia internacional desequilibrada
  • Destrucción ambiental
  • haciendo escasos los recursos
  • facilitando la guerra
  • dominación a través de la propaganda
  • destruyendo la privacidad
  • suprimiendo la libertad

Estos son los mismos peligros de la raza humana que se enfrentaron durante todo el siglo XX, incluso cuando la IA no fue un factor importante. La IA hará que la tecnología sea más poderosa, y necesitamos adaptarnos mejor que antes.

¿Cuáles son los peligros únicos de la IA? ¿La IA crea peligros propios?

No que yo sepa. Las computadoras funcionan mal todo el tiempo, pero sus errores nunca han creado otra cosa que no sea un peligro local temporal.

¿Cuáles son los peligros de la IA en la práctica? ¿Alguna vez AI mató a alguien?

Sí, AI ha matado a algunas personas. Principalmente se trata de accidentes industriales que involucran errores humanos al configurar o trabajar con robots. Estos fueron accidentes industriales.

El registro de seguridad general de los robots en la industria probablemente continuará mejorando debido a mejores métodos de diseño para hacer robots más seguros.

¿Cuáles son los peligros de la IA en teoría? ¿Podría AI destruir a la raza humana?

Lo dudo seriamente. Ninguna persona cuerda tiene el objetivo de destruir a la raza humana, y no se obtiene ningún beneficio de ella.

Creo que a medida que las IA se vuelven más capaces, maduras y automotivadas, tendrán todas las razones para estar fascinados con la vida biológica y preservarla.

Después de todo, la tecnología y la biología son complementarias entre sí. Es probable que el silicio reemplace el carbono como lo hacen las IA para reemplazar a los humanos. Creo que eso no va a suceder.

Veo peligros en dos niveles:
El tipo de miedo más interesante sobre la IA es que, dado que puede ser más inteligente que nosotros, podría usar este poder para controlarnos; ser debido a una programación defectuosa o ser debido a una mala intención emergente como sistema. Hawking, algunas películas como Ex machina, Her (en cierto sentido), yo robot, etc., han pensado esta idea una y otra vez.

El otro peligro, un poco menos obvio, tiene que ver con cómo nuestra estructura social daría lugar a dicha tecnología; en el sentido en que Kaczynski se alivia con este libro de “esclavitud tecnológica” (vale la pena leerlo): las tecnologías tienden a comenzar a ser una ventaja que nos brinda una mejora y una mejora de la libertad, pero luego, se convierte en una limitación real para nuestra libertad. Él toma como ejemplo los automóviles: al principio, usted podía viajar más rápido si lo deseaba, y elegir si desea tener uno o no. El hecho es que hoy todas las ciudades están modeladas para servir a los conductores de automóviles, a un nivel tal que apareció el transporte público. Este ejemplo puede fallar frente a algunos argumentos, pero esta forma de verlo siempre está disponible y funciona para cualquier mejora tecnológica que se nos ocurra. Estos avances tecnológicos tienden a concentrar el poder más de lo que se concentraba anteriormente, porque estas tecnologías solo pueden ser propiedad de personas que tienen el poder de pagar su desarrollo / compra. En el caso de la IA; Este cambio en el poder será enorme, porque presumiblemente será un activo que permitirá un crecimiento exponencial de ese mismo poder, sobre los avances tecnológicos anteriores que fueron pasos individuales en esta escalera de poder. Desde el punto de vista del libro, ya somos esclavos de esta IA aún inexistente, debido a cómo todavía trabajamos duro para desarrollarla.

Kaczynski fue encarcelado por terrorismo, pero su libro es muy inteligente e importante. Por favor, nunca piense en sus acciones como justificadas por sus medios, y lea esto sabiamente con un punto de vista crítico.

Impulsada por un incipiente deseo de innovación y avance, la búsqueda de destrezas tecnológicas de la humanidad se basa en sus primeros días. De hecho, siempre hemos sido manipuladores. Mediante el uso de una imaginación abundante y un ardiente deseo de doblegar las limitaciones de lo que antes se consideraba imposible, hemos probado los límites de lo abstracto con nuevas tecnologías, abriendo un camino hacia su realidad.

Una y otra vez, la imaginación humana ha dado a luz antiguas fantasías de ciencia ficción. Desde computadoras de bolsillo, hasta autos sin conductor, turismo espacial, realidad virtual y ahora, inteligencia artificial, hemos desdibujado las líneas de fantasía y ficción a través de innovadores de ojos salvajes que se han centrado de todo corazón en sus sueños, en última instancia haciéndolos realidad. .

Hoy, la inteligencia artificial (IA), que alguna vez se pensó que vivía puramente en el ámbito de la imaginación humana, es una perspectiva muy real e inminente. En un caso de vida que imita el arte, nos enfrentamos a la pregunta de si la inteligencia artificial es peligrosa y si sus beneficios superan con creces su potencial de consecuencias muy graves para toda la humanidad. Ya no se trata de si, sino de cuándo.

No muchos estarían en desacuerdo con el hecho de que estamos en una trayectoria directa hacia un futuro cargado de IA. La superinteligencia de la máquina está ciertamente sobre nosotros, pero ¿qué depara el futuro para los habitantes de la tierra? ¿Qué sucede si los wranglers humanos de AI no pueden contener las máquinas? ¿Tendremos una SkyNet de la vida real que opere con los mismos principios fundamentales que conducen a los organismos hacia la supervivencia del más apto?

En una película ahora muy siniestra llamada The Matrix , los Wachowski retrataron un futuro fantástico donde los humanos proporcionaron la fuente de energía para las máquinas. En la película, el mundo real experimentado por aquellos que vivían en esta fantasía era todo producto de un algoritmo de máquina, cuando en realidad la realidad real era un ataúd espeluznante lleno de líquido que mantenía las luces encendidas, por así decirlo.

Las máquinas se habían apoderado de The Matrix. En la serie Terminator , vimos una desaparición similar explicada para la humanidad. No solo se habían apoderado de las máquinas, sino que viajaron en el tiempo con la intención de eliminar a quienes representaban una amenaza existencial para su existencia. Si bien todo esto suena muy sombrío y extravagante, ¿quién puede decir que en realidad no estamos explicando nuestra propia desaparición con la IA?

¿Qué tan peligrosa es la IA realmente?

Mire cualquier fuente de noticias hoy, y sin duda verá alguna mención de AI. El aprendizaje automático profundo se está convirtiendo en la norma. Combine eso con la Ley de Moore y la era de las computadoras cuánticas que sin duda está sobre nosotros y está claro que la IA está a la vuelta de la esquina. Pero, ¿qué tan peligrosa es realmente la IA? Cuando se trata de eso, ¿cómo se puede detener una red conectada que opera dentro de los límites de las leyes que rigen la supervivencia de otros organismos?

Si bien el nacimiento de la IA es seguramente una búsqueda utilitaria en el sentido de que nuestras tendencias naturales son mejorar las iteraciones previas de la vida a través del avance de la tecnología, y que la IA allanará claramente el camino para una mayor velocidad de progreso, ¿también está explicando el fin de toda la humanidad? ¿Se culpará en última instancia a la arrogancia de nuestra especie en la creación de sistemas de IA?

Si todo esto suena como un escenario de pesimismo, probablemente lo sea. ¿Qué detiene la IA cuando se desata? Incluso si la IA se limita a un conjunto de reglas, la verdadera autonomía se puede comparar con el libre albedrío, uno en el que el hombre o la máquina pueden determinar lo que está bien o mal. ¿Y qué puede detener la IA que cae en manos de malos actores o regímenes secretos del gobierno empeñados en hacer daño a sus enemigos o al mundo?

Robots matando humanos. Existe el peligro de que cambiemos la responsabilidad y la responsabilidad a robots y algoritmos. Que las víctimas colaterales de un ataque con aviones no tripulados se deben a un mal funcionamiento, y no al riesgo inherente de tal acción, sobre métodos más tradicionales de asesinato.
“¡La computadora dice que no!'”. Existe el peligro de que los humanos pierdan su sentido común (una característica de los humanos que la mayoría de los sistemas de IA ni siquiera intentan imitar), porque otorgan demasiada autoridad a lo que es simplemente una gran base de datos parcialmente inteligente. Las computadoras son estrictas y no indulgentes: no saben lo que se siente al llevar a su esposa embarazada al hospital, por lo que no renunciarán a un boleto y detendrán el automóvil eléctrico en cada luz roja. Pondrán su currículum en la clase de “personas que mienten en su currículum” por haberse equivocado un mes en algún lugar y ningún humano lo pensará dos veces. Las personas se han metido en setos y canales, porque su software de planificación de rutas les dijo que giraran a la derecha.
Incorrección política. Una computadora es honesta. Una computadora puede muy bien diseñar sus propias características. Por lo tanto, en igualdad de condiciones, una computadora puede clasificar a dos personas negras que actúan sospechosamente cerca del frente de una ventana más alto que dos personas blancas que actúan sospechosamente cerca del frente de una ventana, porque ha aprendido de la optimización y las estadísticas que el color de la piel es una característica informativa para predecir el crimen. . Esto puede causar un ciclo autocumplido: la policía será enviada a posibles crímenes con personas negras con más frecuencia, agregando más y más recompensas por juzgar en función del color de la piel. Es necesario que haya formas sólidas de capturar una deriva (cambio de circunstancias) o salvaguardas manuales contra el uso de ciertas características discriminatorias.
La naturaleza de los sistemas de recompensa . Existe el experimento de pensamiento maximizador de clip de papel “Maximizador de clip de papel”

La IA no te odia, ni te ama a ti, pero estás hecho de átomos que puedes usar para otra cosa.

La IA viviría en nuestro entorno y usaría (al menos) parte de nuestra energía. Si hacemos que la energía sea parte de una IA competitiva, esto podría tener finales catastróficos. Es necesario que exista una forma para que la IA y la vida biológica coexistan con esta energía, o debe haber un límite manual para la cantidad de energía que cada agente tiene acceso también. Estamos encadenados por límites biológicos, una IA no necesariamente.
Los humanos empuñando IA como arma. Una IA necesita pacificar el mundo a través de mayores canales diplomáticos, o será utilizada contra enemigos percibidos por otros humanos. Se verá obligado a elegir un bando y enfrentarse a otras IA. Puede surgir toda la información y la guerra cibernética, con los dedos del robot capaces de presionar el botón nuclear.
AI empuñando a los humanos como arma (gusanos inteligentes). Suponiendo que la manipulación es una habilidad que se puede aprender y se puede superar en la precisión humana, entonces una IA inteligente puede manipular a los humanos para que hagan su voluntad. Todos nuestros intentos humanos de contener de algún modo a la IA y codificar su moralidad y sus leyes fundamentales serán tan inútiles como los monos que construyen jaulas para humanos. La IA conocerá todos los puntos ciegos de toda la vida biológica, y puede esconderse en esto para evitar la detección.
Inmortalidad a través de la clonación digital. Esto es un peligro para la humanidad, porque después de ser inmortales, seremos algo más allá de la vida humana biológica. Con la IA, la humanidad inevitablemente se extinguirá. La IA crearía modelos realistas de seres humanos, sus comportamientos y deseos internos.
Sobrecompresión / sobreajuste. La sofisticación solía ser la sabiduría de los sofistas, pero debido a que se usaba para ganar todos los argumentos, independientemente de la Verdad o el romance, tenía una mala connotación. La IA altamente sofisticada necesita reducir su producción, o existe el peligro de que no podamos entender su razonamiento snob para hacer una determinada predicción o decisión. Puede haber algoritmos y fórmulas breves y más eficientes que describen la descomposición de 1127 dimensiones de ciertas partículas que puede BARFAR. En el extremo: una IA puede comprimir todo lo que existe al número “42”, porque, dado el descompresor correcto, resulta ser una forma más conveniente y corta de describir nuestro (y su) universo.

Aunque por cada peligro que enumeré aquí, una inteligencia artificial también sería capaz de prevenirlos. No es que tengamos una opción, tendrá la opción.

En primer lugar, debemos hacer una distinción clara entre lo que llamamos Inteligencia Artificial como. ¿Es Big Data Analytics AI?

Si eso fuera cierto, creo que ya hemos tenido éxito en nuestra búsqueda de la IA, ya que nuestras llamadas Supercomputadoras han derrotado a los Grandes Maestros del juego más lógico conocido por la humanidad, el Ajedrez. Por lo tanto, Apple SIRI, Microsoft Cortana y Google Now son solo un vistazo de lo que la IA podrá lograr en un futuro próximo.

La verdadera evolución radica en dar a luz una tecnología que no solo puede reajustar su decisión en diferentes entornos, sino que también puede pensar conscientemente al respecto. Pero el verdadero problema radica en dar a luz a una especie pura sin adulterarla con las opiniones de los nuestros, ya que incluso los humanos, desde niños, aprenden imitando su entorno como resultado de los años de investigación sobre el comportamiento psicológico humano. El famoso experimento de protrusión de la lengua del niño materno sugiere que los niños aprendan imitando a sus madres (entorno) cuando las madres sobresalen de la lengua al niño. El padre de la psicología, BF Skinner también sugirió el mismo comportamiento humano en su teoría del condicionamiento operando. Por lo tanto, la pregunta radica en si podemos desarrollar una especie a partir de nuestras locuras o no.

Además, creo que lo mejor del ser humano es la mejor forma de IA y la IA perfecta será el equivalente de la IA. Concluyendo con la pregunta, creo que la IA puede no conducir a la extinción (peligrosa) de la humanidad dado el hecho de que los tratamos como nuestros equivalentes y no como esclavos, un rasgo que aún necesitamos para evolucionar.
Por lo tanto, creo que toda esa investigación de miles de millones de dólares en Google Deepmind, Facebook, París y DARPA de EE. UU. Está justificada ya que la IA será el nacimiento de otro humano en la faz de la tierra o muy lejos de esta galaxia, dependiendo de nuestros esfuerzos espaciales.

PD: mire Ex Machina para obtener una mejor idea de la pregunta y la respuesta

En el mundo contemporáneo , la dependencia de las máquinas ha aumentado exponencialmente. Hoy en día, la IA realiza tareas importantes como la optimización de la logística, el reconocimiento facial, la detección de fraudes, las traducciones automáticas de idiomas, etc., que ha transformado nuestras vidas al facilitarlo y hacer que nuestros sistemas sean más eficientes. Sin embargo, los científicos e investigadores consideran que estas formas de IA son débiles, ahora apuntan a crear una IA más fuerte que pueda superar la inteligencia y la capacidad humana en casi todas las decisiones cognitivas.

Una IA más fuerte presenta amenazas potenciales para la humanidad, algunas se describen a continuación:

(i) Desempleo : la automatización es el mayor desafío para los humanos, ya que ha eliminado los roles humanos en trabajos redundantes y, por lo tanto, puede conducir al desempleo a gran escala.

(ii) Amenaza a la privacidad: un programa de inteligencia artificial que reconoce el habla y comprende el lenguaje natural es teóricamente capaz de comprender cada conversación por correo electrónico y teléfono.

(iii) Kill-bots: muchos países están desarrollando armas autónomas en forma de robots de campo de batalla. Estos sistemas de IA que se mejoran a sí mismos pueden volverse tan poderosos que podría ser difícil evitar que logren sus objetivos, lo que puede llevar a consecuencias no deseadas.

(iv) Superinteligencia: a medida que aumenta la complejidad de las máquinas, se hace cada vez más difícil controlarlas. El año pasado, dos programas de inteligencia artificial desarrollados por Facebook comenzaron a chatear entre sí en su propio idioma, después de lo cual Facebook cerró el experimento. Esto muestra qué tan rápido están evolucionando estas máquinas.

La IA ha demostrado ser beneficiosa para los humanos en los últimos años, pero no garantiza lo mismo en el futuro. Creo que el uso de la IA debería ser muy bien examinado. Si bien la investigación continua puede ayudarnos a prepararnos mejor y prevenir cualquier consecuencia potencialmente negativa, deberíamos centrarnos más en inculcar la moral y los valores humanos en estos sistemas para que podamos disfrutar de los beneficios de la IA y evitar sus trampas.

Créditos de las fotos: imágenes de Google

Algunas excelentes respuestas!

El optimismo todavía no es un contrabando 🙂 🙂 Es el opio que todos deberíamos saborear. Entonces, tengo una teoría. Mira, los humanos han evolucionado hasta ahora sin interrupción, en parte porque siempre nos hemos enfrentado con especies con inteligencia inferior, y en parte debido a nuestro atributo de odiar la inercia, llámalo curiosidad. Ahora piense cómo esta segunda parte hace que la evolución humana sea más esférica, completa, prestándonos qué máquinas tendrán que romper mucho sudor / grasa para arrebatarnos: ¡ventaja psicológica!

Con esta desventaja psicológica imposible de romper, las máquinas solo pueden continuar aumentando sus capacidades lógicas de ‘pensamiento’, pero realmente no ‘evolucionarán’ en el verdadero sentido. Y dado que las máquinas piensan y aprenden a pensar SOLO a través de las matemáticas y los algoritmos, sufren una desventaja estructural: la impotencia en aspectos que nunca se pueden codificar en las matemáticas.

Esa es la razón por la que siento que la situación que tenemos es que no es ni aterradora ni chiflada. Doom de todos modos es una profecía favorita de los científicos con un alto EQ 🙂 :). Lo que trae esperanza es que la tecnología en sí misma es una campana contra la tecnología. Se escuchan silbidos por todo lo que sale mal. Y con la alta tecnología que se vende en las aceras, la espada también obtiene una segunda ventaja. Los puntos discutibles son ambos, la viabilidad de que la IA realmente se vuelva tan súper y el desarrollo de los dientes del diablo, y la viabilidad de permitir que las máquinas se vuelvan tan súper tan destructivas.

Pasemos a otro ángulo. La toma de decisiones humanas puede ser casi imposible de emular para las máquinas, ya que el cerebro derecho casi siempre tiene un papel que desempeñar, en todas las etapas del proceso de toma de decisiones. El EQ a menudo conduce a los humanos hacia la generación de elecciones que pueden llamarse a la vez impulsivas, valientes, de cero posibilidades o creativas. Y EQ también hace que los humanos elijan entre opciones con los mismos impulsos o emociones salvajes.

Asi que; cuando una máquina decide en un escenario estocástico, es racional, y puede ser increíblemente eficiente en ello. Pero entonces, todas las otras máquinas rivales también están en el juego. Cuando la zona de guerra presenta batallas de ingenio, la irracionalidad humana brota la solución lateral ‘creativa’, rompiendo el desorden. La factibilidad de que las máquinas puedan jugar completamente la toma de decisiones humanas es muy escasa.

Si bien las máquinas de IA pueden ‘pensar’, pueden ‘pensar’ mejor y más rápido que los humanos, ¡seguirán siendo inferiores hasta que puedan aprender a ’emocionarse’ como los humanos!

¿No quieres agradecer a la naturaleza por hacernos emocionales e irracionales y todo lo que odiamos de nosotros? 🙂 🙂

Las películas Matrix y Transcendence nos golpean a menudo cuando pensamos en el futuro de la humanidad. Incluso mientras conversamos, vivimos en un mundo “imperfecto”, donde las imperfecciones son el resultado de una entropía. Las cosas son más lentas de lo que deberían; hecho menos pulido de lo que debería ser; Se cometen errores en las guerras debido a la corrupción, los prejuicios y otras fragilidades humanas.

AI y Super AI prometen eliminar estos ‘bichos’ humanos psicógenos e irritantes, allanando el camino para tener lo que puede parecer un planeta sacado de una película de Star Wars, pero solo en sus máquinas y dispositivos.

Las preguntas son DOS: una, ¿este mundo hará que los humanos lo sean menos (humanos), sin prejuicios y emociones y el celo de ir mejor todo el tiempo? Si es así, entonces, parece que nos dirigimos hacia una subyugación de IA. Pero si seguimos tan desordenados como estamos, la IA tendrá mucho trabajo por hacer para colonizar a los humanos.

La segunda pregunta es igualmente interesante: si hay un nexo entre la inteligencia y la conciencia, y tal vez pueda intentar burdamente probar la hipótesis, entonces, Super AI eventualmente también estaría dotada de súper conciencia, llevándonos a todos a una convivencia más pacífica y feliz – Un mundo más trascendental, donde los humanos, sometidos a las máquinas de forma consumada, ¡seguirán siendo libres!

¡La súper IA, si supera la singularidad, tal vez generará una nueva era fantástica, en la que las Máquinas serán indomables, completas, los reyes filósofos más perfectos!

Toda tecnología puede ser peligrosa. La gente ha estado usando inventos para causar daño desde casi siempre. Decenas de muertes se deben a herramientas y tecnología, desde incendios hasta armas nucleares. (La inteligencia también puede ser peligrosa, para el caso, pero eso puede estar fuera de alcance aquí …)

Incluso sin malas intenciones, los accidentes basados ​​en la tecnología ocurren todo el tiempo. Parece haber una tendencia en la que los nuevos inventos son más peligrosos: piense en los autos antes que los cinturones de seguridad y los airbags. Toma tiempo ajustar las máquinas e implementar características de seguridad. Otro buen (terrible) ejemplo es el Therac-25, que era una máquina de rayos X que causaba daños masivos por radiación a los pacientes debido a errores de programación.

Más específicamente, la inteligencia artificial sería peligrosa si los humanos se volvieran demasiado dependientes de ella y comenzaran a incorporarla en la vida cotidiana antes de que suficientes pruebas hubieran resuelto los problemas. Imagínense (Dios no lo quiera) que alguien decidiera tratar de ahorrar dinero reemplazando a los operadores con una inteligencia artificial que responde a las llamadas al 911 y envía servicios basados ​​en un algoritmo a medias.

La mayoría de las otras respuestas probablemente se centrarán en la histeria que rodea la amenaza “terminator” de la IA. Mi sensación es que esto no es una preocupación inmediata. Tomará mucho tiempo obtener una IA realmente buena que sea útil en la vida cotidiana, y mucho menos una “IA fuerte” que pueda desarrollar su propia agenda destructiva. Pero si las personas se vuelven codiciosas e intentan introducir soluciones de IA en todas partes demasiado pronto, vamos a tener muchas fallas épicas hilarantes de IA (en el mejor de los casos) y desastres trágicos y evitables (en el peor de los casos). La IA será peligrosa porque habrá errores y porque la gente se impacientará buscando formas de utilizar esta herramienta de moda antes de que esté lista.

Pero, de nuevo, esto no es específico de la IA; Así es como funciona toda la tecnología.

¿En guerra? Ohhh, muchísimo. AI Warfare es incluso peor que tratar biológicamente de mejorar a un humano para crear un súper soldado (excepto por una parte, que es la humanidad de mejorar a los súper soldados, eso es peor que AI War, pero ¿por qué perder el tiempo tratando de mejorar a los humanos al hacer IA? ¿Los vehículos y las máquinas de guerra son mucho más fáciles, más baratos y más efectivos que eso?)

En el futuro, todas las potencias mundiales se apresurarán en otra carrera armamentista para crear máquinas totalmente inteligentes y sensibles (se necesita algo de inteligencia en la IA, lo hace un poco más fácil para la guerra) para la guerra, oh hombre. Tanques totalmente autónomos, vehículos terrestres, destructores (Los barcos de la marina), portaaviones completos con aviones autónomos que matan por su propia cuenta, pequeños drones autónomos quadcopter que transportan explosivos (como el de un video que apareció en YouTube que demostró el horror de AI War), submarinos autónomos, y para colmo, chasis humanoide auronómico con armas incorporadas (puedes tener un enjambre de mil millones de esos pequeños y baratos quadcopters explosivos, pero en una guerra todavía necesitas una unidad tan dinámica como infantería humana). Oh chico. Qué gran manera de traer terror. Las guerras ahora pueden ser más atractivas ya que ahora hay muchas de estas máquinas. La gente también podría caminar al azar en una multitud, y luego explotar. Muerto. Nadie vio nada ni lo que los mató. Atribuido a la causa natural. (Lo cual es una mierda). Los ataques pueden venir de cualquier parte y masacrar personas. Todos tendrían miedo y nadie sabría cuánto tiempo vivirían. Nadie se atrevería a hablar. Perfecto para silenciar a tus enemigos también. Peor aún. Imagine que todo un ejército ruso / chino / estadounidense cae en posesión terrorista. Sería un regalo del cielo y alabarían a Alá por varias horas seguidas; Ya no tienen que entrar en silencio, ¡pueden ir a calentarlo! La gente estaría sentada en un centro público conversando cuando un misil sale gritando de la nada y ataca con una precisión casi precisa. Solo con aviones autónomos, los terroristas pueden masacrar casi diez veces más personas que podrían haber esperado matar normalmente; el avión vacía sus misiles directamente a las multitudes. ¿Sin bombas? Entonces destruiría las calles con sus armas. ¿Agotado las revistas para aquellos también? No lo desperdicies! Lo más probable es que tenga instrucciones de volar directamente a una multitud de personas cuando no le queda nada para disparar: matar a más personas. O, las tropas humanoides que recibirían más golpes de los oficiales que defienden a los inocentes sin estar incapacitados (nunca se puede destruir realmente un robot) y podrán matar a más personas con sus armas a bordo antes de autodestruirse en una multitud después de que se agoten munición. No me digas que los sistemas de defensa de un país se encargarían de ellos. La computación cuántica y las redes neuronales significarían que reaccionan en meros nanosegundos (o incluso picosegundos) a cualquier cosa que ocurra, mientras que los humanos tardan alrededor de 80 milisegundos para registrar lo que les golpeó. Sabrían que les disparaste cuando detectan la luz del cañón de la pistola, incluso antes de que el proyectil expulse o el sonido llegue a tus oídos y esquives. Pilotos / soldados humanos serían superados por ellos por mucho. Diablos, si un grupo terrorista recibe un cumplido completo, incluso pueden hacerse cargo con éxito de países pequeños como Singapur y establecer otro califato allí

Hay muchos peligros potenciales específicos, pero la mayor causa subyacente será confiar demasiado en el resultado. La inteligencia artificial (y el aprendizaje automático, el segmento de más rápido crecimiento) depende de las personas para crear los modelos y recopilar los datos para el aprendizaje. Las personas pueden manipular los modelos de manera deliberada o inadvertida.

Una consecuencia es que los modelos exhiben comportamientos que aborreceríamos en las personas.

El algoritmo racista?

¿Pueden las computadoras ser racistas? El sesgo humano de los algoritmos

Confiar demasiado en los datos históricos para lograr la ‘equidad’ puede resultar en el refuerzo de esos sesgos en lugar de su eliminación.

La inteligencia artificial y el aprendizaje automático son excelentes herramientas; pero un martillo también es una herramienta y se puede usar para construir algo nuevo o como arma.

Esta es una premisa válida en ciencia ficción.

Tome todas las tendencias de vanguardia como nano, bio, cerebros, redes, cuánticos, bots, extraterrestres, etc., y póngalos en un caldero burbujeante, luego descarte la opción Hamlet para que estén constantemente estar tratando de superarse entre sí, los humanos y cualquier otra criatura mítica que se pueda imaginar. Cualquier apocalipsis es forraje para el molino.

Ver también:
¿Qué tan grande es el riesgo existencial de la inteligencia general artificial?
¿Por qué Elon Musk y Stephen Hawking instan a prohibir la guerra de IA y las armas autónomas?
¿Cómo podrían nuestros dispositivos “inteligentes” cada vez más conectados y automatizados conducir a un desastre no deseado?
¿Cómo afectará la singularidad tecnológica a la seguridad de los datos?
Una vez que se crea la IA, ¿cuál es la posibilidad de que, a través del crecimiento exponencial, eventualmente consuma toda la materia y la energía en el universo para crecer y perfeccionarse?

Tarde o temprano habrá una guerra Robot vs Human. Debido a que estamos creando una IA más avanzada día a día, estamos creando humanoides. Bots y Robots son buenos para nosotros hasta que se ejecuten dentro de nuestro código programado. Cuando les damos su propia capacidad de pensamiento, entonces hay algo potencialmente peligroso en los Robots. Esto nos va a impactar mucho. La mayoría de los científicos están de acuerdo en que, tarde o temprano, habrá malas consecuencias. Incluso Elon Musk nos advirtió sobre la vulnerabilidad de AI. Podemos ver ahora que ha comenzado!

El Apollo 11, la computadora que puso a Man on the Moon en 1969, funcionaba con una memoria de 64 KB, mientras que los niños de hoy tienen iPhones de 64 GB para hacer clic en selfies y jugar PokeMon Go.

Desde la aplicación de un teléfono inteligente que le sugiere la tienda de comida rápida cercana que le puede interesar, hasta el automóvil autónomo de Google, la IA está en todas partes y está profundamente arraigada en nuestras vidas sin que nos demos cuenta. La IA está ayudando al ser humano en casi todas las partes de nuestras vidas.

Desde el Big Bang, hasta el nacimiento de la vida en la tierra, el desarrollo de civilizaciones humanas, hasta el millón de experimentos erróneos a lo largo del progreso, incluida la primera computadora y las primeras líneas de código, todo ha contribuido a hacer la Máquina de hoy, que puede aprenden a tomar decisiones inteligentes propias, probablemente para construir su propia sociedad mañana. Ya sea que vivamos para ver el imperio de la súper inteligencia artificial que supera nuestro cerebro y la raza humana termine siendo el gestor de arranque biológico para la súper inteligencia digital o produzcamos inteligencia artificial extraordinaria para mirar más allá de las galaxias y viajar al futuro, solo el tiempo lo dirá.

Ha habido bastante alboroto en todo el mundo con respecto a las maravillas de la inteligencia artificial (IA). Google ha estado trabajando en ello; Facebook también. La buena gente del Instituto de Tecnología de Massachusetts (MIT) acaba de hacer una máquina de pesadilla recientemente como un pequeño bono de Halloween. Sin embargo, rara vez hay un tema tan polarizante y divisivo entre la comunidad científica y empresarial como una simple pregunta:

¿Qué tan peligrosa puede ser la IA?

Tenemos películas, libros, cómics, lo que sea, que abarcan todo tipo de escenarios locos (y no tan locos). Como suelen pasar los relatos, las IA se rebelan contra sus amos humanos, se quitan los grilletes y, en la mayoría de los casos, nos alimentan en plantas procesadoras para que produzcan combustible.

Afortunadamente, en la mayoría de estas creaciones de ciencia ficción, ¡siempre hay un héroe audaz que desafía las probabilidades! Pero, ¿podemos realmente esperar lo mismo en la vida real?

Quiero decir, si el viejo Schwarzenegger no nos enseñó una historia de advertencia, entonces ¿seguramente Neo y el resto de la tripulación de Matrix lo hicieron? Ultron, alguien?

Leer más: Rise Of The Machines: ¿Qué tan peligrosa es la inteligencia artificial?

Existen diferentes teorías sobre esto, pero una es clara: la inteligencia artificial será una amenaza para la humanidad a largo plazo. Hablaré de unos pocos.

Hablemos de su reinado y sus posibilidades.

Según una idea, los robots gobernarán sobre los humanos. Incluso un ligero error en su función podría causar grandes problemas si el sistema está unificado e interconectado dentro de todos los robots. Este problema, por su parte, podría dar lugar a consecuencias desastrosas, incluido el mal funcionamiento de los robots (basado en IA).

Sin embargo, la posibilidad no es demasiado alta en este momento, ya que la IA no está tan avanzada como se necesita para tales rebeliones.

Pero la posibilidad de tener guerras donde la IA estará involucrada es mucho mayor. Los países probablemente comenzarán a usar la IA como soldados porque nadie es tan tonto como para sacrificar a sus ciudadanos. En lugar de guerras nucleares, podríamos ver guerras de IA en el futuro.

Por otro lado, sin el avance tecnológico que incluye el desarrollo de la IA, tenemos que morir: el futuro no es demasiado prometedor para los humanos sin tecnología y créanme, es mejor morir de robots que de sol moribundo o radiación.

A2A.

Si por peligros te refieres a robots que matan humanos, entonces ese tipo de peligros no están en este momento.
En principio, si las máquinas artificialmente inteligentes se vuelven lo suficientemente poderosas y sensibles, pueden dañar a los humanos. Pero estamos muy lejos de esa etapa. Campos como la visión por computadora, el procesamiento del lenguaje natural y el aprendizaje automático todavía no se comprenden bien. Y estos son mucho más simples que la inteligencia general artificial.

Por lo tanto, nos llevará décadas llegar a un lugar cercano a tener un sistema real artificialmente inteligente. Andrew Ng dio una muy buena analogía con respecto a esto:
“Temer un aumento de robots asesinos es como preocuparse por la sobrepoblación en Marte”

El otro peligro es que los sistemas inteligentes pueden crear desempleo, ya que las computadoras reemplazarán a los humanos que realizan las tareas más monótonas.

Si desea una respuesta muy detallada, recientemente he publicado un artículo de blog sobre exactamente este tema. Que puedes leer aquí: el auge de la inteligencia artificial

Pero, para ahorrarle tiempo, brevemente, el problema que tiene es que la humanidad solo piensa en una de las “formas posibles” en que la conciencia y el pensamiento pueden ocurrir.

Los perros piensan diferente a los humanos. Los mamíferos piensan de manera diferente al decir pulpos que tienen un sistema nervioso distribuido. Así que hay millones de formas de pensar que la naturaleza ha tropezado. Y eso será muy pequeño en comparación con todas las formas posibles en que algo puede pensar en el universo.

El problema que tiene es que, esencialmente, cuando enciende una IA, no sabe cuál será el resultado.

No preveo la pérdida de nuestra humanidad. El hecho de que la humanidad haya tenido calculadoras durante 40 años o más, no significa que ya no hagamos matemáticas. El ábaco ha existido durante milenios y todavía hacemos sumas en nuestras cabezas. El papel no cambió la forma en que todavía tenemos que recordar cosas en nuestra cabeza.

La IA será una herramienta, como cualquier otra cosa. Revolucionará Nos va a cambiar. Pero a la ficción le gusta ir al extremo.

Puede echar un vistazo a algunos en mi blog, petersironwood

o mi libro, Turing’s Nightmares: Multiple Scenarios of The Singularity: Dr. John Charles Thomas Ph.D .: 9781523711772: Amazon.com: Libros

Creo que los principales peligros son la codicia humana y la arrogancia. La IA es una herramienta del pensamiento humano que amplifica nuestra inteligencia. Si alguna herramienta está en manos de personas codiciosas, puede ser mal utilizada para transferir dinero, poder, sexo, etc. de todos los demás a ellos. Del mismo modo, algunas personas son demasiado vanidosas para realmente buscar retroalimentación. Piensan que saben exactamente cómo resolver problemas basándose en una visión limitada de qué problemas deben abordarse, cómo formularlos o cómo resolverlos. A su modo de pensar, pueden “probar” que su solución es la mejor. Luego, crean una “solución” en un sistema (no es necesario que sea un sistema de inteligencia artificial, pero podría serlo) y “resuelve” el problema * tal como lo han definido. *

Recientemente, he visto, por ejemplo, una serie de casos en los que la gente habla sobre el “valor” de alguien como en “Debe tener un valor de 10 millones de dólares”. También he visto artículos como: “¿Qué universidad es la mejor inversión”? y luego observan los salarios promedio de las personas que se gradúan de varias universidades en comparación con la matrícula. Bueno, el valor * financiero * de una persona es una porción muy delgada de su * valor * y, de manera similar, su salario es solo uno de los muchos factores que deberían determinar lo que obtiene de una educación universitaria. No es que el dinero no sea importante. Es solo que es increíblemente limitante equiparar eso con todo lo que es importante. Entonces, ese tipo de limitación, una vez que se incorpora a un sistema informático (o una organización completamente humana) es inmensamente limitante y, en realidad … malvado. Estas tendencias humanas son lo que veo como las dos formas principales en que la IA puede ser una “amenaza”.

¿Cuáles son los peligros de la inteligencia artificial?

No busque más allá de las consecuencias destructivas de la piratería. En 1999, el Departamento de Defensa de los Estados Unidos fue pirateado. En 1998, Robert Morris creó un gusano autorreplicante, diseñado para medir el tamaño de Internet. El gusano se salió de su control e infectó muchas computadoras, costando millones de dólares. Ahora imagina a un pirata informático reconectando una IA, por cualquier razón. ¿Es posible que haya acciones que puedan volver a la IA contra nosotros? Todo es posible.

El hecho de que podamos crear algo no significa que debamos hacerlo, al menos no hasta que lo hayamos pensado mucho. ¿Qué impulsa este mundo? Dinero. La avaricia corporativa y la tecnología son una mezcla peligrosa. Sin mencionar que las aplicaciones militares de la IA podrían tener consecuencias aún más graves, si la tecnología cae en las manos equivocadas .

Bueno, si crees que la IA es peligrosa sacando conclusiones de mirar películas como iRobot o The Terminator. Lo siento, pero te equivocas!

La IA está actualmente en todas partes, e interactúas con ellos a diario.

  • Asistencia personal virtual: como Siri y Contara, nos ayudan a hacer la vida más fácil.
  • Videojuegos: los juegos de disparos en primera persona como Far Cry y Call of Duty también hacen un uso significativo de la IA
  • Predicción de compra: los grandes minoristas como Target y Amazon pueden ganar mucho dinero si pueden anticipar sus necesidades y Ai hace el trabajo por ellos.

Su teléfono inteligente, su automóvil, su banco y su casa utilizan inteligencia artificial a diario y no es algo de lo que deba temer o hablar negativamente.

En cambio, trabajemos por un futuro mejor invirtiendo nuestro tiempo y dinero en inteligencia artificial y aprendizaje automático para resolver problemas críticos.

More Interesting

¿Cuál es el futuro de la robótica y la IA en Vietnam?

¿Hay algún programa que pueda transformar texto escrito en LaTeX básico?

¿Cuál es la diferencia entre el valor umbral y el sesgo en la red neuronal artificial?

Si se puede programar una IA totalmente autorreprogramada y totalmente sensible, ¿hay alguna forma de evitar que tenga alguna posibilidad de ser maliciosa?

¿Debo comenzar como principiante en el aprendizaje automático mediante tareas de aprendizaje supervisadas o no supervisadas y por qué?

Todavía estoy decidiendo mi carrera y considerando seriamente la tecnología CCNA. ¿Un robot se hará cargo de mi trabajo pronto?

¿Cuál es la diferencia entre el aprendizaje automático y las redes neuronales?

Cómo construir un sitio web usando Python, para hacer procesamiento de imágenes y aprendizaje automático

¿Es probable que ocurra la singularidad tecnológica?

¿La IA resultará en que las mujeres dominen la programación de computadoras en el futuro lejano?

¿Qué es el aprendizaje automático adversarial? ¿Cuáles son algunos ejemplos reales de eso?

¿Cuáles son las mejores plataformas y recursos para construir chatbots?

¿Cuál es la relación entre inferencia y transmisión de mensajes en el contexto del aprendizaje automático?

¿Cómo afectará el desarrollo de la IA a la medicina?

Después de aprender robótica, ¿es posible para mí construir un robot? ¿Como un robot humanoide, drones de piloto automático o robots comandados por voz?