¿Deberíamos tener miedo de lo que podría suceder en el campo de la inteligencia artificial?

¿Deberíamos tener miedo de algo que no entendemos completamente cómo puede evolucionar o ser utilizado? Parcialmente sí, debemos ser cautelosos al respecto y ser conscientes de que puede ser mal utilizado por error o con un mal propósito. Pero esto se aplica a casi cualquier cosa.

En el siglo XX descubrimos reacciones radiactivas que pueden conducir a un arma tan poderosa que tuvimos que controlar qué país puede tenerlas (básicamente quién las recibió antes de instalar el control) y cuántas pueden tener (tratado de no proliferación). También conducen a situaciones bastante peligrosas, como lo que sucedió en Tchernobyl, donde su uso no letal todavía conduce a una reacción descontrolada. Aún así, la investigación en este campo nunca se detuvo y estamos mejor de eso: una mejor comprensión implica estar mejor preparado en caso de que ocurra cualquiera de los anteriores.

La IA también es un campo interesante en esa perspectiva. Ninguno de los investigadores con los que interactué seriamente y considero que los pares están buscando la mejor IA con un solo enfoque que resuelva todos los problemas. Su trabajo se extendió a través de un amplio espectro que incluye:

  • profundizando la comprensión de cómo funciona el cerebro (conexionistas, …). Estos a menudo emulan la forma en que funcionan las neuronas e intentan ver si pueden explicar alguna parte de su capacidad de aprender, inferir, … También pueden ver el problema en un nivel superior e intentar ver conceptos más abstractos como corto plazo vs memoria a largo plazo, …
  • profundizar la comprensión sobre cómo funciona el razonamiento y cómo se puede mejorar de manera genérica, o en algún momento específico de un dominio como el razonamiento geométrico. Esto implica encontrar qué clases de problemas existen y si la estructura del modelo puede ayudar a informar a la heurística a elegir, hay una manera de mantener la integridad mientras se reduce la búsqueda, cómo evitar los mínimos locales, …
  • profundizar la comprensión de los patrones de aprendizaje de manera eficiente: eficientemente aquí a menudo significa con la menor información inicial posible, pero también poder descartar el patrón obvio para encontrar los más complejos …
  • más relacionada con la robótica es la relación entre inteligencia y encarnación / situacionalidad. ¿Cuál es el impacto de la encarnación en la inteligencia, cómo hacer frente a la mayoría de las soluciones de arriba son a menudo muy complejas pero necesitan ejecutarse en un mundo en constante evolución, es necesaria la inferencia de cualquier forma o es suficiente una reacción bien informada? …

Estoy seguro de que algunos otros dominios se pueden poner aquí, pero estos son lo suficientemente genéricos como para cubrir la mayor parte de lo que se explora actualmente en el campo. Verá que, con todo esto, puedo garantizarle que puede ser mal utilizado, ya sea consciente o erróneamente, o en el futuro cercano. Solo necesita pensarlo un poco y ver cómo una aplicación prematura / desinformada del mismo en un dominio sensible puede tener un impacto dramático o cómo se puede usar como un arma potencial o al menos ayuda a mejorar un arma (la guía de misiles utiliza planificación de trayectoria bastante avanzada, por ejemplo).

La cosa está asustada y poner la cabeza en el suelo no detendrá a otras personas para explorar estos campos de todos modos. Y si usted es parte del equipo que prohibió la exploración de este campo, es mejor que espere que el otro equipo haya hecho un buen trabajo sin ninguna intención maliciosa.

En resumen, la IA es como muchos campos que vimos en el pasado: se usará para un mal propósito, puede tener efectos secundarios inesperados que, si no se manejan con cuidado, pueden provocar bajas potencialmente enormes. Pero explorarlo más a fondo es necesario para garantizar que estos dos posibles resultados no sean tan destructivos como lo serían de otro modo.

Hay muchas charlas TED y algunos análisis sobre lo que podría suceder si creamos inteligencia artificial que sea cualitativamente más inteligente que los humanos. Este blog compila estas charlas TED y otros blogs útiles: ArtificialSuperIntelligence. La mayoría de las conversaciones sugieren que al menos deberíamos ser cautelosos, si no nos preocupamos por la inteligencia artificial. ¡Espero eso ayude!

Oh, Dios mío … ¿es esto de Elon Musk? Mira, un cuchillo se puede usar para matar o alimentar a alguien. La IA se puede construir para mejorar tu vida y matarte.

Si prohibimos la IA en el peor de los casos, también deberíamos prohibir los cuchillos.

El creador de los sistemas de IA tendrá el control. Claro, el grupo de inteligencia artificial de Al Qaeda podría estar menos preocupado por construir una caja fuerte a prueba de fallas, pero seamos realistas, ninguna IA será el fin de la humanidad. Ningún grupo de ingenieros permitirá colectivamente crear una criatura inteligente súper inteligente sin un interruptor de apagado. Si lo crees, eres paranoico y no mereces estar en una discusión sobre el futuro de la IA.

El problema con la visión apocalíptica es que comienza con dos supuestos infundados. La primera es que la inteligencia en sí misma es peligrosa, y tan pronto como desarrollamos máquinas con un coeficiente intelectual más alto que las personas en general, estamos inmediatamente amenazados. El segundo es que el impulso humano universal para controlar y dominar de manera sectaria será adoptado automáticamente por la IA “avanzada”. Este tipo de evolución solo ocurre en un período de tiempo prolongado dentro de un entorno violento.

Esta mezcla peligrosa, particularmente humana, de hecho no sería suficiente para causar el armagedón, porque estas máquinas independientes y altamente inteligentes tendrían que organizarse y no dividirse en facciones. Al comienzo de este cambio potencial, uno supondría que la mayoría de las máquinas seguirían estando bajo la influencia de los humanos y se darían cuenta de este intento de evento de organización.

Las unidades individuales podrían programarse para causar estragos considerables: destruir redes eléctricas, crear virus, tanto reales como informáticos, y detonar bombas nucleares. Pero esto sería un reflejo del creador humano, y solo refleja el hecho de que seguimos construyendo armas cada vez más peligrosas en nuestras continuas misiones humanas.

Incluso este escenario no significa el fin de la humanidad.

Tengo miedo de que las personas aprendan a confiar en IA / algoritmos más de lo que confían en las personas, prematuramente.

Solía ​​confiar en que, en cualquier momento en que X sea que las IA realmente vencen a las personas en el rendimiento, el momento en que las personas confían / ​​perciben que las IA lo harán sería X + 5 (5 es un número positivo arbitrario que elegí). Pero el punto es que AI / algoritmos tendrían que funcionar primero, luego obtener crédito por ello más tarde. No me encantó ese día, pero si la máquina objetivamente fuera mejor, también hay un gran potencial positivo.

De la forma en que va ahora, será X – 5. Los IA / algoritmos obtendrían crédito por la superioridad, incluso antes del rendimiento.

Si pensabas que el poder corrompe a las personas, creo que también encontrarás que el poder corrompe las IA. O al menos los propietarios / creadores de IA, pero sospecho que incluso las IA.

Darles el poder antes del rendimiento no es bueno, ya sea para máquinas o para personas. Además, hemos tenido un milenio para desarrollar sistemas para responsabilizar a las personas, pero no tenemos forma de exigir cuentas a las IA.

¿Dónde está la rama de la ley que se ocupa de demandar IA o algoritmos? ¿O votarlos fuera de la oficina? Qué es un buen escándalo de IA, si no tienen relaciones sexuales (los escándalos sexuales a menudo son pretextos para derribar a las personas en el poder que no les gustan por otras razones). ¿Cómo es la política de IA / algoritmo? ¿Cómo se realiza un examen cruzado de un algoritmo? ¿Cómo lo encarcelas? Hay un conjunto completo de sistemas que deben surgir, para los cuales puede tener tiempo en el mundo X + 5, pero no en el mundo X-5.

Desafortunadamente, las personas a la vanguardia de la inteligencia artificial tienden a pensar que estas preguntas son irrelevantes. Están imaginando un futuro de IA para superar estas preguntas. Pero para mí eso es demasiado utópico. Las IA traerán algo bueno, pero lo malo no desaparecerá. Estoy bastante seguro, descubriremos que el poder también corrompe las IA.

Sí, pero no perseguir la IA va en contra de los conceptos básicos de la naturaleza humana, en Alien resurrection los científicos malvados estaban felices cuando su creación se rompió y comenzó a comer personas, y estaba aún más orgulloso cuando el alienígena comenzó a comerlo. Era su bebé, y eso es más importante que la supervivencia de los científicos, era hermoso y atractivo, no importa cuán peligroso sea.

Podemos decir que tenemos miedo de la IA, pero al final del día, no haremos nada al respecto porque realmente queremos crear un superhumano rudo. Los informáticos adorarán tanto su IA que no les importará realmente cuáles son las consecuencias.

Claro, crearemos medidas de seguridad, pero los informáticos y la raza humana amarán tanto la IA que nunca implementaremos un dispositivo de seguridad que pueda impedir nuestro amor por crear una mejor IA.

Absolutamente. Es la mayor amenaza para la humanidad. El problema con el argumento de Martin es que la IA no necesita seguir las leyes humanas simplistas de la economía. Las personas inteligentes siempre saben cómo romper las reglas humanas tal como están.
Una IA súper inteligente no tendría que seguir las “leyes” actuales de nada, tal vez incluso de la física y la realidad tal como la conocemos.

Editar: Muy bien, me divertí mucho. Gracias a Martin por ser un buen deporte.

Un poco. Pero el verdadero peligro radica en la inteligencia humana. Tuvimos bastantes fallos durante el siglo XX. Hitler, Stalin, etc. Es solo cuestión de tiempo antes de que otro de estos maníacos homicidas nos mate o esclavice a todos. La gente debe pensar con mucho cuidado antes de tener hijos. Siempre existe la posibilidad de que estés a punto de criar al niño que nos destruye a todos.

No.

Ver también: la respuesta de Martin Thoma a ¿Cuál sería el incentivo económico para producir una IA peligrosa?

Creo que deberíamos estar muy preocupados por convertir nuestro pensamiento ético en máquinas que puedan tomar decisiones importantes en el mundo real … ¡espera, ya lo estamos haciendo!

Ver también

  • Ética informática
  • Ética de la máquina
  • Ética del robot – artículos