Cómo explicar los peligros de la inteligencia artificial a mis amigos no técnicos

Me sorprendería si no son conscientes de ello en primer lugar. Gran parte de nuestra cultura pop desde los años 70 presenta los peligros de la IA y refleja los temores presentados por algunos de sus recientes proclamadores muy públicos.

Hawking dijo claramente: “Las formas primitivas de inteligencia artificial que ya tenemos han demostrado ser muy útiles, pero creo que el desarrollo de la inteligencia artificial completa podría significar el final de la raza humana” (tomado de aquí, Hawking Sounds Alarm Over AI’s End Game). Ahora, ¿dónde volví a ver esa “previsión sorprendente y perspicaz” sobre la IA o los robots? ¿No era el tema central del futuro en Terminator? ¿Está muy lejos de lo que yo, Robot (y muchas novelas de Asimov)? ¿Podría ser similar a la forma en que HAL se vuelve pícaro? ¿O lo vi en The Matrix?

Sí, la cultura pop y, más precisamente, la ciencia ficción se desborda con esta idea general de una IA que se hace cargo, como lo hicieron los humanos con todas las especies concurrentes eventualmente. Bueno, no es solo IA y se relaciona con una idea mucho más antigua. La historia de Frankenstein seguía conceptos similares, aunque el monstruo no trató de tomar otros, mientras trataba con lo que era la alta tecnología en ese entonces (publicado en 1818) y se relacionaba con la vivisección y lo que pronto vendría en cirugía. El tema general es simple: “estás tratando de jugar como un Dios y pagarás las consecuencias” y está fuertemente arraigado en la cultura judeocristiana. Lo que a su vez explica por qué todas las historias que mencioné anteriormente son de la parte occidental del mundo. Es un concepto que es mucho más difícil de encontrar en la cultura oriental y sus medios. Así que sí, aquí va el gran temor de Hawking, él puede sentirse así porque nació en esta parte del planeta …

El verdadero peligro de la IA; y por IA quiero decir que lo que existe ahora o que es resonable para algunos estará presente pronto, es decir, no me refiero a ninguna cosa sensible que conspire contra nosotros en nuestras espaldas, es mucho más mundano y sutil. El peligro no es tanto lo que podría hacer sin nuestro control, sino más bien cómo permite a sus usuarios hacer cosas que están más allá de su alcance y plantea problemas. En resumen, prefiero ver lo que los autores de ciencia ficción como Orwell y Huxley produjeron alrededor de los años 50 que lo que los autores de los 70 (muchas historias mencionadas anteriormente son de este primer período en que la IA comenzó a ser vista como el próximo “gran éxito”). cosa “después de que no pudo demostrar lo que prometió).

Veamos la forma en que las técnicas de inteligencia artificial se usan hoy en día para rastrear su actividad y aprovechar la información que no le gustaría (la base de los anuncios web de Google, Facebook o la mayoría de las redes sociales, también la base de Amazon, Netflix, …), lo que harías en el futuro cercano (base para google ahora, pero también está esta historia de Target Cómo Target descubrió que una adolescente estaba embarazada antes que su padre), …
En resumen, la IA puede ayudar a adaptar un perfil muy personal de usted con sus hábitos, gustos y también lo relaciona con otras personas similares para “predecir” un comportamiento futuro (tenga en cuenta que “predecir” es solo con un nivel aproximado de confianza, no hay la presciencia aquí y todos los que piensan lo contrario deberían seguir adelante y comprender que los sistemas caóticos no pueden predecirse por completo a menos que conozca todas sus perturbaciones incluso menores, lo que está lejos del caso aquí). Este enlace vuelve a muchos problemas en términos de “privacidad” y protección de su vida. De hecho, leí recientemente un artículo (creo que estaba en una técnica pero no pude volver a multarlo) sobre cómo un científico estaba demostrando que incluso cuando se eliminaba de la información personal, podía identificarse muy rápidamente con 80% a 90 Porcentaje de precisión de las transacciones bancarias relacionadas con una sola persona. Pudo tomar un conjunto de operaciones bancarias sin ninguna información sobre la cuenta utilizada o el usuario, solo dónde estaba y qué, y predecir con una precisión impresionante que fue una persona la que lo hizo (de hecho, todavía tenía resultados impresionantes incluso sin precio exacto como recuerdo).

Esto es impresionante y se puede utilizar de manera asombrosa, tanto para el usuario como para identificar valores atípicos y alertar al usuario cuando eso ocurra, para predecir sus gustos y hábitos con el fin de servirlo mejor, a aquellos muy maliciosos o de “pendiente resbaladiza”: crear identidad ¿Es aún más difícil detectar el robo fingiendo su comportamiento típico o, por el contrario, comenzar a identificar cómo manipular mejor a los clientes potenciales hacia un determinado producto de forma personalizada?
Estoy seguro de que uno puede impulsar estas ideas aún más, tanto en positivo como en negativo.

El otro peligro es que hasta qué punto la sociedad confiaría repentinamente en estos modelos predictivos que, en su extremo, conduciría a algo similar al escenario de “informe minoritario”. No estoy diciendo que la IA pueda conducir a eso, pero más la percepción de la población podría conducir a eso. Es fácil considerar que el 90% de precisión es lo suficientemente alto, mientras se olvida que el 10% sigue siendo un margen de error significativo.

Lo mismo ocurre con la aparición de nuevas posibilidades de la robótica. Los autos sin conductor, o al menos la asistencia para conducir, ocurrirán eventualmente. Un problema que se aprovechó y era bien conocido incluso antes de que Google empujara esos automóviles fue el problema de la responsabilidad. Pasaré por el escenario de ejemplo que es simplemente extremo por el bien (la idea era tener un accidente inevitable que condujera a la muerte del pasajero o de alguien afuera: es bastante raro llegar a una situación en la que el accidente es tanto inevitable como con resultados tan extremos y, a menudo, la decisión de evitar tales opciones se puede tomar con mucha anticipación), aún así el problema es delicado: ya que el sistema puede tomar más y más decisiones por sí mismo y es más difícil para su diseñador Para predecir todos los resultados posibles, es muy difícil identificar quién es responsable cuando sucede algo drástico. El diseñador no puede predecir razonablemente todas las elecciones que podría hacer el sistema, el pasajero ya no tiene el control tampoco. Entonces, ¿quién tiene la culpa cuando sucede algo malo? ¿Podemos hacer sistemas que eviten tales malos resultados o al menos señalar un responsable claro cuando suceden?

Estas preguntas no son realmente nuevas, pero se han elevado una vez más a nuevas alturas y deben abordarse legal o tecnológicamente. Son problemas tanto sociales como científicos y deben tenerse en cuenta desde ambos puntos de vista.

La esencia de esto es que muchos peligros de la IA no se relacionan con la naturaleza de la IA en sí misma (lo que existe o lo que algunas personas piensan que es / será), sino más bien en el simple hecho clásico de que la IA es una nueva herramienta poderosa (y Insisto en la herramienta). Al igual que muchas herramientas anteriores, especialmente las poderosas, como las máquinas, la energía nuclear, … su peligro está principalmente en cómo las usamos. Pueden hacer lo mejor, pero lo mejor a menudo está muy cerca de lo peor. Luego viene el peligro de cómo nuestra sociedad y / o las personas que lo usan directamente, pero su confianza en él. La confianza ciega en alguna nueva tecnología siempre conduce a un uso erróneo y a un escenario muy malo: quiero decir que el “chocolate con radio” se vendió en Alemania por su poder de rejuvenecimiento y muchos otros ejemplos se pueden encontrar en toda Europa y, supongo, en América del Norte. con la colocación de plantas de energía nuclear sin suficiente seguridad o esfuerzo para mantenerla que conduzca a un escenario atroz con el muy conocido Tchernobyl entre muchos.

Lo mismo ocurre con la tecnología de la información y el aumento de las técnicas de inteligencia artificial, si las personas intentan seguirlas a ciegas o no tienen en cuenta la seguridad, podrían provocar tremendos problemas sociales. Esto se considera especialmente que, de hecho, nuestras sociedades modernas ya dependen en gran medida de las computadoras y las redes. Incluso si excluye el “Escenario de la IA que se volvió pícaro” de ciencia ficción (que por cierto nadie me ha dado una motivación válida hasta ahora para que esa IA se vuelva pícara), la IA sigue siendo una pieza de software con sus límites y, por lo tanto, puede cometer errores también. Si no se otorga un control adicional, una protección típica como la que tenemos para los humanos en un escenario crítico, entonces el error de IA resultará en un escenario dramático potencial: puede imaginar muchos extremos como ese sin problemas y muchas de las historias de ciencia ficción Mencioné que se basan en esta premisa. Más razonablemente, aunque debería suceder de la siguiente manera:

  1. la empresa / gobierno X comienza a usar cada vez más agresivamente la técnica de IA Y y, sin darse cuenta, abusa de la ventaja que proporciona.
  2. Este abuso se convierte en una amenaza para el cliente / población / otros países que de repente se dan cuenta de que amenazan su derecho a hacer libremente Z
  3. Esto se plantea como un problema social y la validez del derecho de hacer Z se discute junto con la forma en que la técnica de IA Y realmente presenta un riesgo
  4. Si la historia sirve, entonces la “técnica AI Y”, o más precisamente el “uso de Y cuando amenaza a Z”, se regula junto con una posible redefinición de cuánto de “Z” es un derecho

A menudo, “Z” o la forma en que “Y amenaza Z” son bastante menores en comparación con lo que podría ser. La tecnología y la investigación avanzan paso a paso y especialmente cuando se trata de un problema tan grande como el problema general de la IA. Este aspecto incremental también sirve para permitir, cuando se trata de tecnología y productos, que la sociedad se adapte e interprete cómo algunos usos de esta nueva tecnología pueden ser amenazantes para la sociedad. Luego se adaptan a él (por ejemplo, la privacidad cambió el significado y / o la relevancia en una o 2 generaciones gracias a ese aumento rápido de Internet y las redes sociales) o restringen el uso de esta nueva tecnología en dominios específicos (ya sea legalmente como leyes de proliferación de armas nucleares o tecnológicamente asegurando que permanezcan las salvaguardas seguras).

Entonces, al final, puedes decirle a tu amigo que el peligro de IA es similar al peligro de un cuchillo de cocina. Si lo usas para cocinar y sabes que puede lastimarte, deberías estar bien, si apuñalas estúpidamente tu mano o apuñalas maliciosamente a tu esposa, entonces es algo muy peligroso que puede matar. Dios, también puede lastimarte porque se sintió desde la mesa durante un terremoto o lo que sea.
Pero una vez más, ¿puedes culpar al cuchillo, o al tipo que creó tu cuchillo de cocina, en cualquiera de esos casos?

Si es solo por el bien de la comprensión, muéstrele a su amigo I, Robot (película de 2004) y lo que sucedería si las computadoras no obedecen las leyes impuestas por los humanos. Diles que es solo una predicción pero no un hecho.

Juega un juego de disparos con él e instala un robot de auto-puntería a tu lado. Si comienza a llorar, puedes explicarle exactamente por qué eres capaz de hacerlo y por qué cualquier IA también lo haría.

Luego hazle imaginar cuánto daño podría hacer un robot deshonesto.

Es muy fácil, no hay ninguno. No ha habido ningún progreso tangible en IA en 50 años. Parece que las únicas personas que están fascinadas por la IA no tienen mucha NI.

Muéstrales la secuencia de aprendiz de brujo de Fantasia de Disney:

En serio, creo que esto realmente expresa bien los problemas.

Ahora mismo. Realmente no tenemos idea de cómo sería o actuaría una IA súper inteligente. Hasta ahora, todo lo que hemos podido hacer es crear un software que haga las cosas que le decimos.

Ninguna computadora construida hoy ha tenido un pensamiento original o ha sido creativa.

Ahora podemos establecer una serie de parámetros, y las computadoras pueden combinar patrones o ser aleatorios dentro de esos parámetros, pero eso está muy lejos del pensamiento independiente.

Parafraseando una idea de Star Trek, no podemos programar una computadora para que sea más inteligente que nosotros. De hecho, ni siquiera podemos programar una computadora para que sea tan inteligente como nosotros.

Una vez que decidas aventurarte en la ciencia ficción, podrías lanzarle a tu amigo una copia de Frankenstein o ver 2001 o I, Robot.

¿Creo que es posible? Posiblemente, pero en este punto, es puramente especulativo.


Para más información como esta, sígueme a mí y a mi blog Science and Tech .

Dígale que no debe preocuparse, ya que eso nunca sucederá durante nuestras vidas y los medios de comunicación simplemente se exageran.

More Interesting

¿Cuáles son los buenos sitios web y foros de inteligencia artificial?

¿Cuáles son algunos libros sobre aprendizaje automático e inteligencia artificial para un laico?

Cómo atacar un problema de aprendizaje automático con una gran cantidad de funciones

¿Cuáles son algunos artículos disponibles sobre conexiones entre IA y cálculo lambda / teoría de tipos o razonamiento automatizado?

¿La inteligencia artificial (potencial ilimitado) es inevitable o imposible?

¿Cómo funcionan los chatbots?

¿Sería útil para un ingeniero de verificación de diseño de chips aprender aprendizaje automático / IA?

¿Cuál es la forma más rentable de producir Inteligencia general artificial (AGI o IA general)?

¿Cómo funciona el algoritmo de ciencia de datos / aprendizaje automático de Piedmont Media para clasificar guiones de películas?

¿Tendrá algún derecho un robot autoconciente artificialmente inteligente?

¿Cuáles son algunas de las mejores preguntas y respuestas sobre inteligencia artificial en Quora?

¿Cuáles son las principales razones por las que todavía no existe una superinteligencia artificial?

¿Cuáles son algunos ejemplos de 'startups de aprendizaje automático' orientadas al consumidor?

¿Las compañías de tecnología que promueven la IA como el camino a seguir también tienen la obligación de volver a capacitar a nuestra fuerza laboral para hacer frente a la próxima interrupción del trabajo?

¿Para qué sirve la extracción de características cuando puedo pasar una imagen completa a través de un clasificador de aprendizaje automático?