¿Cuál es el lado oscuro de la inteligencia artificial?

Como para cualquier herramienta, porque la IA es solo una herramienta. El lado oscuro de esto es cómo la gente lo usa.

Tomar una energía nuclear paralela clásica se puede usar para buenas acciones (plantas de energía, uso para imágenes médicas o incluso cura) o perspectivas destructivas (bueno, esta está bien documentada).

Me mantendré alejado del escenario fatal de los medios populares y la ciencia ficción como tanto (el surgimiento de las máquinas, …) aunque no es imposible, es un escenario que requeriría muchos errores de nuestra parte (tanto en términos de investigación como en decisiones sociales) ) que se produzca.

Un aspecto más importante e inmediato a considerar es cómo las tecnologías actuales se pueden usar en un aspecto negativo (ninguno de los cuales está cerca de AGI y todos permanecen en la perspectiva donde cada instancia se dedica a un dominio de competencia específico, aunque general): una voz el asistente solo puede responder a las órdenes vocales, un auto sin conductor apenas puede ir de una latitud, longitud a otra dada, …)

Muchos escenarios pueden conducir a riesgos potenciales, incluso si los actores no lo hacen de manera maliciosa (de la misma manera que puedo lastimarme gravemente con un cuchillo a pesar de que no tengo la intención de suicidarme). Una simple es el riesgo de dar más autonomía al sistema junto con más potencia. Esto se puede ilustrar con 2 ejemplos muy diferentes:

  • En defensa cuando un dron está armado y ya no se controla remotamente, sino que depende de la detección y la actuación autónomas.
  • Autos sin conductor que necesitan identificar obstáculos junto con una política de seguridad para evitar dicho obstáculo mientras se preserva la seguridad de sus pasajeros.

En ambos casos surgen muchas preguntas. La percepción es un problema, ¿cómo se distingue una amenaza real de un falso positivo, un terrorista con una pistola frente a un niño con un juguete, una persona que cruza la calle frente a un cartón en forma de humano? La decisión también se convierte en un problema: cómo tomar una decisión que minimice los riesgos para todos y, al mismo tiempo, garantice una función mínima (después de todo, un automóvil “seguro” muy seguro puede ser uno que se niegue a moverse, pero de nuevo cuál sería el punto ) ¿Y finalmente quién es responsable cuando las cosas saldrán mal (porque nada perfecto siempre habrá un escenario marginal que saldrá mal)?

Todos esos problemas no son exclusivos del robot; se aplican también a sistemas que de repente procesan una gran cantidad de datos personales y cómo dicho procesamiento podría conducir a decisiones con un sesgo hacia una determinada población, o exponer a otras personas más de sus datos personales de lo que realmente querían. Dicha información podría utilizarse (nuevamente, ya sea maliciosamente o en algún momento por error) para influir en estas personas en direcciones a las que inicialmente no se adhirieron.

Ninguno de estos problemas es realmente nuevo para la IA (un automóvil simple tenía que abordar mecánicamente los mismos problemas que describo para un automóvil autónomo, es por eso que hoy en día los automóviles tienen valores tanto pasivos como activos, como airbag, pero también están construidos con menos “robustez” porque pueden absorber el impacto, …) pero es obvio que el uso de la IA debe verse en esta perspectiva y el principio de precaución permanece: no necesita demasiada potencia para una tecnología hasta que comprenda cómo los beneficios sobrepasan los riesgos. E incluso después de esto, asegúrese de que exista una salvaguarda para limitar el impacto de dicho riesgo: esa salvaguarda puede variar desde garantizar que un humano esté al tanto de las decisiones delicadas, agregando valores de nivel inferior y control seguro para garantizar que si la IA se desvía de su función inicial, al menos, eso lo impedirá.

También es importante abordar algunas limitaciones a ese respecto de diversas técnicas. Las redes neuronales, por ejemplo, son muy opacas. A menudo es difícil identificar claramente lo que aprendió un NN y cómo lo hizo. Esto hace que sea difícil identificar posibles fallas de la red aprendida o más cómo corregir un problema detectado. La investigación se realiza en esta dirección, pero el problema persiste y puede evitar prevenir adecuadamente algunos de los problemas que mencioné anteriormente. Los enfoques basados ​​en la heurística están lejos de ser perfectos tampoco, aunque mantienen intrínsecamente su árbol de búsqueda que puede usarse para tratar de explicar cómo llegaron a una conclusión, dicho análisis está lejos de ser simple y, además, a menudo es difícil, incluso para los expertos, claramente Identifique cómo un simple cambio en el modelo o en la heurística impactará la decisión general. Por ejemplo, dar prioridad a salvar al pasajero puede resultar en la consecuencia involuntaria de tener un automóvil que siempre preferirá correr con otras personas que solo tratar de frenar (aunque este ejemplo siempre me molesta, ya que no llega a la opción binaria matar pasajero vs matar espectador si no tomó muchas malas decisiones antes de conducirlo a una conducción imprudente) y encontrar esto requeriría un análisis profundo si es posible.

La idea general es simple. Cada vez que renuncies y delegues el poder de decisión a otra entidad (si se trata de otra persona, una institución o una máquina), debes asegurarte de que esto no tenga un impacto negativo (o al menos que lo positivo sobreponga en gran medida el riesgo). El mayor riesgo de la IA sería su uso ciego con la confianza engañosa de que todo estará bien.

En cambio, tenemos que hacer esto paso a paso. Nunca dé más poder y autonomía a la vez, en su lugar, intente en una dirección (digamos más autonomía pero de manera controlada) y avance el siguiente paso solo cuando sepamos que es seguro (diga una decisión más directa después de haber puesto las garantías adecuadas alrededor del sistema más autónomo). Y todo esto solo es posible si tanto el tecnólogo como los actores de la sociedad juegan un papel en lo que se puede y no se puede hacer con la IA.

Los humanos son notoriamente malos para predecir el futuro cuando hay circuitos de retroalimentación positiva. En el caso de la WWW, por ejemplo, más usuarios generan más contenidos (sitios web), lo que aumenta la utilidad de la web, lo que atrae a más usuarios. Nadie podía predecir el Internet de hoy.

Cuando aplique la IA en la toma de decisiones con impacto financiero, obtendrá un ciclo de retroalimentación positiva similar: la IA conduce a mejores decisiones que conducen a más dinero. Con más dinero, puedes invertir más para mejorar tu IA.

Ya hoy esto sucede en los pisos de negociación “algorítmicos” de todos los bancos principales, en el “análisis de sentimientos”, etc. En el futuro, General Electrics y Procter & Gambles de este mundo podrán mejorar sus decisiones a través de la IA, lo que conducirá a una mayor rendimiento y más dinero para competir con las IA de las otras compañías. Este es un juego de “el ganador se lo lleva todo” con un montón de dinero real y sin forma de desconectar el sistema legal actual.

El terminador como escenario que Hollywood retrata no es probable. En mi opinión, hay dos lados oscuros plausibles de la IA: hiper-optimización y un controlador de mala atención.

La hiperoptimización es cuando le das una tarea a una IA lo suficientemente inteligente y dejas que la cumpla. Nick Bostrom da el ejemplo de una máquina recolectora de sellos, que tiene la tarea de maximizar los sellos. Esto parecería inofensivo al principio, pero la inteligencia de la máquina probará todos los medios disponibles para adquirir los sellos. ¿Qué pasa si decide que para obtener más sellos, que debe violar una ley? Por supuesto, puede programar la máquina para que no infrinja las leyes, pero cuando se vuelva más inteligente, encontrará soluciones. Digamos que decide hacer los sellos en sí, entonces necesitaría recursos para construir esos sellos, los mismos recursos que necesitamos, etc. Cuando una máquina es más inteligente que nosotros, no podremos mirar hacia adelante para buscar situaciones que podrían ser malas para nosotros.

El otro resultado posible proviene del control. Si una persona, o un pequeño grupo de personas tiene acceso a la superinteligencia, podrán usarla para cualquier medio que deseen. Por lo tanto, si su objetivo es algo que sería menos que ideal para todos los demás, se realizaría, causando una cadena de eventos desconocida.

Es importante tener en cuenta que ambos parecen recurrir a nosotros, lo que significa que tenemos el poder de cambiarlos. Es importante recordar que estamos construyendo la IA, por lo que la máquina puede no ser inherentemente mala, sino que se vuelve así por su programación o entorno. Bostrom también ofrece una posible solución, como enseñarle a la IA lo que valoramos al dejar que aprenda por sí mismo y luego liberarlo en algún problema.

Como respuesta poco convencional, diré que el lado oscuro de la IA es que el desarrollo de la IA generalmente se basa en las ganancias o en las fuerzas armadas. La IA no se desarrolló para la ciencia pura de crear una máquina de pensamiento artificial, se creó para ganar dinero para grandes corporaciones o para librar guerras de información para grandes estados nacionales. Entonces, en esencia, el lado oscuro de la IA son las motivaciones de los humanos que construyen la IA.

El lado oscuro de la IA suele ser ético, ¿es correcto que una computadora pueda elegir una opción que pueda matar a alguien o si matar a alguien la computadora salvará a diez personas, la IA tiene que tomar este tipo de elección?

Por otro lado, es correcto esclavizar a un ser inteligente para nuestro uso, si AI tiene los mismos derechos.

Estos son algunos de los temas más importantes en la ética de la IA.

Robots que disparan a los humanos, en función de sus propios datos.
El lado extremo de contra la humanidad.