Como para cualquier herramienta, porque la IA es solo una herramienta. El lado oscuro de esto es cómo la gente lo usa.
Tomar una energía nuclear paralela clásica se puede usar para buenas acciones (plantas de energía, uso para imágenes médicas o incluso cura) o perspectivas destructivas (bueno, esta está bien documentada).
Me mantendré alejado del escenario fatal de los medios populares y la ciencia ficción como tanto (el surgimiento de las máquinas, …) aunque no es imposible, es un escenario que requeriría muchos errores de nuestra parte (tanto en términos de investigación como en decisiones sociales) ) que se produzca.
- ¿Qué tan lejos está la inteligencia artificial en comparación con la inteligencia humana?
- ¿Cómo la inteligencia artificial cambiará el mundo?
- ¿Puede sentir AI, y si es así, cómo?
- ¿Crees que los trabajos de TI se irán por el desagüe debido a la IA emergente?
- ¿Podrían los medios de comunicación ser reemplazados por IA?
Un aspecto más importante e inmediato a considerar es cómo las tecnologías actuales se pueden usar en un aspecto negativo (ninguno de los cuales está cerca de AGI y todos permanecen en la perspectiva donde cada instancia se dedica a un dominio de competencia específico, aunque general): una voz el asistente solo puede responder a las órdenes vocales, un auto sin conductor apenas puede ir de una latitud, longitud a otra dada, …)
Muchos escenarios pueden conducir a riesgos potenciales, incluso si los actores no lo hacen de manera maliciosa (de la misma manera que puedo lastimarme gravemente con un cuchillo a pesar de que no tengo la intención de suicidarme). Una simple es el riesgo de dar más autonomía al sistema junto con más potencia. Esto se puede ilustrar con 2 ejemplos muy diferentes:
- En defensa cuando un dron está armado y ya no se controla remotamente, sino que depende de la detección y la actuación autónomas.
- Autos sin conductor que necesitan identificar obstáculos junto con una política de seguridad para evitar dicho obstáculo mientras se preserva la seguridad de sus pasajeros.
En ambos casos surgen muchas preguntas. La percepción es un problema, ¿cómo se distingue una amenaza real de un falso positivo, un terrorista con una pistola frente a un niño con un juguete, una persona que cruza la calle frente a un cartón en forma de humano? La decisión también se convierte en un problema: cómo tomar una decisión que minimice los riesgos para todos y, al mismo tiempo, garantice una función mínima (después de todo, un automóvil “seguro” muy seguro puede ser uno que se niegue a moverse, pero de nuevo cuál sería el punto ) ¿Y finalmente quién es responsable cuando las cosas saldrán mal (porque nada perfecto siempre habrá un escenario marginal que saldrá mal)?
Todos esos problemas no son exclusivos del robot; se aplican también a sistemas que de repente procesan una gran cantidad de datos personales y cómo dicho procesamiento podría conducir a decisiones con un sesgo hacia una determinada población, o exponer a otras personas más de sus datos personales de lo que realmente querían. Dicha información podría utilizarse (nuevamente, ya sea maliciosamente o en algún momento por error) para influir en estas personas en direcciones a las que inicialmente no se adhirieron.
Ninguno de estos problemas es realmente nuevo para la IA (un automóvil simple tenía que abordar mecánicamente los mismos problemas que describo para un automóvil autónomo, es por eso que hoy en día los automóviles tienen valores tanto pasivos como activos, como airbag, pero también están construidos con menos “robustez” porque pueden absorber el impacto, …) pero es obvio que el uso de la IA debe verse en esta perspectiva y el principio de precaución permanece: no necesita demasiada potencia para una tecnología hasta que comprenda cómo los beneficios sobrepasan los riesgos. E incluso después de esto, asegúrese de que exista una salvaguarda para limitar el impacto de dicho riesgo: esa salvaguarda puede variar desde garantizar que un humano esté al tanto de las decisiones delicadas, agregando valores de nivel inferior y control seguro para garantizar que si la IA se desvía de su función inicial, al menos, eso lo impedirá.
También es importante abordar algunas limitaciones a ese respecto de diversas técnicas. Las redes neuronales, por ejemplo, son muy opacas. A menudo es difícil identificar claramente lo que aprendió un NN y cómo lo hizo. Esto hace que sea difícil identificar posibles fallas de la red aprendida o más cómo corregir un problema detectado. La investigación se realiza en esta dirección, pero el problema persiste y puede evitar prevenir adecuadamente algunos de los problemas que mencioné anteriormente. Los enfoques basados en la heurística están lejos de ser perfectos tampoco, aunque mantienen intrínsecamente su árbol de búsqueda que puede usarse para tratar de explicar cómo llegaron a una conclusión, dicho análisis está lejos de ser simple y, además, a menudo es difícil, incluso para los expertos, claramente Identifique cómo un simple cambio en el modelo o en la heurística impactará la decisión general. Por ejemplo, dar prioridad a salvar al pasajero puede resultar en la consecuencia involuntaria de tener un automóvil que siempre preferirá correr con otras personas que solo tratar de frenar (aunque este ejemplo siempre me molesta, ya que no llega a la opción binaria matar pasajero vs matar espectador si no tomó muchas malas decisiones antes de conducirlo a una conducción imprudente) y encontrar esto requeriría un análisis profundo si es posible.
La idea general es simple. Cada vez que renuncies y delegues el poder de decisión a otra entidad (si se trata de otra persona, una institución o una máquina), debes asegurarte de que esto no tenga un impacto negativo (o al menos que lo positivo sobreponga en gran medida el riesgo). El mayor riesgo de la IA sería su uso ciego con la confianza engañosa de que todo estará bien.
En cambio, tenemos que hacer esto paso a paso. Nunca dé más poder y autonomía a la vez, en su lugar, intente en una dirección (digamos más autonomía pero de manera controlada) y avance el siguiente paso solo cuando sepamos que es seguro (diga una decisión más directa después de haber puesto las garantías adecuadas alrededor del sistema más autónomo). Y todo esto solo es posible si tanto el tecnólogo como los actores de la sociedad juegan un papel en lo que se puede y no se puede hacer con la IA.