¿Por qué se supone que el aprendizaje automático es potencialmente peligroso?

El aprendizaje automático se basa en procesar y clasificar el comportamiento humano (entre otras cosas). Sin embargo, el proceso es a menudo una caja negra, algo que oculta las decisiones humanas y las esconde detrás de una máscara. El aprendizaje automático puede dar a las decisiones humanas una falsa apariencia de objetividad y una falta de responsabilidad (“la computadora lo hizo”). Los resultados del aprendizaje automático pueden ser fácilmente incorrectos, no generalizables o socialmente sesgados y discriminatorios.

Piense en ello como una forma de “lavado de dinero”, a excepción del conocimiento.

También es posible que a medida que las máquinas se vuelvan “más inteligentes”, reemplazando la inteligencia humana, las personas gradualmente se volverán “más tontas” … o al menos, su atención pasará a otros asuntos y sus decisiones se automatizarán. Y cuando eso sucede, ya nadie piensa desde cero; posibles alternativas, otras formas de hacer las cosas estarán ocultas para su consideración.

Por lo tanto, una aplicación particular de aprendizaje automático puede no conducir a un escenario dramático del fin del mundo, pero cuando millones de ellos se combinan en un sistema monstruoso, puede volverse inestable. La Gran Recesión de 2008 fue un ejemplo, un colapso en un sistema hecho de partes pequeñas cuyo propósito era controlar el “riesgo”.

Un ejemplo similar de antes de la tecnología de la información fue la Primera Guerra Mundial. ¿Qué la causó? Hubo uno o dos episodios desafortunados, pero todos los países estaban unidos por una red de alianzas de seguridad “automáticas” (prenegociadas) y gradualmente se vieron inmersos en lo que terminó siendo una guerra mundial.

En lugar de una única IA monstruosa, el aprendizaje automático tiene el potencial de ser como un “bote con fugas” o “muerte por mil cortes”.

Hay dos tipos de peligros. Básicamente, el aprendizaje automático es una herramienta. Con los datos apropiados, el aprendizaje automático se puede utilizar para clasificar, reconocer, hacer buenos movimientos en juegos cerrados, etc., así como para mejorar; por ejemplo, Watson utilizó el aprendizaje automático para determinar cuál de sus diversos algoritmos era mejor para qué tipo de preguntas. Los dos mayores peligros que veo son la arrogancia y la avaricia. El aprendizaje automático funciona bien, pero generalmente dentro de los parámetros de los ejemplos que ya existen. Eso está bien A MENOS que las personas asuman que funciona para otros ejemplos en los que nunca ha sido entrenado. Entonces, puede ser muy peligroso de hecho. No es tanto que el aprendizaje automático sea peligroso, sino que puede ser peligroso en manos de alguien que no está prestando atención a sus limitaciones. El segundo peligro es la avaricia. Una vez más, el aprendizaje automático en sí no es “codicioso”, pero puede ser una herramienta poderosa en manos de alguien que cree que es la única persona que realmente “cuenta” y, por lo tanto, para ellos “poco ético” y “malvado” son simplemente otras palabras para “ser inteligente” y “buscar el número uno”. Para escenarios más específicos sobre lo que podría “salir mal” con la IA y el aprendizaje automático, consulte “Las pesadillas de Turing”.

http://tinyurl.com/hz6dg2d

¿Por qué es peligroso un arma nuclear? ¿Por qué es peligroso un arma? Estas cosas son peligrosas debido al efecto que pueden tener si se usan imprudentemente. El aprendizaje automático no tiene emoción y no tiene sentido de lo correcto y lo incorrecto. También aprende de los datos que se alimenta. Entonces:

  • imagine un proceso de toma de decisiones que se alimenta deliberadamente de datos sesgados
  • Imagine un proceso de toma de decisiones ajeno a las causas fundamentales.
  • Más jóvenes del centro se unen a pandillas, son arrestados y, por lo tanto, tienen menos éxito laboral
  • Aprendizaje automático: no contrate jóvenes del centro de la ciudad
  • imagine un proceso de toma de decisiones que se base únicamente en mirar hacia atrás
    • Los datos sobre Sudáfrica antes del fin del apartheid no son aplicables después del fin del apartheid
  • imagine un sistema de toma de decisiones que desconoce los cambios fundamentales en el entorno, el mercado o el proceso
    • De 1900 a 1980, las hipotecas fueron una inversión muy segura. Luego, el mercado cambió donde las hipotecas fueron empaquetadas y vendidas. Los aseguradores de hipotecas ya no corrían el riesgo de la hipoteca y, por lo tanto, estaban más dispuestos a otorgar hipotecas a prestatarios menos calificados. Hasta que los prestatarios comenzaron a incumplir el aprendizaje automático, es probable que continúen otorgando hipotecas
  • imagina un sistema de toma de decisiones que es ilegal
    • Tenemos leyes contra la discriminación. Machine Learning podría encontrar patrones y aplicarlos a pesar de violar la ley

    Ahora en contexto, el aprendizaje automático es una cosa excelente. Nos ayudará a dar sentido a la gran cantidad de datos que estamos generando. Nos ayudará a comprender mejor los datos complejos (p. Ej., MRI). Pero no es una panacea. Solo es peligroso si no entendemos cómo podría estar mal.

    Presumiblemente y potencialmente son dos palabras de comadreja en la pregunta. Otra versión de la pregunta es “¿Por qué algunas personas expresan su preocupación de que el aprendizaje automático pueda producir consecuencias lamentables no deseadas?” Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad (BBC News) fue quizás el caso más noticioso de tal preocupación expresada.

    El aprendizaje automático como se refleja en la preocupación de Hawking se refiere a procesos informáticos que pueden desarrollar software con una inteligencia aún mayor. En esta evolución de software cada vez mejor, sin los límites biológicos impuestos a los humanos, las máquinas teóricamente podrían superar a los humanos y convertirse en la inteligencia dominante. Si las máquinas usarían su ventaja de maneras malévolas parece ser la base de la preocupación.

    La ciencia ficción proporciona una variedad de escenarios sobre cómo podría desarrollarse esto. Me vienen a la mente Hal de la película 2001 y Marvin de Hitchhiker’s Guide to the Universe (Douglas Adams).

    Una versión más directa podría ser un conjunto colectivo de procesos inteligentes que colaboran para tomar el control de la web. Imagine una colección de este tipo frente a una versión 2027 de Google. Tal entidad podría ejercer una enorme influencia política.

    Todo depende de cómo defina “peligroso”. Si estás pensando en máquinas que se apoderan de la humanidad, entonces no es tan peligroso en este momento.

    Los algoritmos de aprendizaje profundo que existen hoy en día requieren mucho “aprendizaje (capacitación)” antes de su puesta en servicio en el mundo real. Este “aprendizaje” se realizó fuera de línea utilizando muchas observaciones del mundo real. Una vez que la máquina ha aprendido sobre muchas situaciones del mundo real, puede aplicar ese conocimiento en tiempo real. Sin embargo, la máquina no puede responder a una nueva situación (o una situación rara) que no se utilizó para entrenar la máquina en primer lugar.

    Por lo tanto, hay un largo camino por recorrer antes de que las máquinas se apoderen del mundo.

    Mire esta muy buena presentación de Susan Blackmore sobre “meme” -s y “teme” -s, entonces comprende los peligros. (¿Y por qué ET no es obligatorio un ser orgánico?)

    Se presume que el fuego es potencialmente peligroso, porque un juego intencional, una persona descuidada o un evento accidental pueden quemar muchas casas y bosques. Sin embargo, no podemos vivir sin fuego, porque el fuego cocina nuestra comida y produce muchos productos sin los cuales no podemos vivir.

    Se presume que la gasolina es potencialmente peligrosa, porque un juego intencional, una persona descuidada o un evento accidental pueden quemar muchas casas y bosques. Sin embargo, no podemos vivir sin gasolina (al menos en California), porque la gasolina hace funcionar nuestros automóviles y alimenta muchas fábricas.

    Se supone que el aprendizaje automático es potencialmente peligroso, porque un juego intencional, una persona descuidada o un evento accidental pueden devastar a muchas familias y naciones. Sin embargo, no podemos vivir sin aprendizaje automático (al menos en EE. UU.), Porque el aprendizaje automático les ayuda a predecir lluvias y tormentas, y ayuda a los hospitales a planificar sus horarios.

    More Interesting

    ¿Por qué las poderosas computadoras de hoy usan tanta energía en comparación con el cerebro humano que usa menos que una bombilla?

    ¿Cuáles son sus experiencias como consultor en ciencia de datos?

    ¿Cuál es la diferencia entre los clasificadores de aprendizaje automático y los modelos de lenguaje estadístico?

    ¿Qué tan difícil es ingresar al programa CSE en la Universidad de Washington?

    ¿Las computadoras actuales funcionan bien para la capacitación de aprendizaje profundo?

    ¿Puede una biblioteca de aprendizaje automático integrarse con Django? ¿Si es así, cómo?

    ¿Sigue siendo una amenaza el hack de compilación de Ken Thompson?

    ¿Cómo funciona SB Game Hacker?

    Si los humanos pueden crear inteligencia artificial que supere la inteligencia humana, ¿la IA podrá crear una inteligencia artificial de segunda generación más inteligente que ella?

    ¿Por qué se habilita Superfetch después de un tiempo o después de reiniciar la computadora?

    ¿Cómo impactará la victoria de Trump en los futuros mercados bursátiles de EE. UU.?

    ¿Cómo construirías un sistema de descubrimiento de drogas usando el aprendizaje automático?

    ¿Por qué muchos graduados de Berkeley CS tienen un complejo de inferioridad?

    ¿Todavía se usa el Método de Desarrollo de Viena, o ha sido reemplazado por métodos más modernos?

    Teletransportación: ¿Cuánta memoria de computadora necesitaríamos para registrar y reproducir la ubicación exacta de todos los átomos en nuestro cuerpo?