El aprendizaje automático se basa en procesar y clasificar el comportamiento humano (entre otras cosas). Sin embargo, el proceso es a menudo una caja negra, algo que oculta las decisiones humanas y las esconde detrás de una máscara. El aprendizaje automático puede dar a las decisiones humanas una falsa apariencia de objetividad y una falta de responsabilidad (“la computadora lo hizo”). Los resultados del aprendizaje automático pueden ser fácilmente incorrectos, no generalizables o socialmente sesgados y discriminatorios.
Piense en ello como una forma de “lavado de dinero”, a excepción del conocimiento.
También es posible que a medida que las máquinas se vuelvan “más inteligentes”, reemplazando la inteligencia humana, las personas gradualmente se volverán “más tontas” … o al menos, su atención pasará a otros asuntos y sus decisiones se automatizarán. Y cuando eso sucede, ya nadie piensa desde cero; posibles alternativas, otras formas de hacer las cosas estarán ocultas para su consideración.
- ¿Puede una teoría de categoría proporcionar el marco para vincular ontologías?
- ¿Cuáles son algunos buenos libros sobre los fundamentos del compilador para principiantes?
- ¿Qué pasa si un estudiante de CSE no tiene tanto conocimiento de programación?
- Como científico de datos, ¿usa más R o Python o es más o menos lo mismo?
- ¿Qué debe hacer un CSE / IT más reciente para obtener su primer trabajo en un campo de TI?
Por lo tanto, una aplicación particular de aprendizaje automático puede no conducir a un escenario dramático del fin del mundo, pero cuando millones de ellos se combinan en un sistema monstruoso, puede volverse inestable. La Gran Recesión de 2008 fue un ejemplo, un colapso en un sistema hecho de partes pequeñas cuyo propósito era controlar el “riesgo”.
Un ejemplo similar de antes de la tecnología de la información fue la Primera Guerra Mundial. ¿Qué la causó? Hubo uno o dos episodios desafortunados, pero todos los países estaban unidos por una red de alianzas de seguridad “automáticas” (prenegociadas) y gradualmente se vieron inmersos en lo que terminó siendo una guerra mundial.
En lugar de una única IA monstruosa, el aprendizaje automático tiene el potencial de ser como un “bote con fugas” o “muerte por mil cortes”.