Un problema con la IA es que cada vez más los humanos no pueden entender cómo la IA toma sus decisiones. Y este problema ya está aquí, a pesar de que estamos muy lejos de AGI (inteligencia general artificial), y mucho menos de la conciencia artificial.
El sistema de inteligencia artificial no tiene que ser humanamente inteligente, simplemente se le debe dar un problema y recursos para resolverlo a través de algoritmos genéticos y ajustando los datos.
Lo que comenzó a surgir con una frecuencia cada vez mayor: los sistemas informáticos pueden ajustar ecuaciones a conjuntos de datos, pero luego resulta que las ecuaciones, aunque son maravillosamente precisas y predictivas, no tienen sentido intuitivo para los humanos que las usan.
- ¿Cómo podemos aprovechar la inteligencia artificial y la realidad virtual para crear el futuro de la cinematografía: generación automática inteligente de historias?
- ¿Qué tan poderosa es la inteligencia artificial autoconsciente?
- ¿Cuándo matará la inteligencia artificial a la primera persona?
- ¿Qué compañías están empujando los límites reales de la inteligencia artificial? ¿Cómo puedo trabajar para ellos?
- ¿La escritura UX será reemplazada por AI?
No todos lo ven como un “problema”: si un algoritmo genético es mejor que cualquier humano para diagnosticar el cáncer (que ya es el caso con algunos tipos de cáncer), pocos médicos e incluso menos pacientes se preocuparán por la opacidad del algoritmo interno. trabajando. Pero a medida que estos algoritmos ocupan más dominios, las personas se quedarán cada vez más atrás.
Esa sería la última ironía de la tecnología: si tenemos una demostración convincente de que los cerebros humanos simplemente no pueden entender la forma en que funciona el universo en algunos niveles prácticos. Tal como un algoritmo genético que diseña una unidad FTL en funcionamiento. Y lo que es peor, podemos construir sistemas que pueden derivar más de lo que podemos entender, pero estos sistemas no son en sí mismos inteligentes de una manera lo suficientemente humana como para explicarnos sus resultados.
Ninguno de los anteriores conduce a que “la IA nos va a matar”, pero sugiere que si la IA alguna vez decide matarnos, podemos ser completamente incapaces de comprender sus razones. No será “usted es un peligro para el planeta debido a la quema de combustibles fósiles”, más como “usted es [intraducible] a lo [intraducible] debido a [intraducible]”.