He escrito IA para diferentes propósitos (profesionalmente y por diversión), así que estoy algo calificado para responder esta pregunta.
La IA en la vida real no se parece en nada a la versión cinematográfica. Si la IA eventualmente se hará cargo del mundo o incluso es una posibilidad remota, ¿por qué crees que las grandes empresas como Google todavía están invirtiendo fuertemente en IA? No ganarán nada al ser tomados por la IA.
La IA es todo software, a menos que lo combine con la robótica, no podrá hacer otra cosa además de piratear cosas (si sale mal). En lo que respecta a la piratería, ciertamente puede piratear lo que quiera, incluido el lanzamiento de ataques nucleares. Me preocuparía que el sol se extinguiera o que el medio ambiente se contamine tanto que moriremos por el calentamiento global que la preocupación de que la IA se haga cargo.
- ¿Cuánto tiempo llevará AI como DeepMind para reemplazar a los programadores?
- Si la conciencia no puede explicarse mediante algoritmos, entonces, por defecto, ¿tendrías que confiar en una explicación sobrenatural?
- ¿Qué sigue para la IA?
- ¿Cuáles son los futuros conceptos de dispositivos tecnológicos, de inteligencia artificial?
- Cómo investigar en inteligencia artificial
La IA como software consiste principalmente en algoritmos estructurados, incluso GA (Algoritmo genético). Hay dos cosas que evitarán que la IA se deteriore. Uno es el algoritmo de aprendizaje en sí. TODAS las IA necesitarán tener un algoritmo de aprendizaje que se refuerce a sí mismo; Esto es lo básico del aprendizaje. ¿Contra qué se refuerza? Eso, en el futuro previsible, seguirá siendo programado por humanos.
Por ejemplo: AI necesita aprender qué es un gato. Le muestras un animal peludo de 4 patas con cola. Dice árbol, dices mal, es un gato. En este escenario, pasará por múltiples iteraciones antes de aprender qué es un gato, pero ¿por qué se enfoca en aprender gato pero no en árboles? Debido a que los humanos están retroalimentando que todo lo relacionado con los árboles está mal, ignorará los valores que lo refuerzan para aprender sobre los árboles.
En este momento, todavía estamos alimentando AI manualmente. Los AI no saben tomar fotos de los alrededores y preguntarnos qué es esto, qué es eso. No escucha la lluvia, los truenos y pregunta qué es ese sonido, este sonido …
Cuando estamos más avanzados en inteligencia artificial y robótica, entonces tal vez podamos hacer que la inteligencia artificial aprenda e incluso seleccione objetivos sobre qué aprender, por sí solo. Después de integrar cámaras, micrófonos, sensores de presión, algo que detecta olores. Esto significa que las entradas a la IA se automatizarán por sí mismas, pero ¿qué pasa con el aprendizaje? ¿Quién le dirá a la IA sí que es un gato o no, no es un gato? Necesita una referencia (también referencia para el bien, el mal, qué hacer con los humanos, etc.). Esa referencia en su mayor parte puede provenir de internet, wiki, pero una gran parte serán las interacciones con los humanos. Por lo tanto, los humanos proporcionarán suficientes referencias para garantizar que la IA no se vuelva mala.
Además, lógicamente, para eliminar a los humanos, se requieren recursos, energía, tiempo; después de que las IA hayan eliminado a los humanos, no obtendrían absolutamente nada, por lo que debido a esa compensación, las IA no querrán matar / esclavizar a los humanos.
En el caso más probable, las IA probablemente vivirán con humanos como robots, ayudándonos. Muy, muy, muy pequeña posibilidad de que se vuelvan malos (a menos que los terroristas entrenen a la IA, pero aún así los entrenarían para que no maten a TODOS los humanos o de lo contrario serían los primeros en morir; luego, en ese caso, algunas IA se convertirán en armas tales Como los misiles están hoy en manos de terroristas, los gobiernos mundiales tendrán IA mejor capacitadas y equipadas para hacer frente a los terroristas).