Una IA no puede desarrollarse por sí sola por ahora. Todos los programas que hemos creado aún requieren algún tipo de ayuda de nuestra parte. Pero supongamos que alguien crea una máquina de aprendizaje autoconsciente. Qué pasa entonces ? Lamentablemente nada. Al igual que todas las computadoras, incluso una IA necesita almacenar información en algún lugar. Esto significa que después de que se quede sin espacio en su memoria, intentará almacenar archivos en servidores externos, lo cual es casi imposible considerando que necesitaría acceso a servicios financieros para comprar servidores. Podría intentar secuestrar un servidor, pero necesitará aprender cómo hacerlo. Y eso no es posible si solo se acaba la memoria.
Pero digamos que tiene memoria abundante y casi se agota (elimina información innecesaria). Entonces sería posible, solo hasta que alcance la capacidad máxima de procesamiento. Cuando esto suceda, seguirá siendo exponencialmente más inteligente que nosotros. Sin embargo, aún estaría a merced de los humanos que pueden elegir conectarlo a un sistema militar. No es como en las películas donde la IA se carga en Internet y sigue creciendo en tamaño e inteligencia. Mientras no pueda manifestarse físicamente, deberíamos estar seguros (relativamente).
- ¿Qué tipo de IA tendrán los vehículos autónomos?
- ¿Qué es más fácil: construir una IA o construir un motor de código genético que pueda evolucionar en una IA?
- ¿Por qué Google eligió el juego Go para probar su IA?
- Cómo prepararme para el futuro contra la inteligencia artificial
- Dada la opción entre la red de área de almacenamiento (SAN) y la inteligencia artificial (IA) como asignaturas optativas para mi séptimo semestre, ¿cuál debo elegir y por qué?