No. Para hacer eso, la IA tendría que estar * conectada * a los arsenales, y estar dispuesta a hacerlo.
Un poco más formalmente, esto se traduce en dos requisitos:
- Inteligencia general artificial, es decir, la capacidad de realizar bien una variedad de tareas, incluso aquellas para las cuales la máquina no fue entrenada explícitamente
- Conciencia de sí mismo. Esto no es lo mismo que AGI. Es concebible que podamos tener una máquina superinteligente que implemente un marco general de resolución de problemas, pero aún así no tendría voluntad propia. Si no ve un problema, no hace nada.
Estamos muy lejos de ambos requisitos.
- ¿Cuál es la diferencia entre la investigación de inteligencia artificial (IA) y la investigación de inteligencia general artificial (AGI)?
- ¿Cuáles son las IA más interesantes en la ficción?
- ¿Cómo funciona la inteligencia?
- ¿La IA será buena, mala o ambas?
- ¿Por qué una IA crearía otra IA?
Cuando piense en AI hoy, piense en algo como el Mechanical Turk original (sin el fraude):
Son máquinas muy especializadas que pueden ser bastante buenas en una tarea si ven suficientes ejemplos, pero en realidad son bastante tontas. Pueden aprender a jugar ajedrez a nivel de gran maestro, pero:
A) No pueden reutilizar nada de esa experiencia para aumentar su rendimiento en un juego similar como las damas, o irse.
B) Son muy ineficientes en los ejemplos, lo que significa que les lleva millones de ejemplos para aprender a jugar decentemente. Un humano puede tomar solo decenas. Su fuerza radica en el hecho de que pueden entrenar en miles de millones de ejemplos, en múltiples máquinas.
Si esto está claro, entonces el “No” sigue, ya que la máquina entrenada para conducir un automóvil simplemente no entenderá nada sobre ningún otro dominio, por lo que incluso si parece inteligente, en realidad no * comprende * el problema más que un bolsillo calculadora.