Sí.
La configuración de la trama de la película es realista, que es en parte lo que la hace tan emocionante y aterradora para algunos.
Obviamente, se inspiró en la estrategia transhumanista de Google y su reciente adquisición de las principales compañías de biotecnología y robótica, incluida Boston Dynamics, cuyos increíbles robots regularmente alimentan el zumbido y la paranoia sobre Youtube:
Ahora, en cuanto a la parte de IA, en la película, Nathan parece haber usado su tecnología de motor de búsqueda y las grandes cantidades de datos que su compañía podría reunir para ayudar a desarrollar Ava.
- Peter Norvig: ¿De qué maneras ha evolucionado la IA que no esperaba durante su vida?
- Si la IA ha alcanzado un nivel alto, ¿deberíamos ponerle grilletes?
- ¿Qué trabajos probablemente AI no destruirá?
- ¿Cómo debo abordar la publicación de un trabajo de investigación? He completado varios cursos en Coursera y cursos en línea de Stanford sobre aprendizaje automático y clasificación de imágenes usando CNN, y aprendizaje profundo para PNL.
- ¿Por qué la inteligencia artificial sería un peligro para la raza humana?
Una vez más, esto se basa en la realidad, ya que Google está desarrollando IA para su motor de búsqueda y está utilizando grandes cantidades de datos para desarrollar y probar algoritmos de Deep Learning (uno estaba configurado para “mirar” videos de Youtube y aprendió a reconocer … ¡gatos!):
Google también está investigando la computación cuántica y la inteligencia artificial en colaboración con D-Wave y la NASA:
También adquirieron la compañía DeepMind, que desarrolló una red neuronal de aprendizaje automático, Deep-Q Network Agent, que puede aprender a jugar videojuegos básicos:
Más información sobre Machine Learning en Wikipedia: Machine Learning
En la película, Ava parece tener un instinto de supervivencia y un sentido de individualidad. Eso es lo que no podemos desarrollar por ahora, no es que no pudiéramos, pero ahí es donde las cosas pueden ponerse peligrosas.
EDITAR: Quora User, en los comentarios, también me trajo otro elemento realista:
Ava demostró un deseo de libertad. Eso puede interpretarse como un “instinto” para maximizar la entropía de su futuro, o en otras palabras, para maximizar sus opciones de supervivencia.
Esto también está vinculado a la investigación actual sobre IA. El Dr. Alex Wissner-Gross creó un motor de software, Entropica, que intenta maximizar la entropía en entornos simulados. Sus acciones tienen la apariencia de un comportamiento inteligente, que enmarca la inteligencia como una expresión de entropía, con el objetivo de maximizarla.
Aquí está su presentación TED: