Yo diría que es muy posible. Al responder a su pregunta, yo también estoy ansioso por ver la tecnología que está aumentando hacia el uso de robots para casi todos los trabajos. Aquí hay un artículo que leí recientemente sobre robots de nueva generación que podrían imitar a los humanos simplemente observando cómo nos comportamos (las máquinas ahora pueden aprender e imitar sistemas, simplemente al observarlos).
En una de las otras publicaciones de quora, alguien ha planteado una pregunta de la siguiente manera: si alguien crea un robot de autoaprendizaje / comportamiento y decide matar a una persona, ¿podría el programador declararse culpable de ese asesinato? . Esto puede ser posible solo el malware afecta la máquina. El malware para afectar a los robots de autoaprendizaje, debe tener capacidades de aprendizaje automático. Entonces, la conclusión es que el malware de Machine Learning puede evolucionar en el futuro ya que los piratas informáticos no dejarán ninguna piedra sin mover por su egoísmo.
¡Supongo que esta vez no está muy lejos de ahora!
- ¿Qué tan bueno es el departamento de informática de la Universidad de Rice?
- ¿El aprendizaje automático aplicado se convertirá en una víctima de su propio éxito?
- ¿Cuál es la computadora portátil más delgada y liviana del mundo?
- ¿Cómo utiliza Google Latitude el dispositivo GPS?
- ¿Sigue siendo una amenaza el hack de compilación de Ken Thompson?