Permítanme comenzar diciendo: “La tecnología le está dando a la vida el potencial para florecer como nunca antes o para autodestruirse “.
Este concepto también se aplica a la IA. El objetivo principal de la IA es proporcionar a las máquinas la capacidad de superarnos en cada tarea cognitiva. La IA de hoy se conoce como IA débil, ya que está diseñada solo para realizar tareas estrechas (por ejemplo, solo reconocimiento facial o solo búsquedas en Internet o solo conducir un automóvil).
Sin embargo, el objetivo a largo plazo de muchos investigadores es crear una IA general o fuerte. A corto plazo, el objetivo de mantener beneficioso el impacto de la IA en la sociedad motiva la investigación en muchas áreas, desde economía y derecho hasta temas técnicos como verificación, validez, seguridad y control. A largo plazo, una pregunta importante es qué sucederá si La búsqueda de una IA fuerte tiene éxito y un sistema de IA se vuelve mejor que los humanos en todas las tareas cognitivas. Al inventar nuevas tecnologías revolucionarias, tal superinteligencia podría ayudarnos a erradicar la guerra, las enfermedades y la pobreza, por lo que la creación de una IA fuerte podría ser el mayor evento en la historia de la humanidad.
- Cómo terminar con éxito CS50x como estudiante universitario a tiempo completo
- ¿Cómo es trabajar en la interacción computadora humana en Google?
- ¿Cuáles son los usos de un espectrofotómetro?
- Cómo explicar la memoria virtual a un laico
- ¿Qué tiene el programa de Sistemas Simbólicos en Stanford que produce tan increíbles alums?
Así como hay dos caras de una moneda. La IA puede volverse intencionalmente benevolente o malévola. Las armas autónomas son sistemas de inteligencia artificial que están programados para matar. En manos de la persona equivocada, estas armas podrían causar fácilmente bajas masivas. Además, una carrera armamentista de la IA podría llevar inadvertidamente a una guerra de la IA que también provocaría bajas masivas. Además, la IA está programada para hacer algo beneficioso, pero desarrolla un método destructivo para lograr su objetivo.
Ahora, el foco debería estar en esto, ya que la IA tiene el potencial de ser más inteligente que cualquier humano, no tenemos una forma segura de predecir cómo se comportará. No podemos utilizar los desarrollos tecnológicos pasados como base porque nunca hemos creado nada que tenga la capacidad de, de manera consciente o involuntaria, ser más astutos que nosotros. El mejor ejemplo de lo que podríamos enfrentar puede ser nuestra propia evolución. La gente ahora controla el planeta, no porque seamos los más fuertes, los más rápidos o los más grandes, sino porque somos los más inteligentes. Si ya no somos los más inteligentes, ¿estamos seguros de mantener el control?