No estoy seguro de calificar como un “innovador o científico superior”, pero permítanme sugerir:
- En estos días realmente me preocuparía que la IA (o solo el software) tomara mi trabajo. El software avanza cada vez más en la cadena alimentaria, desde escritores reemplazados por bots que ensamblan automáticamente clickbait a pedido, hasta IBM Watson haciendo un trabajo de diagnóstico médico. Lo siguiente que sabes es que el código se escribirá solo.
- Me preocuparía aún más que el software esté en condiciones de tomar decisiones críticas para la vida o la misión, sin intervención humana (como, por supuesto, ya se hace de forma rutinaria). La cuestión es que el software hace las cosas mal. Los humanos también, pero en muchos casos, comprendemos mejor cómo los humanos cometen errores, podemos capacitar a las personas y hacer que las personas rindan cuentas. Existe un enorme potencial de desastre cuando se trata de cosas como autos sin conductor, drones sin piloto, orbitadores de Marte, y hemos visto algunos de esos desastres. Se pone mucho peor a medida que ponemos el software a cargo de más y más cosas. Y luego está la cuestión de quién puede ser demandado o encarcelado, cuando un software falla gravemente. Y eso es todo antes de comenzar a hablar de hackers. (Escenario de pesadilla: Hacker antisocial + escuadrón de drones amazónicos).