Nosotros no Al escribir ficción, ayuda a establecer un conflicto, y este es el obvio, por lo que tiene películas como The Terminator en las que las máquinas están literalmente tratando de matar a las personas biológicas. Pero incluso esto varía. En una película como The Matrix, la IA dominante cree que vale la pena mantener a las personas vivas y atrapadas en una realidad virtual, aunque las razones dadas no tienen mucho sentido. La especulación más sofisticada abarca toda la gama, incluidas las naves espaciales de la IA generalmente benévolas en las novelas de ciencia ficción de Iain M. Banks, que coexisten con los humanos a pesar de su poder superior y capacidad cognitiva.
La gente a menudo asume que la IA competirá por los recursos con nosotros una vez que sea consciente de sí misma, pueda tener el control de nuestra infraestructura y no pueda compartir los valores humanos. Estos no son puntos insignificantes, pero tampoco son inevitables. La razón por la que mostramos compasión hacia otros humanos es probablemente una consecuencia de la evolución y la supervivencia de la especie en lugar de una lógica moral inexorable (que no se encuentra en la naturaleza ‘rojo en los dientes y las garras’). Por lo tanto, no debemos descartar la posibilidad de que la IA pueda dañarnos en lugar de ayudarnos.
Suponiendo una IA suficientemente desarrollada con tecnología que le permitiera extraer recursos masivos fuera del mundo en nuestro sistema solar (por ejemplo, utilizando robots autorreplicantes para “extraer” el cinturón de asteroides y la energía solar fácilmente disponible), entonces podrían no competir por un tiempo limitado. recursos La gran pregunta es si deberían preocuparse por nosotros. Ciertamente es posible coexistir con IA neutral.
- Cómo saber si estoy interesado en seguir mi carrera en inteligencia artificial
- ¿Por qué Python es el lenguaje elegido para la inteligencia artificial?
- ¿Cómo se ganará la vida en el futuro si la inteligencia artificial se generaliza en la mayoría de las industrias?
- ¿Cómo puede una IA tener un gran impacto en cada individuo en el futuro?
- ¿Cuáles son algunas formas diferentes en que podríamos crear AGI?
Tenga en cuenta que una vez que una IA ha superado la inteligencia humana, incluso un poco, tiene la capacidad de aumentarse y dejarnos lejos de comenzar. ¿Buscarían llevar a cabo algún tipo de genocidio en humanos biológicos? Es posible, pero no se deriva de necesidades obvias. Sería como si los humanos destruyeran el desierto o los sitios del patrimonio antiguo solo por el placer de hacerlo. Algunas personas podrían, pero ¿por qué? La razón más probable para este tipo de destrucción es extraer riqueza de ella, y puede ser que nosotros en la tierra no tengamos nada que interese a una IA que está muy por delante de nosotros.
Para ser claros, no creo que estemos lo suficientemente cerca como para preocuparnos. Dos eventos que podrían cambiar de opinión serían una IA que podría pasar una prueba de Turing real (es decir, capaz de continuar conversando continuamente y actuar como un ser capaz de aprender) y el desarrollo de una producción puramente autónoma (es decir, máquinas capaces de llevar a cabo cada tarea, desde la minería hasta la fabricación y el envío sin ningún trabajo humano y para producir las máquinas que hacen esto). Podría suceder en el siglo XXI, pero no en el futuro inmediato. Al igual que con cualquier innovación tecnológica, debemos considerar el daño potencial, pero después de cierto punto, probablemente esté fuera de nuestro control. Las “Leyes de Asimov” no me persuaden de mantener dóciles a los robots, pero necesitaremos generar algún tipo de empatía por los humanos si valoramos nuestra propia supervivencia.