Las siguientes son las opiniones de Stephen Hawking y muchos otros grandes científicos.
Esto puede dar una pista sobre lo que la IA puede hacer en el futuro.
“El éxito en la creación de IA sería el mayor evento en la historia humana”, escribió Hawking. “Desafortunadamente, también podría ser el último, a menos que aprendamos cómo evitar los riesgos”.
Esos riesgos incluyen la desigualdad de riqueza extrema en el futuro, o un accidente importante de bioingeniería, o un desastre que puede terminar con la especie.
PODRÍA TOMAR EVENTUALMENTE RECURSOS QUE DEPENDEMOS MANTENER VIVOS, O PODRÍA CONSIDERARNOS SUFICIENTEMENTE DE UN PELIGRO PARA SU FIN DE LA TAREA QUE DECIDE QUE EL MEJOR CURSO ES ELIMINARNOS DE LA IMAGEN.
- ¿Podemos crear una inteligencia artificial general sin la necesidad de simular un cerebro humano?
- ¿Cómo se puede aplicar la inteligencia artificial en la ingeniería química / de procesos?
- ¿Crees que la inteligencia artificial alguna vez será consciente?
- ¿Cuál es la mejor universidad para un doctorado? en la investigación de la inteligencia artificial?
- Con Google y Facebook arrojando tanto dinero al talento de IA, ¿es la verdadera preocupación de AI que la avaricia en el sector supere la verdadera paridad de innovación y nuevas ideas?
“La inteligencia artificial, en las formas en que ya existe, ha tenido un efecto notable en la sociedad, y hay razones para esperar que tenga enormes efectos en el futuro”, dijo Dewey. “Podría desempeñar un papel en la extinción humana, la desigualdad persistente u otros riesgos existenciales … Si entendemos mejor los riesgos, podemos tomar mejores decisiones para evitarlos o mitigar el daño”.