No, no podemos hacer ninguna garantía sobre tales máquinas porque son puramente especulativas en este momento. No tenemos una teoría integral de la inteligencia general y, por lo tanto, no podemos decir cómo funcionaría.
Es posible garantizar que una IA superinteligente no sea malévola. Pero ciertamente no sabemos cómo hacerlo en este momento. Por supuesto, tampoco sabemos cómo construir una IA superinteligente o incluso una IA general moderadamente inteligente. Todo lo que podemos construir ahora es IA que sea buena en tareas específicas (que, por supuesto, son muy útiles).
Pero sospecho que nunca tendremos tales garantías. No puedes predecir las acciones de algo más inteligente que tú. Si pudieras, serías tan inteligente como él. Entonces, si las superinteligencias considerablemente más poderosas que los humanos son posibles y prácticas de construir (lo cual no está garantizado de ninguna manera) correremos un riesgo al hacerlo.
- ¿Serán obsoletos los trabajos de ingeniería normales cuando se cree la IA? ¿Cómo puedo asegurarme de no quedar obsoleto?
- ¿Cómo podemos medir la fuerza de nuestra propia inteligencia contra la IA? ¿Cómo podemos decir que uno es más fuerte que el otro?
- En inteligencia artificial, ¿qué temas básicos seguramente deberíamos aprender?
- ¿Por qué el trabajo de inteligencia artificial está restringido a los niveles de doctorado e investigación? ¿Por qué no hay iniciativa para una carrera de IA?
- ¿Cómo se relaciona Internet de las cosas con la inteligencia artificial?