Hay tres de ellos.
En primer lugar , una IA universal que puede resolver cualquier problema intelectual solucionable.
Desde P vs NP hasta diseño de teléfonos inteligentes, políticas macroeconómicas, escribir excelentes poemas de amor y crear mejores versiones de sí mismo.
- ¿Qué vino primero, la inteligencia general artificial o los seres humanos?
- ¿Es la inteligencia artificial una profesión rentable? ¿Qué campo de investigación es mejor que otros?
- ¿Es real el apocalipsis de la IA?
- ¿La inteligencia artificial podrá predecir con precisión futuras enfermedades cardíacas y accidentes cerebrovasculares?
- ¿La 'inteligencia agresiva' es realmente inteligencia?
Idealmente, dicha IA debería ser el agente bayesiano perfecto (uno que haga un uso probabilísticamente óptimo de la información disponible).
En segundo lugar , una IA humana.
Puede hacer todo lo que una mente humana promedio puede hacer, incluyendo:
- Reconociendo gatitos en un video inestable de baja resolución de YouTube
- pasar con éxito la prueba de Turing
- aprender a jugar un nuevo videojuego observando jugadores humanos durante unos minutos
- Reconocer y reaccionar a las emociones humanas de manera apropiada
- haciendo muchas otras tareas pequeñas y grandes que los humanos están haciendo sin esfuerzo.
Podría ser más fácil o más difícil crear una IA humana que una IA universal.
Más fácil porque la mente humana no es más que una IA especializada.
Más difícil porque la mente humana es un software de baja calidad, lleno de errores, soluciones alternativas y muletas, evolucionado en el entorno que ya no existe.
En tercer lugar , una IA amigable.
Una IA que hará todo lo posible para no dañar a los humanos. Incluso si puede reescribir su propio código (incluidas las limitaciones morales que incluimos).
Es probablemente el problema más difícil entre los tres. No hay una manera fácil de evitar que ocurran escenarios de maximización de Paperclip. Quizás incluso de ninguna manera. Ver Inteligencia artificial amigable.