Para el laico y para la humanidad en general, ninguna de las investigaciones legítimas de riesgo de IA es inútil, porque tenemos buenos argumentos de que la IA fuerte es un riesgo existencial para los humanos en un grado no trivial. Es importante explorar los medios por los cuales se puede crear una IA fuerte de forma segura.
Con respecto a los desarrolladores de IA fuerte, la utilidad de la investigación de riesgos de IA depende del enfoque técnico del equipo. Por ejemplo, mi enfoque está inspirado en la robótica y utiliza una base de conocimiento simbólico, OpenCyc como su repositorio de reglas de inferencia y hechos. El comportamiento de la IA se factoriza en agentes distribuidos que tienen roles y habilidades, que son procedimientos programados. Por lo tanto, no estoy muy interesado en la investigación de riesgos de IA basada en otros enfoques técnicos, como uno centrado en el aprendizaje profundo como el principal mecanismo de generación de comportamiento y representación del conocimiento.
Para mis propios fines, y porque uno simplemente no puede leer toda la literatura académica, presto atención a estas fuentes …
- ¿Qué evitará que los humanos abusen de las reglas de 'prevención de colisiones' que eventualmente regirán los vehículos autónomos?
- ¿Por qué los marcos de aprendizaje automático convergen con diferentes resultados de precisión al comparar entre diferentes procesadores?
- ¿Cómo se relaciona la inteligencia artificial con la inteligencia empresarial?
- ¿Cuál es su opinión sobre el cierre de Facebook del experimento de chatbot basado en IA después de crear su propio idioma?
- ¿Cómo debo comenzar a construir una aplicación nativa de chatbot de IA?
- Eliezer Yudkowsky en MIRI Inteligencia Artificial @ MIRI
- Investigación militar estadounidense sobre seguridad de armas automatizadas, por ejemplo, http://www.cnas.org/sites/defaul…
- El Centro de Cambridge para el Estudio del Riesgo Existencial (CSER)