Puede comparar las concepciones populares / mediáticas del riesgo de IA con las preocupaciones de aquellos en IA que realmente tienen preocupaciones y una idea bastante clara de lo que hará AI en los próximos años, al menos.
Podrías ver cómo se detecta y mide el riesgo de IA, y qué protocolos existen entre los investigadores de IA para evitar producir accidentalmente algo que sea peligroso y difícil de contener.
Tendemos a considerar las máquinas y / o su software como un riesgo potencial. ¿Qué pasa si el mayor riesgo está en nosotros? Nos volvemos demasiado dependientes, por ejemplo, y perdemos la capacidad de sobrevivir por nuestra cuenta.
- ¿Quién estaba en el equipo que desarrolló la IA de 'Eugene Goostman'?
- ¿Puede la inteligencia artificial estar en camino de automatizar cada trabajo, o es solo otra exageración de Silicon Valley?
- ¿Qué es el embolsado en el aprendizaje automático?
- ¿Qué es la ciencia de datos, big data y machine learning?
- ¿Cuál es la diferencia entre las técnicas de computación de IA y las técnicas de computación de investigación de operaciones con respecto a la optimización? ¿Hay alguna diferencia en absoluto?
¿Qué pasaría si la IA pudiera ser pirateada y deliberadamente corrompida o mal dirigida para detectar emergencias falsas o no detectar las reales?
OK, esos son algunos temas posibles. Pero las verdaderas preguntas son: ¿cuál es su especialidad, quién es su asesor de tesis, quién forma parte de su comité si eso ya se conoce y planea ir a la escuela de posgrado? Estos tienen cierta o mucha relación con la forma en que elige su tema y cómo configura su tesis. Si puede hacer su investigación de tesis, o las personas que conoce en el proceso, juegan un papel en lo que suceda después en su vida, eso es algo oficialmente bueno.