¿Hay futuro para alguien con un doctorado en lógica aplicada para la inteligencia artificial?

La lógica aplicada seguirá siendo una habilidad muy valiosa en IA. Esto será cierto hasta el momento en que alguien descubra exactamente cómo el cerebro toma decisiones y pueda convertir el proceso en forma algorítmica.

Si aún no ha definido su tesis, le sugiero que hable con sus profesores sobre la posibilidad de avanzar en nuestra comprensión de la aplicación de las capacidades no lógicas deónticas (nociones normativas) en el aprendizaje automático, la robótica o los sistemas expertos. La integración de la capacidad de una IA para identificar y comprender “es obligatorio / permitido / inaceptable que …” será de vital importancia para que una IA “juegue bien” con la humanidad a medida que la IA madura en AGI.

Irónicamente, los algoritmos de IA suficientes para AGI pueden ser posibles sin comprender completamente el proceso humano. Un algoritmo genético, como un derivado avanzado de PIBEA, tiene el potencial de ser suficientemente efectivo. Usando la jerarquía correcta de resultados como variables, una IA podría tomar buenas decisiones. Con capacidades deónticas, una jerarquía similar a las necesidades humanas de Maslow podría incorporarse al proceso de decisión.

Sospecho que dicho algoritmo, con acceso a una colección de corpus lo suficientemente grande, produciría algo parecido a AGI. Este pre-AGI podría ser capaz de convertirse en un verdadero AGI.

el campo [de la lógica aplicada] ya no es exactamente “activo”

Sí, seguramente no tanto como ML aplicado a la publicidad o educación en línea, pero … como siempre, debes reflexionar sobre lo que te emociona, para qué puede ser útil y cómo “sobrevivirás” gracias a eso (lo que significa ganar dinero, sí) .

Idealmente chatee con doctores que completaron un curso similar (tal vez ex alumnos de http://icr.uni.lu/people.php ) e imagínese en sus zapatos. No solo con su conocimiento sino con su posición en la sociedad. ¿Es algo que envidias o no? Si no, pase al siguiente campo que le interese y haga la misma pregunta.

Estoy de acuerdo con Jacque en que integrar ML con tu trabajo podría hacerlo mucho más relevante para la IA de hoy. Puede echar un vistazo al curso Coursera de Daphne Koller “Modelos gráficos probabilísticos” para ver si alguno de sus trabajos (modelar problemas / espacios de solución probabilísticamente como parte del aprendizaje automático) puede darle alguna idea sobre cómo proceder. Personalmente, sería reacio a embarcarme en un modelo de IA que no integrara alguna forma de aprendizaje o cuantificación. Me parece que el apogeo de los sistemas de lógica simbólica ha pasado hace mucho tiempo.