Esto es solo una idea, nunca lo he intentado, pero podría intentar usar una GAN semi-supervisada. La parte más difícil sería recopilar los datos. Necesitaría unos pocos miles de ejemplos de trabajos de investigación con resúmenes correspondientes y probablemente decenas de miles de trabajos adicionales sin resúmenes. El generador intentaría crear resúmenes que engañen al discriminador para que piense que es un resumen real.
En realidad, este es un campo de investigación activo con un enorme potencial económico. He oído hablar de nuevas empresas que están haciendo esto, pero con investigación legal o investigación para artículos de noticias complejos. En lugar de que los asistentes legales lean cientos de casos históricos e intenten resumirlos, en teoría podría capacitar a una red que pueda analizar cada caso relevante y resumirlos. Nadie lo ha perfeccionado aún, pero hay mucho dinero para quien lo descubra.
- ¿Qué porcentaje de miembros de la facultad en su departamento de CS se ocupan del aprendizaje automático?
- ¿Cuáles son algunos errores famosos en el mundo de la informática?
- ¿La velocidad de ejecución de un algoritmo que, al ejecutarse, hace que el sistema físico en ejecución tenga experiencia subjetiva, hace alguna diferencia en la naturaleza de esta experiencia subjetiva?
- ¿Cuál es la verdadera definición de piratería?
- ¿Por qué los estudiantes de informática son tan elitistas?