¿Crees que es posible generar historias, pistas dadas, usando técnicas de PNL?

El usuario de Quora (+1) ha respondido esta pregunta de manera positiva, y yo también soy bastante positivo. Sin embargo, hay ciertos problemas no triviales que deben resolverse antes de poder responder a esta pregunta.

¿Qué implica el problema del OP?
1] Primero, necesitamos construir un blob de texto que contenga las palabras dadas como pistas. Las palabras de pista deben venir en la secuencia provista.
2] En segundo lugar, no solo debemos crear este blob de texto, sino que el texto debe tener significado.
3] En tercer lugar, no solo el texto debe tener significado, sino que debe estar completo. Es decir, no necesita contexto adicional para comprender cualquier parte de la historia.

La primera tarea es la tarea más fácil. Por ejemplo, si construimos un HMM de dos gramos a partir de un corpus de historias como la del proyecto Gutenberg [1]. Entonces, debería ser posible construir una secuencia de palabras que contengan las palabras de pista en el orden dado. Sin embargo, esto podría ser muy costoso en términos de complejidad temporal.

El problema es la segunda y la tercera tarea. No está claro si el uso de ideas simples como HMM de dos gramos para la generación de texto se prestaría muy bien para la segunda y tercera tarea. Pregunta: ¿Un texto generado a través de HMM de dos gramos que incorpore las palabras indirectas sería necesariamente significativo y completo debido a la naturaleza de las sugerencias proporcionadas (suponiendo que tengamos acceso a corpus bastante grandes para entrenar HMM)? Esencialmente, la pregunta que se hace aquí es: ¿los grandes corpus + indican palabras => significativas y todas las sugerencias en el texto blob => completitud? Respuesta: no estoy seguro. Es posible que necesitemos mejores modelos para la generación de texto donde incorpore la noción de significado e integridad como parte del modelo mismo.

La PNL se ha centrado tradicionalmente en problemas en los que, dado un texto completo, el objetivo es crear un resumen del texto completo [2] o crear artículos de wikipedia [3] a partir de diversas fuentes de información o crear historias específicas de dominio a partir de hechos [4]. Todos estos problemas tienen el mismo problema de ser significativos y completos. Aquí también se pueden adaptar para nuestro problema de interés. Dicho esto, no estoy seguro de lo fácil o difícil que será, ya que en los problemas anteriores se puede definir el significado y la integridad en términos de los datos fuente más ricos, mientras que en este problema en particular, las palabras indirectas son la única fuente a través de cuál puede definir estos dos aspectos.

[1] Proyecto Gutenberg
[2] Resumen automático
[3] Página sobre Mit
[4] Las noticias automatizadas llegan a la cobertura deportiva a través de StatSheet | TechCrunch

Sí, es posible hacer esto … En un artículo de Regina Barzilay [1], los autores describen un HMM, donde los estados del HMM corresponden a atributos relacionados con el tema (si está describiendo un evento, digamos una noticia deportiva, típica los atributos serían jugadores, puntajes, etc. Hay mucho trabajo en el uso de modelos de contenido para el resumen [2], debería echarles un vistazo.

Arun Iyer ha dado una excelente respuesta aquí. Hay problemas en el periodismo digital moderno. Suff no está verificado, los titulares sensacionales obtienen clics sobre los responsables. No hay distinción entre noticias duras y especulaciones. ¿Cómo puede ayudar el aprendizaje automático a resolver problemas en el periodismo? y también tendría algunas buenas ideas para esto

[1] “Capturando la deriva: modelos de contenido probabilístico, con aplicaciones para la generación y el resumen” ,
[2] Página sobre Aclweb

Sí, Google News es uno de los ejemplos. Los titulares de la publicación de noticias se generan utilizando técnicas de PNL.

Aquí hay un documento relacionado:
Página en cs.sfu.ca

More Interesting

¿Qué es un 'descriptor' en el contexto de una transformación de característica invariante de escala (SIFT)?

¿Cuáles son los prerrequisitos matemáticos para estudiar el aprendizaje automático?

Para un SVM lineal, ¿cómo se elige la intersección b * para el límite de decisión de margen máximo?

¿Qué áreas debo conocer bien para ser un buen ingeniero de visión por computadora?

¿Qué es exactamente la monitorización neuronal remota?

¿La normalización por lotes ha vuelto obsoleta la inicialización de Xavier al entrenar redes neuronales?

¿Es posible que una aplicación de aprendizaje automático que ejecute el mismo algoritmo y se alimente con los mismos datos para aprender cosas diferentes en pruebas de entrenamiento separadas?

Como estudiante que realiza un curso de algoritmos de aprendizaje automático, ¿en qué debe centrarse el objetivo principal para maximizar el conocimiento aplicable al final del semestre?

¿Cuál es un buen conjunto de datos para probar mi clasificador vecino más cercano K?

¿El análisis de sentimientos basado en léxico se considera un método no supervisado?

¿Cuáles son las cosas básicas que debe saber un ingeniero informático antes de aprender sobre ciencia de datos y aprendizaje automático?

¿Dónde puedo obtener más información sobre los métodos y algoritmos informáticos que coinciden y resumen diferentes partes del texto?

¿Cuáles son las relaciones entre el aprendizaje automático, el aprendizaje profundo, el aprendizaje supervisado y el aprendizaje no supervisado?

¿Qué tan buenas son mis posibilidades de conseguir un trabajo de científico de datos con un doctorado en el campo de la visión por computadora?

¿Qué aplicaciones prácticas ve para ejecutar los modelos TensorFlow en un teléfono inteligente?