¿Cómo identificar el contexto basado en la oración?

Puede usar el NER de Stanford CoreNLP para extraer entidades con nombre de sus oraciones; en sus ejemplos, reconocería que “Paul” es una PERSONA. Pero no creo que haya nada disponible en CoreNLP para capturar palabras o intenciones intencionales. Sin embargo, puede encontrar manualmente reglas que usen combinaciones NER con palabras de intención que reflejen una intención particular, y una vez que sus reglas capturen suficientes casos positivos, puede usar estos (junto con un número similar de casos “negativos” elegidos al azar del mismo cuerpo) para entrenar un clasificador de intención.

Hice algo similar para capturar las edades de las oraciones en las notas del médico. La idea era encontrar oraciones que dieran evidencia para clasificar al paciente al que se hace referencia como recién nacido, niño, adolescente, adulto, de mediana edad o anciano. No utilicé NER allí, solo busqué algunos patrones que encontré comunes en el texto, como “NN envejecido”, “NN y / o”, etc. y luego revisé todo el corpus con estas reglas hechas a mano para encontrar mis oraciones de entrenamiento Pero su caso es más difícil, por lo que los NER probablemente serían útiles.

El procesamiento del lenguaje natural es una rama de la inteligencia artificial. Utiliza la teoría de la lingüística y la programación avanzada para calcular el texto en lectura tradicional. Como hay muchos medios de interpretación en todos los aspectos de la lectura, existe una aplicación potencial que utiliza el cálculo sobre esta lectura. La oración se distingue de una computadora por una secuencia de caracteres identificados por un conjunto de caracteres. Todas las letras, números, símbolos y características gramaticales de la lectura se codifican utilizando el conjunto de caracteres. La secuencia de caracteres se vincula estrechamente con la visualización de la memoria de la computadora como una matriz de longitud finita unidimensional, con una ranura por carácter reducible a dígitos binarios. Debido a que la lectura tradicional está fuertemente basada en palabras, en oraciones contextuales y en párrafos organizados y aún más en los grandes volúmenes de literatura, las unidades de este cálculo serán palabras reconocibles. Es improbable que un análisis que use computación se reduzca a ortografía para la mayoría de los casos, excepto para el análisis fonético. Todos los aspectos de la teoría de la lingüística entran en el análisis. Esto puede incluir la estructura de la frase usando parte de la codificación del habla, tipos de palabras, descomposición funcional de oraciones, palabras y significado específicos, caracterización de sentimientos, temas lógicos y organización de lectura, o lectura específica de dominio. Por supuesto, hay muchos más, y el procedimiento exacto dentro del procesador de lenguaje natural depende de la sólida teoría de la lingüística y la capacidad de programación avanzada en un lenguaje de computadora. Este lenguaje de computadora debe ser escalable y poseer una biblioteca desarrollada y verificada de algoritmos, estructuras de datos y sistema de tipos y flujo de control.

Según su pregunta, parece que desea utilizar algún tipo de herramienta de comprensión semántica que identifique todas las preguntas de ejemplo como iguales o similares y devuelva la misma respuesta o una respuesta similar. Para el modelado a nivel de documento, que puede proporcionarle similitudes semánticas, intente mirar el vector de párrafo ( https://cs.stanford.edu/~quocle/ …). Gensim tiene una buena implementación y podría utilizarla para encontrar vectores similares y preguntas similares y asignarlas a las mismas respuestas.

More Interesting

¿Cuáles son las mejores medidas al validar de forma cruzada un modelo para determinar qué tan bueno es el modelo y cómo funcionará en situaciones reales?

¿Qué marco de trabajo en el aprendizaje automático puede manejar grandes conjuntos de datos?

Si no escalo las características antes de aplicar el descenso de gradiente, ralentizará la convergencia, pero ¿puede cambiar los resultados?

¿En qué tipos de problemas de regresión son comparables las redes neuronales, las máquinas de vectores de soporte, los bosques aleatorios y las redes neuronales profundas? ¿La superioridad de los métodos depende del tamaño del entrenamiento?

¿Existe un concepto de API semántica - API que acepta oraciones simples como consultas?

¿Cómo funcionan los motores de recomendación?

Cómo etiquetar objetivamente objetos con etiquetas que son subjetivas, en sistemas expertos

¿Dónde debo comenzar si quiero escribir un algoritmo de etiquetado y clasificación de oraciones?

¿Qué es la precisión en el aprendizaje automático?

¿Hay un grupo de investigadores trabajando en la síntesis de texto EEG (conversión de pensamiento a texto)?

¿Qué opinas sobre el software de gestión del tiempo AI?

¿Cuáles son las desventajas de [math] abs (x) [/ math] como función de activación en redes neuronales?

¿Cómo se almacenan la mayoría de los conjuntos de datos para el aprendizaje automático a gran escala?

¿Qué importancia tienen las estructuras de datos y los modelos gráficos para el aprendizaje automático?

¿Qué métodos de aprendizaje automático lo llevarán al top 10 de las competencias de kaggle?