¿Cómo analizan los algoritmos de aprendizaje automático y los algoritmos basados ​​en léxico las palabras coloquiales en un análisis de sentimientos de Twitter?

Existen en general dos categorías de análisis de sentimientos:

Métodos léxicos: estas técnicas emplean diccionarios de palabras anotadas con su polaridad semántica y su fuerza sentimental. Esto se usa para calcular una puntuación para la polaridad y / o sentimiento del documento. Por lo general, este método ofrece alta precisión pero baja recuperación.

Métodos de aprendizaje automático: tales técnicas requieren la creación de un modelo entrenando al clasificador con ejemplos etiquetados. Esto significa que primero debe reunir un conjunto de datos con ejemplos para clases positivas, negativas y neutrales, extraer las características de los ejemplos y luego entrenar el algoritmo basado en los ejemplos. Estos métodos se utilizan principalmente para calcular la polaridad del documento.

La elección del método depende en gran medida de la aplicación, el dominio y el idioma. El uso de técnicas basadas en léxico con grandes diccionarios nos permite lograr muy buenos resultados. Sin embargo, requieren el uso de un léxico, algo que no siempre está disponible en todos los idiomas.
Por otro lado, las técnicas basadas en el aprendizaje automático ofrecen buenos resultados, pero requieren obtener capacitación sobre datos etiquetados.

Ahora analizaré un ejemplo de cada una de las técnicas anteriores.

Modelo AFINN: en el modelo AFINN, los autores han calculado las puntuaciones de los sentimientos para una lista de palabras. El sentimiento de un tweet se calcula en función de las puntuaciones de los términos en el tweet. El sentimiento del tweet se define como igual a la suma de las puntuaciones de los sentimientos para cada término en el tweet. El diccionario AFINN-111 contiene 2477 palabras en inglés clasificadas para valencia con un valor entero entre -5 y 5. Las palabras han sido etiquetadas manualmente por Finn Arup Neilsen en 2009-2010. Algunas de las palabras son las versiones gramaticalmente diferentes de la misma raíz, por ejemplo, ‘favorito’ y ‘favoritos’ se enumeran como dos palabras diferentes con diferentes puntuaciones de valencia.

Una implementación del modelo AFINN se puede encontrar aquí.

Clasificador Naive Bayes: El clasificador Naive Bayes puede entrenarse en un corpus de tweets etiquetados (+ ve, -ve, neutros) y luego emplearse para asignar polaridad a un nuevo tweet. Las características utilizadas en este modelo son las palabras o bi-gramos con sus frecuencias en las cadenas de tweet. Es posible que desee conservar o eliminar URL, emoticones y tokens cortos según la aplicación.

Si f = (f1, f2, f3,…, fn) [matemáticas] f = (f1, f2, f3,…, fn) [/ matemáticas] será el vector de las características de un tweet T [matemáticas] T [/ matemáticas ], entonces la probabilidad de que el tweet sea + ve [matemáticas] + ve [/ matemáticas] de acuerdo con la Regla de Bayes es:

p (+ ve | f) = p (f | + ve) ∗ p (+ ve) / p (f) [matemáticas] p (+ ve | f) = p (f | + ve) ∗ p (+ ve) / p (f) [/ matemáticas]

Ahora la teoría básica de la probabilidad nos dice que:

p (+ ve | f) = p (f1, f2, f3,…, fn | + ve) [matemáticas] p (+ ve | f) = p (f1, f2, f3,…, fn | + ve) [ /matemáticas]
y
p (f) = p (f1, f2, f3,…, fn) [matemáticas] p (f) = p (f1, f2, f3,…, fn) [/ matemáticas]

Naive Bayes afirma que todas las características son independientes y, por lo tanto:
p (f) = ∏ip (fi) [matemáticas] p (f) = ∏ip (fi) [/ matemáticas]
y
p (f | + ve) = ∏ip (fi | + ve) [matemáticas] p (f | + ve) = ∏ip (fi | + ve) [/ matemáticas]

Y de manera similar para −ve [math] −ve [/ math] y tweets neutrales.

Usando los valores estimados previamente de estas probabilidades, uno puede calcular la probabilidad de que un tweet sea positivo, negativo y neutral.
Cada vez que se alimenta un nuevo tweet al clasificador, predecirá la polaridad del tweet en función de la probabilidad de que tenga esa polaridad.

Aquí se puede encontrar una implementación del clasificador Naive Bayes para clasificar mensajes no deseados y no deseados.

Varios otros métodos en ambas categorías prevalecen hoy. Muchas empresas que utilizan el análisis de sentimientos emplean métodos léxicos donde crean diccionarios basados ​​en sus algoritmos comerciales y el dominio de la aplicación.
Para el análisis basado en el aprendizaje automático, en lugar de Naive Bayes, uno puede usar algoritmos más sofisticados como SVM.

Más detalles Análisis de sentimientos de Twitter por Janu Verma sobre Aprender datos con estudiantes

ML distingue entre coloquialismos y literalismos por su contexto. Obviamente, algunas palabras tienen una mayor probabilidad de requerir una segunda capa de abstracción en la capa de clasificación. Por esta razón, los métodos léxicos dependen en gran medida de una montaña de datos históricos bien categorizados y obvios.

Al final, el factor más importante en el análisis de sentimientos es lo que planea hacer con los datos. Las aserciones basura simplemente prueban para validar o invalidar esas mismas aserciones. Una afirmación útil es absolutamente crítica para el análisis de datos útiles.

Con este fin, el sentimiento y el análisis de Twitter han estado históricamente plagados de selección de datos adversos; En el acto mismo de elegir algún léxico para el análisis, o por el contrario, permitir una categoría probable de sentimiento, los resultados son terriblemente limitados.

Por el contrario, los modelos de parámetros agrupados permiten la recolección de resultados inmediatamente no identificables. En el caso del sentimiento de Twitter, esto puede ser muy útil. Usando un motor ML para clasificar aún más según la probabilidad, se puede desarrollar un núcleo promedio para el factor fudge. Con este método, se evita la fuerza bruta necesaria para el aprendizaje automático tradicional, junto con las inestabilidades del modelo estándar. Del mismo modo, sus resultados no se limitan a la relevancia del léxico y su aplicación para su grupo demográfico específico de Twitter.

Seamos honestos. Si supiera lo que estaba haciendo (es decir, tiene afirmaciones y suposiciones excepcionalmente perspicaces), un algoritmo de ML solo sería necesario para un análisis masivo que no podría ser manejado por una sola mente orgánica. Del mismo modo, el método léxico es realmente tan útil como el léxico, y los “supuestos” (por falta de una palabra mejor) con respecto a ese léxico para un vernáculo específico.

Dado que todo el punto del análisis de sentimientos es aprender lo que otras personas piensan, la selección adversa debe evitarse con mucho cuidado. En mi opinión, los datos deben agruparse en conjugados probablemente indeterminados, con un escalar asignado para representar la intensidad percibida del sentimiento. Una vez clasificados, los pares conjugados deben verificarse y compararse entre sí con un solo léxico. Esto permite la consistencia entre pares conjugados indeterminados. El factor fudge restante es una función de la diversidad del grupo mayor en general. Este último factor podría minimizarse mediante el uso de múltiples léxicos.

Solo mis 2 centavos.

Hola

Espero que puedan encontrar más detalles aquí para el análisis sentimental de Twitter.

http://www.sciencedirect.com/sci

https://pdfs.semanticscholar.org

https://www.researchgate.net/pub

http://ijcsit.com/docs/Volume%20

http://www.hpl.hp.com/techreport

http://comp.social.gatech.edu/pa

Algunos códigos:

ayushoriginal / Sentiment-Analysis-Twitter

Microsoft / azure-docs

datamungers / mood_india

More Interesting

Deseo obtener un doctorado en Ciencias de la Computación de la India y no de ninguna universidad de los Estados Unidos. ¿Será esta una buena decisión?

¿Cuánto cuesta una máquina de crioterapia?

¿Debería Facebook usar el aprendizaje automático para identificar a los usuarios con potencial de convertirse en un asesino en masa?

¿Cuáles son las aplicaciones no computacionales de las lecciones del aprendizaje automático?

¿Cuál es un ejemplo ilustrativo donde LDA y SVM dan límites de decisión diferentes?

Cómo manejar múltiples funciones usando SVM en visión artificial

¿Cuál es la diferencia entre CNN y RNN?

¿Se puede utilizar el análisis semántico latente para la clasificación de documentos?

A9: ¿Cuáles son los algoritmos utilizados para implementar sugerencias de búsqueda y recomendaciones de categoría en Amazon?

¿Cuáles son las funcionalidades clave que debe tener una biblioteca NLP mínima?

¿Cuántas de las noticias sobre IA y DL en este momento son sobre nuevas innovaciones y cuánto sobre aplicaciones? ¿Cuánto de eso es bombo? ¿Habrá una meseta pronto?

¿Cómo podemos "entrenar" sistemáticamente los algoritmos de agrupación sobre qué combinaciones de atributos / características generan en última instancia los tipos deseados de agrupaciones?

¿Se pueden usar las redes de confrontación generativas para casos no supervisados?

¿Cuál es la relación entre los modelos gráficos probabilísticos y las redes neuronales (aprendizaje profundo)?

¿Cuáles son las herramientas basadas en redes neuronales disponibles ahora para el consumidor?