¿Qué tipo de algoritmo de aprendizaje profundo utiliza IBM Watson para la clasificación del lenguaje natural? ¿Utiliza CNN o RNN?

No conozco los hechos, pero esto obviamente no es CNN …

Convolutional NN es adecuado para el reconocimiento de imágenes. Mientras que, Recurrent NN es para la entrada secuencial como palabras, señales de audio, etc.

Cuando usa la Clasificación del lenguaje natural, probablemente se refería a la Clasificación del texto porque el texto es la etapa final del Procesamiento del lenguaje natural (PNL). Puede obtener texto de Reconocimiento de voz, que también es PNL.

Entonces su texto es el conjunto de palabras. Puede clasificar su texto suponiendo que sus palabras no están relacionadas entre sí, este es el método Naive Bayes (después de la vectorización como TF-IDF).

Si supone que existe la secuencia entre la palabra y la palabra anterior y otras palabras, entonces obtiene HMM (modelo oculto de Markov), que es la base de los RNN. Y, por cierto, RNN es la especificación donde tiene arquitecturas como LSTM, etc. Así que solo google 🙂

Sabr

Lo más probable es que los usen a ambos. CNN se puede usar para extraer características de nivel de caracteres que luego RNN puede usar para diversas tareas de PNL.

Mi respuesta es clara y la implementación es desafiante.

More Interesting

¿Se utiliza el álgebra abstracta y el análisis real en el aprendizaje automático? Si es así, ¿cómo se usan?

¿Qué tipos de algoritmos de aprendizaje automático se utilizan para resolver algunos problemas populares del mundo real?

¿Es más fácil construir un vehículo autónomo que un sistema de traducción automática a nivel humano?

¿Puede un ML / AI aprender a pasar captchas?

¿Por qué Bayes ingenuo se considera un modelo generativo?

Para un problema de clasificación (dos clases), ¿es mejor usar dos salidas con softmax o una salida con entropía cruzada binaria?

¿Cuándo y dónde se usaron por primera vez los términos 'aprendizaje profundo', 'aprendizaje automático', 'ciencia de datos'?

¿Cuántas muestras de entrenamiento se necesitan para obtener un modelo confiable en ML?

¿Es posible darle a una computadora millones de imágenes de varios objetos, y se da cuenta de que hay cosas como animales, platos de cocina, montañas, etc. sin que nosotros lo digamos, y cómo se hace esto exactamente?

¿Qué es el modelado de mezclas gaussianas?

¿Qué nuevas empresas están buscando actualmente científicos de datos?

¿El aprendizaje no supervisado es la clave de la inteligencia artificial general?

Proyectos para el procesamiento del lenguaje natural y herramientas de lenguaje para un lenguaje índico

Los algoritmos de ML escritos en Java funcionan bien para un conjunto de datos más pequeño. Para un conjunto de datos grande, ¿cómo podemos escalar estos algoritmos? ¿Necesitamos buscar algoritmos distribuidos / mapas distribuidos en memoria / NOSQL / archivos para leer y escribir grandes conjuntos de datos o hay alguna buena API?

¿Cuál es la diferencia entre Hidden Markov Chain y Markov Chain?