En principio, las traducciones de idiomas implican dos pasos:
- Comprender y decodificar el significado del texto fuente; y
- Vuelva a codificar o escribir este significado en el idioma de destino.
Los pasos anteriores requieren fundamentalmente una comprensión del texto, lo que significa que, cuando se trata de aprendizaje automático, todo el proceso requiere la comprensión del lenguaje natural (NLU), que a su vez requiere natural Procesamiento del lenguaje (PNL). Lo que nos da la siguiente solución:
PNL -> NLU -> Traducción automática
- ¿Qué sucede cuando los robots y los sistemas autónomos ocupan completamente sus trabajos? ¿Dónde trabajará la fuerza laboral? ¿Cuál será su papel?
- Inteligencia artificial: ¿cómo podría el aprendizaje automático cambiar la composición de la música?
- ¿Qué es lo que los humanos valoran que, incluso si los robots pueden hacer, podría no ser atractivo para los humanos?
- ¿Prefieres quedarte como estás o convertirte en un cyborg?
- ¿Cómo interpretan las redes neuronales las palabras y el lenguaje humano?
Los algoritmos utilizados en NLP / NLU generalmente involucran o están dirigidos a resolver las siguientes tareas:
a) Tim Cook es CEO de Apple ->
[S [NP Tim Cook ] [VP es [ CEO de NP [PP de [NP Apple ]]]]]
b) Tim Cook es CEO de Apple ->
Tim / SP Cook / CP es / N CEO / N de / N Apple / SC
c) Tim / N Cook / N is / V CEO / N of / P Apple / N
Para cada parte, un algoritmo de aprendizaje automático puede identificar una función entre una cadena y una estructura oculta . En (a), la estructura oculta es un árbol de análisis . En (b), la estructura oculta representa los límites de la entidad nombrada ( SP = Persona de inicio, CP = Persona de continuación, SC = Empresa de inicio, N = Sin entidad). Y en (c), los estados ocultos representan etiquetas de parte del discurso ( N = sustantivo, V = verbo, P = preposición). Los algoritmos o enfoques modernos de PNL implementados para resolver las tareas anteriores se basan principalmente en el aprendizaje automático estadístico, donde los ejemplos incluyen Gramática libre de contexto probabilístico (PCFG) para generar árboles de análisis o Modelos de Markov ocultos (HMM) para identificar entidades nombradas o parte de Etiquetas de voz.
En la mayoría de los casos, los pasos (a), (b) y (c) generalmente se unen o resuelven juntos a través de una programación dinámica enfoque, donde algunos enfoques utilizan el algoritmo de Viterbi . Pero en el sentido general, el proceso implica principalmente derivar árboles de análisis para un texto agregando iterativamente bordes a un cuadro o gráfico, donde cada borde representa una hipótesis sobre la estructura de árbol para una subsecuencia del texto, y el gráfico en sí mismo representa un sustrato para componer y combinar estas hipótesis.
Para la traducción, también se requiere un proceso para la formulación de la teoría semántica . La teoría semántica, en este sentido, determina una guía hacia la comprensión, donde se identifica el significado de las palabras, frases y símbolos. Esto implica esencialmente la derivación del significado del contexto. Hay varios enfoques para esta tarea, los ejemplos incluyen semántica ingenua o modelos estocásticos . Normalmente, la decodificación semántica consiste en aplicar la regla de Bayes , por lo tanto, la mayoría de los algoritmos que se ocupan de la inferencia bayesiana se pueden aplicar (hasta cierto punto).
Dado que la traducción automática es un problema tan abierto, no hay enfoques o algoritmos “estandarizados”. Por lo tanto, la mayoría de los enfoques estadísticos de aprendizaje automático pueden modificarse, combinarse y aplicarse.