¿Cómo se usan las máquinas de estado finito para modelar el lenguaje?

Las aplicaciones de los autómatas estatales finitos (FSA) en lingüística han sido bastante limitadas. De acuerdo con la jerarquía de Chomsky, la FSA puede generar y consumir todas las oraciones generadas por gramáticas regulares, lo que eventualmente es equivalente a expresiones regulares. En otras palabras, para cada idioma modelado por una expresión regular, existe un FSA equivalente que puede generar y consumir (es decir, decidir ) exactamente el mismo idioma.

Las gramáticas regulares son el tipo de gramática más restringido en la jerarquía de Chomsky. La mayoría de los lenguajes de programación no pueden ser modelados por gramáticas regulares, y mucho menos algo tan flexible y complicado como los lenguajes humanos.

No obstante, una extensión de la FSA llamada Transductor de estado finito (FST) se usa en realidad en el estado del arte bastante decente en Reconocimiento de voz hace unos 10 años. Una de las aplicaciones más conocidas de FST es la biblioteca OpenFST, que luego se usa mucho en kaldi para producir muchos resultados StoA en reconocimiento de voz.

Sin embargo, eso fue antes de Deep Learning. Hoy en día, muchos sistemas de reconocimiento de voz basados ​​en DL, gracias a una gran cantidad de datos de capacitación, ya no se molestan en modelar explícitamente las máquinas de estados.