Los resultados son legítimos para reconocer palabras, para dictar. Los humanos pueden entender una oración sin escuchar cada palabra, por ejemplo, entender lo que alguien dijo en un ambiente de cóctel. Esto no significa que las computadoras entiendan tan bien como los humanos en general, aunque en casos especiales, podrían ser mejores que una persona promedio para comprender casos especializados, como tomar el informe dictado por un médico sobre un paciente y comprender qué campos en un Sistema de registro electrónico de salud para completar y con qué deben completarse. Es un avance que sugiere que las computadoras deberían ser capaces a la larga de funcionar tan bien como los humanos, si no mejor, en el reconocimiento de voz. La Alexa de Amazon, por ejemplo, puede comprenderte incluso cuando está tocando una canción porque sabe exactamente la señal de audio que transmite el altavoz y puede restarla, ¡una característica que la mayoría de los humanos no tiene!
Un inconveniente es que las soluciones de Microsoft e IBM son sistemas de investigación que pueden requerir demasiada potencia informática para implementarse prácticamente todavía.
- ¿Cuáles son los algoritmos de aprendizaje automático adecuados para Big Data o análisis en tiempo real?
- ¿Qué tipo de estructuras de datos podrían usarse en un proyecto de procesamiento de lenguaje natural?
- ¿Qué es una explicación intuitiva de los modelos de proceso gaussianos?
- ¿La correlación entre dos variables cuenta como evidencia débil de un vínculo causal entre ellas?
- Cómo hacer LDA