Como uno de los primeros practicantes de inteligencia artificial y reconocimiento de voz, ¿qué piensa James Baker del rumor en torno al aprendizaje automático y la ciencia de datos en la década de 2010?

Creo que el progreso reciente en el aprendizaje automático, especialmente el aprendizaje profundo implementado en GPGPU (unidades de procesamiento de gráficos de propósito general), representa un avance significativo.

En particular, en el reconocimiento de voz, el aprendizaje profundo es un avance moderado pero constante en el rendimiento mejorado. Es una mejora dramática por un corto período de tiempo. Lo describo como “moderado” solo en comparación con el progreso acumulado total anterior durante tres décadas y con la cantidad de cálculo que requiere.

Retrasa órdenes de magnitud detrás del modelado estocástico oculto en el rendimiento por cantidad de cómputo. Eso es menos importante para la implementación en GPGPU, pero creo que hay una oportunidad para avances adicionales al crear la tecnología híbrida adecuada. El híbrido correcto debería ser capaz de seguir una curva de compensación precio / rendimiento para obtener un rendimiento aún mayor. Eso también puede ser cierto en otros campos.

El aprendizaje profundo es especialmente sobresaliente en su amplitud de aplicación y facilidad de personalización para un campo determinado. Ha batido récords en punto de referencia tras punto de referencia.

El aprendizaje profundo ha sido capaz de superar el rendimiento previo del estado del arte utilizando poco o ningún conocimiento específico del dominio. Creo que es un gran logro intelectual. Sin embargo, también creo que es una oportunidad para nuevos avances cuando aprendemos cómo incorporar mejor el conocimiento interpretable humano.

Aunque los modelos de procesos estocásticos ocultos también son conocidos por su capacidad de entrenar con entrenamiento automático desde un inicio plano, necesitan mucho más conocimiento específico del dominio suministrado por el ser humano que las redes neuronales profundas (DNN). Aunque el trabajo previo con modelos de procesos estocásticos ocultos ha enfatizado la capacitación totalmente automática, es fácil incorporar mucho más conocimiento suministrado por el ser humano. Por ejemplo, contrariamente a la sabiduría convencional, hace treinta años, Dragon Systems pudo implementar el aprendizaje de una sola vez en el modelado oculto de procesos de Markov. Creo que estas propiedades del modelado oculto de procesos estocásticos lo harán aún más complementario a los DNN.

En cualquier caso, el aprendizaje profundo mejora y mejora a medida que hay más datos disponibles. Eso significa que el rendimiento continuará mejorando incluso sin avances tecnológicos adicionales.

El futuro se ve muy brillante.

Gracias por el A2A.

En particular, en el reconocimiento de voz, el aprendizaje profundo es un avance moderado pero constante en el rendimiento mejorado. Es una mejora dramática por un corto período de tiempo. Lo describo como “moderado” solo en comparación con el progreso acumulado total anterior durante tres décadas y con la cantidad de cálculo que requiere.