Deep Learning (DL) ya se está utilizando en sistemas de procesamiento de lenguaje natural y también en datos estructurales (regulares).
No, no es una moda sino un gran avance. Vamos a verlo de esta manera. La teoría de DL estuvo allí durante mucho tiempo y la gente sabía que se podía hacer mucho. Pero, el gasto computacional lo hizo prohibitivo. DL implica muchas multiplicaciones de matrices que requieren núcleos tontos (sumadores) y los sistemas de GPU multinúcleo masivos nos han permitido aprender.
- DL es importante ya que puede ayudarnos a aprender funciones complejas no convexas de los datos. La mayoría de las técnicas de redes no neurales hicieron aproximaciones de funciones convexas.
- Además, hay muchos datos que requieren ingeniería de características y, a veces, se estaban volviendo prohibitivos. Deep Learning también ha permitido minimizar el esfuerzo.
Me gustaría saber qué quiere decir con tecnologías de consumo disruptivas.
- ¿Qué sonidos vocales se deben grabar para crear una funcionalidad similar a SIRI de habla inglesa?
- ¿Cuál es el ejemplo más sofisticado o impresionante de IA desarrollado hasta ahora?
- ¿Qué significa el peso en términos de redes neuronales?
- ¿Qué tipo de lenguaje de programación es particularmente útil para construir robots con IA?
- ¿Cuáles son los mayores obstáculos para crear un AGI o incluso un ASI?