No en realidad no.
La red neuronal recurrente es una tecnología antigua, pero los avances recientes se deben al progreso en los algoritmos, no en la CPU y la GPU.
LSTM
- ¿Cómo puedo encontrar una incrustación plana de un gráfico plano?
- ¿Qué es el retroceso en un diseño de algoritmo?
- ¿Cuál sería el impacto económico de un algoritmo de compresión tan eficiente como el representado en Silicon Valley?
- Cómo construir un algoritmo para un dron que debería aprender de sus comentarios
- ¿Dónde se puede encontrar una foto y detalles biográficos de Burton Howard Bloom, inventor del filtro Bloom?
Para el reconocimiento de voz, OCR, traducción automática y lectura de labios, cada avance reciente se basa en la red neuronal recurrente LSTM (memoria a largo plazo a largo plazo).
LSTM se introdujo por primera vez en 1997 por Sepp Hochreiter y Jürgen Schmidhuber. Pero la versión actual utilizada es la versión de Felix Gers en 2000.
Red de confrontación generativa
Para la síntesis de imagen, síntesis de video, síntesis de audio, cada avance reciente se basa en el enfoque de red de confrontación generativa, presentado por Ian Goodfellow en 2014.
Todo se trata de progreso alorítmico.
AlphaGo Zeo está utilizando un procesador MENOS que AlphaGo Lee (y MENOS datos). Para un resultado mucho mejor (AlphaGo Zeo puede derrotar a AlphaGo Lee 100 a 0).