El mayor avance, la razón detrás de la exageración actual, reside en gran medida en dos factores.
El primero es la potencia informática, como dijo Geoff Hinton:
Desde que lo inventé, este algoritmo se ha vuelto 100.000 veces más rápido. Descubrí cómo acelerarlo por un factor de 100 y las computadoras se volvieron 1000 veces más rápidas.
- ¿Cómo utiliza Google el aprendizaje automático para identificar automáticamente videos relacionados con el extremismo y el terrorismo en YouTube?
- ¿Cuál es mejor DJ Sanghvi IT o Thadomal Computer Science?
- ¿Cómo podría un pirata informático malicioso y hábil dañarme si quisiera?
- ¿Cuál es la mejor descripción laica de la informática?
- Tengo 4 años de experiencia en TI. Estoy planeando cambiar a BIG Data y Hadoop. ¿Cuáles son los pros y los contras que debo tener en cuenta?
(Cita inexacta, de memoria; Hinton está hablando de máquinas de Boltzmann restringidas)
En 2012, en la competencia anual de visión por computadora de Stanford, un investigador llamado Alex Krizhevsky y su equipo borraron registros usando GPU para entrenar sus modelos de IA. Desde entonces, las GPU se han convertido en el estándar y han dado otra vida a los algoritmos inventados hace 50 años, como las redes neuronales artificiales.
El segundo factor son los datos. Nació internet; surgieron compañías como Google y Facebook, que atienden a miles de millones de usuarios. Estas empresas generan enormes cantidades de datos. Pueden usar estos datos para entrenar IAs de manera más efectiva de lo que cualquiera hubiera soñado antes de Internet.
La mayoría de los algoritmos han existido por un tiempo. El avance ha sido el uso de potencia informática y datos masivos en combinación con esos algoritmos para crear cosas asombrosas como el reconocimiento de voz de Google y los futuros autos sin conductor.