Una idea brillante en Machine Learning es la red neuronal Hopfield Backprop, su relación con el modelo de Ising en física estadística y su implementación moderna en el aprendizaje profundo.
Con frecuencia en ciencia, los modelos simples funcionan por razones sutiles. Los ejemplos incluyen la aplicabilidad a gran escala de la Ley de Stokes, el grupo de renormalización y la invariancia de escala discreta, y el modelo de Ising. Es, en mi humilde opinión, sorprendente que un modelo tan simple tenga una aplicabilidad tan amplia, no solo en física estadística, sino en el desarrollo de algoritmos modernos de aprendizaje profundo.
Lo sorprendente del aprendizaje profundo es la capacidad de encontrar una receta de propósito general para resolver una amplia clase de problemas de optimización no lineal y, en el contexto del aprendizaje automático, resolver el problema de detectar automáticamente las características
- ¿Debemos usar el ajuste fino en redes neuronales profundas? La precisión de la clasificación es del 100%, pero después de un ajuste fino, se convierte en el 95.7%, ¿cómo llega esto?
- ¿Cuál es el alcance del aprendizaje automático en la verificación?
- Conciencia del contexto: ¿Qué es el descubrimiento de noticias anticipatorio?
- ¿Cómo es posible combinar el desarrollo web con el aprendizaje automático?
- ¿Qué debe saber un profesional de aprendizaje profundo para un hackathon?
De hecho, se ha observado que ha llevado 20 años reconocer que solo se usa una máquina de Boltzman restringida para iniciar al alumno. Este éxito parece estar relacionado con la teoría del grupo de renormalización de las transiciones de fase, que es aún más sorprendente.