En aras de la sencillez, lo probé en la aplicación Backpropagation en Google Play.
Puede probarlo usted mismo, la plantilla es “identidad”.
Para una entrada válida, debe ingresar el conjunto de entrenamiento como decimal entre 0.0 y 1.0.
- ¿Qué es más beneficioso para la comprensión general de la informática, el procesamiento del lenguaje natural o la teoría de la computación?
- ¿Cómo se puede utilizar el aprendizaje automático para la metabolómica?
- ¿Qué campos están siendo afectados por el progreso de la investigación en el procesamiento del lenguaje natural?
- ¿Por qué usar Kohonen SOMs sobre K-means, o viceversa?
- ¿Es útil el modelo jerárquico bayesiano en la industria o las finanzas?
- Agregar muestras de entrenamiento
- Haz el entrenamiento. Esto es trivial, lleva unos pocos milisegundos.
- ¡Prueba! 0.3 =?
¿No es lo que esperabas? Tal vez debería ser un número inferior a 42. Deberíamos decirle eso a la red, de lo contrario pensará que 42 es el número más bajo posible.
- Rehacer conjunto de entrenamiento y aprendizaje
Ahí tienes!
- Prueba de nuevo 3
0.04. ¿Mejor? Quién sabe.
El trabajo de la red es trazar una línea entre las muestras, si no hay una línea que se ajuste a todos los datos, se volverá loco.
En una red entrenada para encontrar curvas, dice algo a lo largo de 18.5683200.
En un algoritmo que intenta permutaciones de fórmulas matemáticas hasta encontrar una que se ajuste a la relación es f (x) = x * (x + 1), entonces es 12. Es una curva parabólica, por lo que explica por qué la línea ANN se volvió loca pero el buscador de curvas ANN se acercó bastante.
Las redes neuronales artificiales son las más adecuadas para distribuciones naturales o estructuras jerárquicas.
Un concepto fundamental a tener en cuenta al considerar las redes neuronales es que nunca dan el resultado exacto, sino una aproximación muy cercana, a menos que pregunte exactamente las muestras de entrenamiento que utilizó.