La depuración de un modelo no es tarea fácil. Ciertamente no soy un experto en esto, pero creo que ayuda mucho si entiendes un poco la teoría.
Cualquiera puede arrojar datos a una máquina y ver qué sale. Pero una comprensión rudimentaria de cómo funcionan las redes neuronales profundas puede ayudarlo a trabajar mejor. Aquí hay algunas debilidades de los aprendices profundos que conozco.
- Los núcleos Sigmoid y Tanh pueden estar muy activos o totalmente inactivos demasiado rápido. Relu puede quedarse atascado en cero.
- el aprendizaje profundo utiliza la propagación hacia atrás y puede atascarse en un mínimo de error local
- Si una parte de un problema depende de otra parte, entonces puede que no tenga sentido tratar de aprender todo el problema. Por ejemplo, si los puntajes de golf de Tiger Woods dependen del clima y de una serie de otros parámetros, es posible que queramos dividir el problema en variantes para cada tipo de clima para que otros vectores no se borren por la importancia de este enormemente importante. .
- Sobreajuste
- ¿Por qué normalizamos los datos?
- ¿Cuál es la diferencia entre datos transaccionales y datos analíticos?
- ¿Alguien está haciendo capacitación en Big Data y Hadoop en DataFlair? ¿Es una buena idea hacer el curso?
- ¿Qué tendencias populares de visualización de datos odian los científicos de datos?
- Estoy planeando hacer un estudio independiente usando Machine Learning y Big Data. ¿Hay algún tema interesante como Deep learning para PNL?