No, no hay problema en absoluto. Tampoco necesita una red neuronal profunda (una capa oculta es suficiente) y un método de descenso de gradiente real (la propagación beck hace el trabajo). Recuerde que las neuronas en la entrada y las capas ocultas tienen funciones sigmoideas no lineales. Las ganancias y los sesgos conducirán después de suficiente entrenamiento con 0s y 1s a la orientación correcta y suficiente saturación para hacer que la computación de la salida sea perfectamente binaria. Si no sobredimensiona la red, utilizando tantas neuronas y capas como necesite, incluso puede proporcionarle a una red tan capacitada un conjunto de entradas difusas, donde las premisas están en algún lugar entre 0 y 1 y bingo, obtiene salidas difusas en ¡Un sistema de inferencia de lógica borrosa!
Si sobredimensionas la red, obtienes ondas y estás condenado a la muerte eterna al usar mal una palabra de moda en ingeniería.
- ¿Cuál es el estándar de JMLR contra documentos en ICML y NIPS?
- ¿Cómo son convexos los métodos del núcleo?
- ¿Qué piensa Andrew Ng sobre Deep Learning?
- ¿Por qué y cuándo subestima 'varianza de Bayes variacional de campo'?
- ¿Cuál es la diferencia entre un contenedor y un algoritmo de filtro en Data Mining / Machine Learning?