Depende de la forma en que desee activar la neurona (su comportamiento): aproximadamente (binario), linealmente (función lineal y = ax + b), más o menos suavemente (función exponencial o sigmoidea). Función sigmoidea – Wikipedia
La forma en que la curva pasa por cero permite el equilibrio entre las entradas negativas y positivas, la función de activación se utiliza para aceptar la cantidad. La segunda preocupación es la configuración de parámetros.
Debe imaginar cuán fuerte o rápida es su activación y con qué sesgo (nivel de activación). Normalmente, estos parámetros se establecen durante el paso de aprendizaje: peso de las entradas y salidas, valores de activación y coeficientes de función. Rumelhart ha creado neuronas para copiar (aprender) un proceso básico y luego no configurarlo directamente, pero puede probar XOR o funciones binarias sin la etapa de aprendizaje.
- ¿Cuál es el mejor lenguaje de programación para un bootcamp de aprendizaje automático?
- ¿Se están utilizando redes neuronales profundas para crear estrategias de fondos de cobertura / HFT?
- ¿Dónde puedo ir para averiguar cómo extraer características de un documento de texto para usar en el entrenamiento de un clasificador?
- ¿Cómo puedo explicar el hecho de que el aprendizaje por transferencia ofrece un mejor rendimiento que el entrenamiento estándar?
- ¿Qué es AdaBoost?
Ya no es un tema abierto. demasiado simple 😉 Pero se pueden hacer muchas investigaciones sobre la organización y estructura de redes neuronales y otros paradigmas de inteligencia computacional. Piensa que las redes neuronales artificiales no son plásticas y su memoria es muy limitada, no son como nuestro cerebro. Se pueden encontrar muchas soluciones simples óptimas o subóptimas sin redes neuronales.