Hagamos Dense primero:
Las imágenes hacen una gran diferencia en muchas definiciones abstractas de IA. Mira la primera foto a continuación.
A continuación se muestra una imagen de una red de feedfoward.
- ¿Qué sería más beneficioso para un estudiante de tercer año de ECE, hacer aprendizaje automático u otros cursos?
- Conjuntos de datos: ¿Cuáles son los principales corpus de texto utilizados por los lingüistas computacionales y los investigadores del procesamiento del lenguaje natural, y cuáles son las características / sesgos de cada corpus?
- Cómo elegir el mejor kit de desarrollador de sistemas integrados para el proyecto My Image Processing y Machine Learning
- ¿ISRO utiliza una inteligencia artificial?
- ¿Cuál es un ejemplo de un sistema, proceso o actividad que no puede ser modelado por un proceso de decisión de Markov?
En este tipo de arquitectura, solo se permite una conexión entre dos nodos desde los nodos en la capa i hasta los nodos en la capa i + 1 (de ahí el término feedforward ; no se permiten conexiones hacia atrás o entre capas). NOTA: Todas las flechas se mueven en una dirección.
Lo que Nathan escribió es genial: “Una capa densa es una capa totalmente conectada , ya que todas las neuronas de la capa anterior están conectadas a todas las neuronas de la capa siguiente . ”
La imagen a continuación va hacia adelante (mira esas flechas), que se mueve de entrada a salida y está densamente conectada , es decir, todas las conexiones que se mueven de izquierda a derecha se tocan entre sí.
Si tiene la oportunidad, consulte mi curso GRATUITO sobre las bibliotecas principales de aprendizaje automático en Python. Es muy básico y creo que es una gran referencia para principiantes.
Las 5 mejores bibliotecas de aprendizaje automático en Python – Udemy
Okay. Ahora hablemos de abandonar. A continuación tenemos una topología densamente conectada. Todas las capas se mueven hacia adelante y se conectan entre sí. Ahora, mira las neuronas a continuación con líneas punteadas . Han sido abandonados .
La deserción es una técnica en la que las neuronas seleccionadas al azar se ignoran durante el entrenamiento. Se “abandonan” al azar.
Esto significa que su contribución a la activación de las neuronas posteriores se elimina temporalmente en el pase directo y no se aplica ninguna actualización de peso a la neurona.
El efecto es que la red se vuelve menos sensible a los pesos específicos de las neuronas. Esto a su vez da como resultado una red que es capaz de una mejor generalización y es menos probable que sobreajuste los datos de entrenamiento.