Sin una función de activación no lineal, la red neuronal está calculando combinaciones lineales de valores, o en el caso de una red profunda, combinaciones lineales de funciones lineales (es decir, líneas). Tenga en cuenta que una combinación lineal de líneas es nuevamente una línea. Por ejemplo, agreguemos un par de funciones lineales juntas gráficamente (sumando los valores ‘y’ para cada valor ‘x’):
+
- ¿Es AI y ML el fin de la inteligencia empresarial?
- Yo cuantificado: ¿Podría registrar / registrar toda la vida / historia de uno con un registrador de vida ayudar a entrenar la tecnología de IA?
- ¿Cómo afecta la perspectiva de Inteligencia General Artificial y Súper Inteligencia Artificial a su forma de pensar y sentir?
- ¿Cuáles son los principales factores que inhiben el desarrollo de una IA fuerte?
- ¿Qué IA disponible (asistente virtual, aplicación) es la más efectiva para ayudar con la investigación y el aprendizaje en línea?
=
Acabamos de crear una nueva función lineal. Nada cualitativamente nuevo aquí.
Supongamos, en cambio, que usa unidades lineales rectificadas. Luego tiene combinaciones lineales de ReLU, como esta:
+
=
Tenga en cuenta que el resultado no es una sola línea ni una sola ReLU. Así que hemos creado algo cualitativamente diferente al agregar las dos ReLU juntas. Puede imaginar posibilidades similares agregando combinaciones lineales de otras funciones juntas, como las funciones tanh o sigmoide. El punto es que podemos construir modelos completamente diferentes (no lineales) de esta manera. Entonces, la introducción de la no linealidad extiende los tipos de funciones que podemos representar con nuestra red neuronal.
(Si cree que puedo mejorar esta respuesta, hágamelo saber).