¿Cuál es la intuición detrás de las redes neuronales?

La red neuronal es básicamente parte del aprendizaje automático, algunas veces también se interpreta como aprendizaje profundo que se utiliza para problemas de clasificación y regresión. La idea de Artificial proviene del modelo de neurona física de nuestro cerebro.

La figura anterior muestra la relación entre el modelo físico y computacional de la neurona.

La figura A-> representa el modelo de neurona física que acepta señales de la dendrita y proporciona información de su parte del axón.

Fig. B-> Representa el modelo computacional exacto de la Fig. A, hay algunas entradas, por ejemplo x1, x2, x3 …..xn, se combinan y se utiliza alguna función de transformación para dar cierta salida.

Fig. C-> Nuevamente llegando al modelo físico. Ahora se toman entradas de las neuronas que se recogen de la dendrita y luego la señal se pasa a otra neurona. Diferentes señales pueden tener diferente fuerza.

Fig. D-> Representa el modelo básico de Redes Neuronales Artificiales. Contiene capas ocultas diferentes capas ocultas están conectadas a través de algunos pesos para dar a las entradas su contribución en las salidas.

La figura anterior muestra el modelo de redes neuronales artificiales.

En esta figura le damos a nuestro modelo algunas entradas x1,…, x4, estas son básicamente características utilizadas para la predicción. Ahora esta capa de entradas se conoce como capa de entrada. Luego viene la capa de neuronas que no es ni entrada ni salida, se conoce como capa oculta . Entonces, todas las entradas están conectadas a todas las neuronas de la capa oculta a través de algún tipo de peso. Ahora puede haber un número diferente de capas depende de la complejidad del problema. Las funciones de transformación entre capas se utilizan para obtener las salidas deseadas, por ejemplo, si queremos que los valores estén entre 0 y 1, podemos usar la función sigmoide (solo un ejemplo).

Ahora las capas ocultas actúan como entrada para la capa de salida, estas también están conectadas de la misma manera que se explicó anteriormente. ¿Cómo se lleva a cabo el aprendizaje?

A medida que obtenemos el resultado calculamos el error, estas funciones de error se conocen como funciones de costo. Estas funciones de costo se usan para ajustar los pesos usando diferentes técnicas como SGD o simplemente descenso de gradiente. Esta técnica de ajustar pesos al propagar nuestro error hacia atrás desde la salida a la entrada se conoce como propagación hacia atrás. Así es como se lleva a cabo el aprendizaje.

Los ANN tienen diferentes aplicaciones en el procesamiento de imágenes, pronósticos, problemas de clasificación, etc.

Avísame si necesitas más explicaciones.

Aquí hay una imagen maravillosa encontrada en este video realizado por Luis Serrano que representa una red neuronal con 2 neuronas en la primera capa oculta, 2 neuronas en la segunda capa oculta y 1 neurona de salida. Da una buena intuición de cómo una red neuronal puede separar 2 clases (para el caso de uso de clasificación binaria).

Cada neurona realiza una combinación lineal de sus entradas y aplica una función no lineal al resultado (llamada función de activación).

El interés de la función de activación no lineal es permitir que una neurona de la siguiente capa “separe las clases con una curva y no más con una línea simple” (hipercurva / hiperplano en dimensiones superiores).

De hecho, si la función de activación estuviera ausente o lineal, toda la red simplemente aprendería / calcularía una función lineal de sus entradas y sería equivalente a una sola neurona.

Por lo tanto, las funciones de activación no lineal son elementos clave de las redes neuronales.