La red neuronal es básicamente parte del aprendizaje automático, algunas veces también se interpreta como aprendizaje profundo que se utiliza para problemas de clasificación y regresión. La idea de Artificial proviene del modelo de neurona física de nuestro cerebro.
La figura anterior muestra la relación entre el modelo físico y computacional de la neurona.
- ¿Debería haber un límite en la tecnología y la automatización, especialmente en IA, que emociona la mente humana y desafía la existencia humana física?
- ¿Qué videojuego ha desarrollado el sistema de inteligencia artificial más avanzado?
- ¿Cuánto de la canción escrita de AI 'Daddy's Car' es realmente el producto de AI?
- ¿Qué es computacionalmente difícil en la automatización de juzgar las coincidencias de esgrima de aluminio?
- ¿Es una buena idea utilizar un algoritmo de aprendizaje automático para imputar valores perdidos en un conjunto de entrenamiento?
La figura A-> representa el modelo de neurona física que acepta señales de la dendrita y proporciona información de su parte del axón.
Fig. B-> Representa el modelo computacional exacto de la Fig. A, hay algunas entradas, por ejemplo x1, x2, x3 …..xn, se combinan y se utiliza alguna función de transformación para dar cierta salida.
Fig. C-> Nuevamente llegando al modelo físico. Ahora se toman entradas de las neuronas que se recogen de la dendrita y luego la señal se pasa a otra neurona. Diferentes señales pueden tener diferente fuerza.
Fig. D-> Representa el modelo básico de Redes Neuronales Artificiales. Contiene capas ocultas diferentes capas ocultas están conectadas a través de algunos pesos para dar a las entradas su contribución en las salidas.
La figura anterior muestra el modelo de redes neuronales artificiales.
En esta figura le damos a nuestro modelo algunas entradas x1,…, x4, estas son básicamente características utilizadas para la predicción. Ahora esta capa de entradas se conoce como capa de entrada. Luego viene la capa de neuronas que no es ni entrada ni salida, se conoce como capa oculta . Entonces, todas las entradas están conectadas a todas las neuronas de la capa oculta a través de algún tipo de peso. Ahora puede haber un número diferente de capas depende de la complejidad del problema. Las funciones de transformación entre capas se utilizan para obtener las salidas deseadas, por ejemplo, si queremos que los valores estén entre 0 y 1, podemos usar la función sigmoide (solo un ejemplo).
Ahora las capas ocultas actúan como entrada para la capa de salida, estas también están conectadas de la misma manera que se explicó anteriormente. ¿Cómo se lleva a cabo el aprendizaje?
A medida que obtenemos el resultado calculamos el error, estas funciones de error se conocen como funciones de costo. Estas funciones de costo se usan para ajustar los pesos usando diferentes técnicas como SGD o simplemente descenso de gradiente. Esta técnica de ajustar pesos al propagar nuestro error hacia atrás desde la salida a la entrada se conoce como propagación hacia atrás. Así es como se lleva a cabo el aprendizaje.
Los ANN tienen diferentes aplicaciones en el procesamiento de imágenes, pronósticos, problemas de clasificación, etc.
Avísame si necesitas más explicaciones.