¿Qué es ‘Perceptrones multicapa usando algoritmo de retropropagación’, en palabras simples?

¡Gracias por A2A!

Supongamos que tiene dos vectores de entrada y un vector de salida que le gustaría predecir en función de los vectores de entrada. Para facilitarle las cosas, permítanos decir que existe una superficie plana que puede separar los datos de forma lineal como en la imagen a continuación:

La arquitectura de perceptron es capaz de resolver conjuntos de datos separables linealmente.

El problema surge cuando tenemos un límite de decisión y datos no linealmente separables . Como el que se muestra a continuación:

Dada la naturaleza de la arquitectura de un perceptrón, no convergerá para obtener una solución para tal problema.

Por lo tanto, necesitamos crear características que sean una transformación no lineal de los vectores de entrada que podrían ayudarnos a ajustar los datos con un clasificador lineal en la etapa final. Por lo tanto, utilizamos las redes neuronales de alimentación multicapa.

Ahora, ¿cómo utilizamos los pesos óptimos que podrían darnos las transformaciones no lineales de nuestros vectores de entrada ?

¿Cómo lo sabemos antes de ajustar el modelo?
Aquí usamos el concepto de BPNN. Los pesos se eligen inicialmente al azar y se calculan las salidas. Luego, después de cada iteración, calculamos el error de predicción y actualizamos secuencialmente los pesos de la capa final y las capas ocultas. Después de un número considerable de épocas, obtenemos una solución que garantiza un mínimo local para nuestra función de costos. Podemos usar el descenso de gradiente estocástico si pretendemos tener cuidado de alcanzar los mínimos globales.

Estás pidiendo un tutorial básico sobre redes neuronales. La mayoría de los buenos tutoriales cubrirían todos los términos clave en su pregunta. Yo mismo he escrito uno.

Las redes neuronales siempre me han fascinado desde que me di cuenta de ellas en la década de 1990. Inicialmente me sentí atraído por la variedad hipnotizante de conexiones con las que a menudo se representan. En la última década, las redes neuronales profundas han dominado el reconocimiento de patrones, a menudo reemplazando otros algoritmos en aplicaciones como la visión por computadora y el reconocimiento de voz. Al menos en tareas especializadas, de hecho se acercan a imitar las proezas milagrosas de cognición de las que son capaces nuestros cerebros.

Si bien las redes neuronales son capaces de tales hazañas, el descubrimiento mismo de un método de programación de dicho dispositivo computacional es para mí, en sí mismo, una hazaña milagrosa de cognición digna de celebración. Mi propósito al escribir el artículo vinculado aquí es compartir mi perspectiva sobre la propagación hacia atrás, un algoritmo sorprendente que se hizo ampliamente conocido en una publicación de Nature en 1986.

La mayoría de los recursos que describen el algoritmo de retropropagación lo dejarán perdido en las matemáticas y la notación. Espero que mi artículo A Gentle Introduction to Backpropagation le sea de ayuda. Feliz lectura.

http://numericinsight.com/upload

Esta es la mejor respuesta simple que pude encontrar:

Fundamentos del aprendizaje profundo: comenzando con la red neuronal artificial