¡Gracias por A2A!
Supongamos que tiene dos vectores de entrada y un vector de salida que le gustaría predecir en función de los vectores de entrada. Para facilitarle las cosas, permítanos decir que existe una superficie plana que puede separar los datos de forma lineal como en la imagen a continuación:
La arquitectura de perceptron es capaz de resolver conjuntos de datos separables linealmente.
El problema surge cuando tenemos un límite de decisión y datos no linealmente separables . Como el que se muestra a continuación:
Dada la naturaleza de la arquitectura de un perceptrón, no convergerá para obtener una solución para tal problema.
- Cómo escribir una novela con una IA fuerte
- ¿Qué sucederá cuando la inteligencia artificial construya la red neuronal humana miles de millones de veces el poder de un cerebro humano?
- ¿Es ético crear inteligencia artificial que pueda tener sentimientos?
- ¿Debo consultar libros o tutoriales en línea sobre inteligencia artificial?
- ¿Cómo funciona el aprendizaje profundo y en qué se diferencia de las redes neuronales normales aplicadas con SVM?
Por lo tanto, necesitamos crear características que sean una transformación no lineal de los vectores de entrada que podrían ayudarnos a ajustar los datos con un clasificador lineal en la etapa final. Por lo tanto, utilizamos las redes neuronales de alimentación multicapa.
Ahora, ¿cómo utilizamos los pesos óptimos que podrían darnos las transformaciones no lineales de nuestros vectores de entrada ?
¿Cómo lo sabemos antes de ajustar el modelo?
Aquí usamos el concepto de BPNN. Los pesos se eligen inicialmente al azar y se calculan las salidas. Luego, después de cada iteración, calculamos el error de predicción y actualizamos secuencialmente los pesos de la capa final y las capas ocultas. Después de un número considerable de épocas, obtenemos una solución que garantiza un mínimo local para nuestra función de costos. Podemos usar el descenso de gradiente estocástico si pretendemos tener cuidado de alcanzar los mínimos globales.