Aquí está mi respuesta copiada de ¿Podría alguien explicar cómo crear una red neuronal artificial de una manera simple y concisa que no requiera un doctorado en matemáticas?
Cuando aprende a leer, primero tiene que reconocer letras individuales, luego combinar letras en palabras, luego palabras en oraciones. Cuando eres bueno leyendo, por ejemplo, inglés, es fácil reconocer palabras directamente sin siquiera pensar en las letras. En fcat, puedes criar fácilmente wrods jmubled.
Las redes neuronales están diseñadas para hacer lo mismo. Una regresión logística o un árbol de decisión solo pueden ver los atributos básicos que usted introduce en el algoritmo, mientras que una red neuronal puede tener varios pasos intermedios que combinan sus atributos básicos en conceptos de nivel superior.
- ¿La IA también incluye robótica?
- ¿Necesito detener todo y aprender IA? ¿Cuánto tiempo pasará antes de que Robots tome mi trabajo como desarrollador web?
- ¿A quién le pagarían más en el campo de la inteligencia artificial (aprendizaje automático), un graduado de doctorado o un graduado de MBA?
- ¿Cuál es el estado actual de la inteligencia artificial?
- ¿Cuáles son algunos artículos disponibles sobre conexiones entre IA y cálculo lambda / teoría de tipos o razonamiento automatizado?
Entonces, ¿cómo hace esto una red neuronal? Mediante el uso del concepto de capas ocultas.
La idea es que cada nodo en la capa Oculta es una función de los nodos en la capa anterior, y el nodo Salida es una función de los nodos en la capa Oculta. Si usamos la siguiente notación:
Capa de entrada = [matemáticas] en_1, …, en_4 [/ matemáticas]
Capa oculta = [matemática] hid_1,…, hid_4 [/ matemática]
Salida = [math] out_1 [/ math]
La opción más común de función es algo como:
[math] hid_1 = [/ math] [math] tanh (a_ {11} \ cdot in_1 + a_ {12} \ cdot in_2 +… + a_ {14} \ cdot in_4) [/ math]
[math] hid_2 = [/ math] [math] tanh (a_ {21} \ cdot in_1 + a_ {22} \ cdot in_2 +… + a_ {24} \ cdot in_4) [/ math]
y así. Así que ahora el truco es encontrar el mejor conjunto de pesos (los mejores [math] a_ {ij} [/ math] ‘s). Gradient Descent [1] nos da una manera de calcular los mejores pesos si conocemos las derivadas parciales , y la retropropagación [2] nos da una forma de calcular las derivadas parciales. Combine los dos, y tendrá la implementación más común de las redes neuronales.
Las redes neuronales se pueden generalizar de algunas maneras interesantes. Una es mediante el uso de múltiples capas ocultas. En ese caso, cada nodo en la capa [matemática] i [/ matemática] se crea a partir de los nodos en la capa [matemática] i-1 [/ matemática].
[1]: descenso de gradiente estocástico
[2]: propagación hacia atrás