Me recuerda a mis días de universidad … mejor vistazo a 2.3.1 El Modelo McCulloch-Pitts de Neuron o Simon Haykin Neural Networks and Learning Machines (3rd Edition): Simon O. Haykin: 9780131471399: Amazon.com: Libros que el capítulo 1 dará aunque alguna explicación
Solo veamos el modelo McCulloch-Pitts para dos entradas.
- ¿Cuáles fueron los algoritmos utilizados para los chatbots antes de que surgiera el aprendizaje profundo?
- ¿Puede el desarrollador de hadoop aprender el aprendizaje automático?
- ¿Es aconsejable crear una aplicación basada en el aprendizaje automático y el procesamiento de imágenes sin comprender el concepto matemático subyacente?
- ¿Cuál es una buena manera de entender la maldición de la alta dimensión en el aprendizaje automático?
- ¿En qué problemas sería buena / mala una máquina neural de Turing?
el círculo representa el paso de suma, es decir, multiplicar las entradas x1 y x2 con los pesos w1 y w2 y sumar para dar v, que luego se alimenta a una función de umbral F (v). Ahora esta F (v) es una función que puede representarse gráficamente como
ahora digamos que queremos implementar una compuerta AND usando este modelo, entonces debemos elegir tres parámetros, es decir, w1, w2 y thresh para la función, digamos que elegimos w1 y w2 para que sean 1 y 1 respectivamente. entonces, ¿qué se debe trillar? ya que queremos implementar una lógica AND, por lo tanto, podemos elegir que la versión sea 1.2 ¿por qué? porque F (v) debe ser 1 solo cuando v es mayor que el umbral de hecho, podemos elegir cualquier umbral entre (1,2] para una compuerta AND !! como resumen se ha enumerado a continuación. Veamos qué sucede cuando cambiar la trilla a 0.9
x1 x2 deseado v = w1x1 + w2x2 F (v) F (v)
salida (y) umbral = 1.2 umbral = 0.9
o 0 0 (1) (0) +1 (0) = 0 0 0
0 1 0 (1) (0) + (1) (1) = 1 0 1
1 0 0 (1) (1) + (1) (0) = 1 0 1
1 1 1 (1) (1) + (1) (1) = 2 1 1
Parecer familiar ?
es una puerta OR! mire simplemente cambiando el umbral y decidiendo los valores para w1 y w2, ¡podríamos implementar fácilmente las puertas AND, OR! si pudiéramos aprender de alguna manera … ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡UMhhhhhhhhhhhhhhhhhhh Sin embargo, esa es otra discusión. No podemos implementar puertas como Xor con una sola neurona como mostraron Minsky y Papert (Perceptrons (libro)). Parece un poco extraño tener que calcular una trilla y pesos w1 y w2 en etapas separadas hmmm, ¡hay un buen truco para superarlo! ¡Vamos a introducir una entrada ficticia x3 que siempre tiene el valor 1, pase lo que pase! También le dará un peso w3 a esto! entonces resulta que puedes hacerlo con solo decidir w1, w2, w3 y podemos fijar la trilla a 0. El peso w3 se llama sesgo
x1 x2 x3 F (v) pesa como 1,1, -2 F (v) pesa como 1,1, -1
0 0 1 0 0
0 1 1 0 1
1 0 1 0 1
1 1 1 1 1
Sin embargo, hay muchas otras formas de ver esto, pero mirar el problema de esta manera me hizo comprenderlo mejor.