Para comprender qué significa la ‘matriz de peso’ en términos de redes neuronales, primero debe comprender el funcionamiento de una sola neurona, o mejor aún, un Perceptrón.
Perceptrón
- Supongamos que un atributo es un número flotante, si divido este número flotante en: mantisa, base y exponente. ¿Afectará mi clasificación en K-Means?
- ¿El robot humanoide en Ex Machina todavía se considera ciencia ficción o hay desarrollos tecnológicos en la actualidad que pueden alcanzar ese nivel de IA?
- ¿Qué pasaría si los robots de IA aprendieran a reprogramar su propio programa?
- ¿Qué pasos (en detalle) sugeriría que tome una licenciatura para adquirir experiencia en los campos de aprendizaje automático (ver detalles)?
- ¿Cómo enseña IBM el idioma español Watson?
En primer lugar, ¿qué es un perceptrón? Un perceptrón es un tipo de neurona artificial que toma varias entradas binarias x1, x2, …, xn y produce una salida binaria única. En el ejemplo que se muestra arriba, hay tres entradas x1, x2 y x3.
Para calcular una salida, esto es lo que puede hacer (O = Salida):
a) Resuma las entradas. O = x1 + x2 + x3
b) Aplicar una operación matemática lineal a las entradas. O = (x1 * x2) + x3
Para comprender el mejor enfoque posible para este problema, debemos tener en cuenta que dado que x1, x2 y x3 son entradas binarias aquí, multiplicar una o más entradas juntas puede dar como resultado una salida 0 si una de las entradas es 0. Entonces, esto indica usamos que el enfoque (b) puede tener su salida como O = x3, si x1 o x2 o ambos son iguales a cero. Si solo uno de ellos es igual a 0, esto puede conducir a una pérdida de información ya que el valor de entrada se multiplica por 0.
Ahora, veamos el enfoque simple (a), comprenda por qué es parcialmente correcto y qué podemos hacer para que sea completamente correcto. El enfoque (a) seguro tiene en cuenta todas las entradas sin que una se vea inmediatamente afectada por la otra. Sin embargo, no tiene en cuenta la importancia relativa de las entradas.
Déjame explicarte lo que eso significa.
Considere un ejemplo simple en el que desea hacer un perceptrón para predecir si lloverá hoy o no. Tiene una salida binaria como O, que puede tomar valores de 0 o 1 y entradas x1 y x2.
Sea x1 1 si el clima es húmedo hoy, 0 si es lo contrario. Sea x2 1 si lleva una camisa roja hoy y 0 si no. Podemos ver aquí que usar una camisa roja casi no tiene correlación con la posibilidad de lluvia. Entonces, una posible función de salida puede ser:
O = x1 + 0.1 * x2
Esto es lo que hace el factor 0.1 . Si x2 es 0, 0.1 * x2 sigue siendo 0, pero si x2 es 1, 0.1 * x2 será 0.1, no 1. Básicamente reduce la importancia de la entrada x2 de 1 a 0.1, y por lo tanto, se llama ‘peso’ de la entrada x2.
Considere x2 como 1 por ahora. O seguirá siendo (0 + 0.1) = 0.1 o (1 + 0.1) = 1.1, es decir, no es un valor binario. Para hacerlo uno, lo que podemos hacer es usar un ‘ umbral’ para el valor total de O. Podemos decir, como, O es 1 si (x1 + 0.1 * x2)> 1
y O = 0 si (x1 + 0.1 * x2) <1. Así hemos resuelto nuestro problema.
En general,
Y ahora haciendo algunas simplificaciones notacionales finales, decimos
Donde w = [w1 w2 w3…. wn] T, x = [x1 x2 x3…. xn] yb = – (umbral)
- b se conoce comúnmente como sesgo.
Nota: ‘T’ es la operación de transposición. Y wx es multiplicación matricial.
Y ahora puede aplicar esta comprensión a una neurona sigmoidea, o redes neuronales artificiales completas.
Dónde
Salida = 1 si {x * (peso de x) + y * (peso de y) + b}> 0,
Salida = 0, de lo contrario
¡Espero que esto ayude!