Olvidemos las redes neuronales por ahora.
Para un problema Y de dos dimensiones, el gráfico se ve así.
- ¿Puede una computadora usar inteligencia artificial para vencer al 'mejor' jugador de póker siempre?
- ¿Neo4J es literalmente gratis?
- ¿Eres optimista o pesimista sobre los rápidos avances en IA?
- ¿Cómo cambiará AI el desarrollo web en el futuro?
- ¿Cómo haría alguien para crear 'The Machine' a partir de una persona de interés?
Cuando u1 es 1 y u2 es 1, la salida es 1 y en todos los demás casos es 0, por lo que si desea separar todos los ceros dibujando una sola línea, simplemente dibuje la línea como en el gráfico. ¿Derecho?
Formalmente,
Esta clase se puede separar con una sola línea L. Se conocen como patrones linealmente separables . La separabilidad lineal se refiere al hecho de que las clases de patrones con el vector n- dimensional
se puede separar con una sola superficie de decisión .
O simplemente si puede dibujar un hiperplano (aquí una línea) para separar las dos clases.
Así es como funciona el perceptrón, dibuja un límite para separar todos los 1s de 0s. Cuando se entrena el perceptrón, se ajustará el valor de los pesos para formar la línea que se muestra. Dado que la salida de perceptron es una función lineal, las dos clases deben ser linealmente separables para que la red perceptron funcione correctamente. En n dimensión, si puede dibujar un hiperplano para separar los 1s de 0s, entonces puede usar perceptrones para resolver ese problema.
Veamos que pasa con el problema XOR
Ahora intente dibujar una línea para separar todos los 1 de todos los 0. ¿Puedes hacer esto? No puedes Necesitas dibujar otra línea. Es por eso que no podemos usar perceptrones, tendremos que usar múltiples perceptrones para dibujar varias líneas. XOR no es linealmente separable