El aprendizaje iterativo del peso de la conexión neural utilizando la regla de Hebbian en una unidad lineal (perceptrón) es asintóticamente equivalente a realizar una regresión lineal para determinar los coeficientes de la regresión. (Hay una prueba matemática difícil para eso).
Para el conjunto de datos IRIS, tendría unidades con 4 entradas para las 4 características (pétalo / sepal largo / ancho).
Dado que la variable dependiente (etiqueta / categoría) en el conjunto de datos IRIS es simbólica, no numérica, debe hacer alguna adaptación, por ejemplo, usar una neurona diferente para cada una de las 3 categorías (versicolor, setosa, virginica).
Luego, puede seleccionar la categoría para la cual la unidad correspondiente tiene un mayor rendimiento (o usar conexiones laterales inhibitorias recurrentes del ganador se lleva todo).
Para aprender, aplica la regla de aprendizaje hebbiana: delta (wij) = -k * err * wij, donde err será 0 si la unidad es el ganador y 1 si la unidad no es el ganador. k es la tasa de aprendizaje (por ejemplo, .1, .01, .001). wij es la contribución actual de cada peso al error.
Tenga en cuenta que si las categorías no son linealmente separables, es mejor usar el aprendizaje Back-Prop, que en realidad es solo una generalización del aprendizaje hebbiano para unidades no lineales (y redes de varias capas).
- ¿Cuáles son las formas en que el científico de datos indio que actualmente trabaja en una empresa de aprendizaje automático con sede en India inmigra a los Estados Unidos?
- ¿Qué significan las hipótesis finita e infinita en el aprendizaje automático? Cuáles son las diferencias entre ellos?
- ¿Cuántas imágenes se requieren para las redes adversas generativas (GAN)?
- ¿Por qué la inferencia exacta en una red bayesiana es intratable?
- ¿Qué tan útil es un trabajo cuantitativo en Goldman Sachs para un doctorado posterior en Machine Learning?
Comúnmente, para las tareas de predicción, puede / debe probar diferentes algoritmos basados en redes neuronales y redes no neuronales (p. Ej., Simple vecino más cercano y variantes, árboles de decisión) y elegir el mejor. O combinarlos.