Sí, establezca las entradas irrelevantes en cero manualmente porque para que el sistema aprenda eso por sí solo, se necesitarían muchos datos de entrenamiento. Incluso para conjuntos de datos extremadamente grandes, algunas entradas irrelevantes son difíciles de eliminar con solo un proceso de aprendizaje de extremo a extremo.
Por ejemplo, al aprender a reconocer a los animales, los animales casi siempre se ven en el césped, por lo que la red neuronal convolucional (convNet) puede aprender a asociar el césped a los animales, por lo que a veces, incluso cuando los animales no están allí, el convNet puede buscar el pasto verde y las posibilidades son que podría “pensar” que los animales están allí incluso cuando solo es hierba.
Por lo tanto, a veces es importante enmascarar las entradas irrelevantes ajustándolas deliberadamente a cero cuando se entrena una red neuronal. La atención también es otro mecanismo que permite al sistema aprender a mejorar las entradas relevantes y suprimir las entradas de fondo (irrelevantes). Aunque la atención suave con el softmax es computacionalmente costosa.
- ¿Uso de la IA en la teoría del control?
- ¿Cuáles son las medidas cuantitativas de progreso en inteligencia artificial?
- ¿Deep Learning anuncia el comienzo de la singularidad tecnológica?
- Con toda esta charla sobre IA y aprendizaje profundo, ¿los bots sufrirán el síndrome HAL 9000?
- ¿Cuál es el próximo tema candente en el aprendizaje automático?
Espero que esto ayude.