¿Se puede enseñar a una red neuronal a ignorar condicionalmente ciertas entradas?

Sí, establezca las entradas irrelevantes en cero manualmente porque para que el sistema aprenda eso por sí solo, se necesitarían muchos datos de entrenamiento. Incluso para conjuntos de datos extremadamente grandes, algunas entradas irrelevantes son difíciles de eliminar con solo un proceso de aprendizaje de extremo a extremo.

Por ejemplo, al aprender a reconocer a los animales, los animales casi siempre se ven en el césped, por lo que la red neuronal convolucional (convNet) puede aprender a asociar el césped a los animales, por lo que a veces, incluso cuando los animales no están allí, el convNet puede buscar el pasto verde y las posibilidades son que podría “pensar” que los animales están allí incluso cuando solo es hierba.

Por lo tanto, a veces es importante enmascarar las entradas irrelevantes ajustándolas deliberadamente a cero cuando se entrena una red neuronal. La atención también es otro mecanismo que permite al sistema aprender a mejorar las entradas relevantes y suprimir las entradas de fondo (irrelevantes). Aunque la atención suave con el softmax es computacionalmente costosa.

Espero que esto ayude.

Si. Este problema surge con bastante frecuencia en las imágenes médicas (solo desea enfocarse en una parte específica de la imagen e ignorar el resto) y la traducción (la traducción de una palabra determinada solo depende de un subconjunto muy pequeño del documento de entrada).

En estos casos, es probable que algún tipo de mecanismo de atención ayude aquí. Una de las obras citadas con frecuencia es [1409.0473] Traducción automática neuronal mediante el aprendizaje conjunto para alinear y traducir. Básicamente, dada la entrada, calcule algún vector de contexto que parametrice una distribución softmax sobre la entrada, luego tome el producto de punto con la entrada para obtener una “visión de la atención”.

En aplicaciones como la traducción en las que debe asistir varias veces de forma secuencial (por ejemplo, para calcular la máscara de ignoración condicional para cada salida), es muy útil tener el contexto para que la salida [math] t [/ math] dependa del vector de contexto para salida [matemática] t-1 [/ matemática].

Si esto es posible. He trabajado en el problema de la generación del lenguaje natural usando LSTM RNN.
Lea este excelente trabajo: Comprender las redes LSTM

More Interesting

Cómo explicar los peligros de la inteligencia artificial a mis amigos no técnicos

¿Cuál es la diferencia entre un investigador de aprendizaje automático y un ingeniero de aprendizaje automático en términos de contribución?

¿Para qué sirve la extracción de características cuando puedo pasar una imagen completa a través de un clasificador de aprendizaje automático?

Inteligencia artificial: ¿Qué tan difícil sería crear una criatura robot de la vida real con la IA y la capacidad de entrenamiento de la criatura Blanco y Negro?

¿Están adoptando el lenguaje sánscrito los ingenieros para programar PNL (proceso de lenguaje natural) e IA (inteligencia artificial)?

¿Cuáles son los tipos de cámaras que se usan en los robots?

¿Por qué la arquitectura ARM no es adecuada para el aprendizaje automático?

¿Cuáles son algunos de los problemas abiertos bien definidos en IA, robótica y ML?

¿Por qué se crean estados / países autónomos?

Cómo comenzar a aprender inteligencia artificial y construir una aplicación de inteligencia artificial real usando Python o Java

¿Qué es el aprendizaje por refuerzo y por qué es difícil?

Cómo aprender IA en India después del 12

En informática, ¿cuál de estos se considera más difícil, la construcción de compiladores o la inteligencia artificial?

¿Cuáles son algunos buenos recursos para aprender sobre algoritmos genéticos y evolutivos?

Militar: ¿Por qué no reemplazan la línea del frente con robots?