La sugerencia de Ian Goodfellow de suavizar etiquetas es en realidad muy práctica y teóricamente fundada. Si la verdadera etiqueta de clase era 1, enseña convicción; sin embargo, una etiqueta suavizada de 0.9 o más se dirige suavemente hacia la verdad fundamental creída y es más fácil de recuperar si se etiqueta falsamente.
Por otro lado, un estudio de Google Brain titulado ” Quién dijo qué: modelar etiquetadoras individuales mejora la clasificación ” trata exactamente este tipo de situación. Prueban si un clasificador MNIST se ajustará si las etiquetas están dañadas aleatoriamente por un porcentaje. Observan que se produce una pérdida de validación catastrófica (riesgo real aproximado) si el% 80 de los datos está mal etiquetado. Sin embargo, sorprendentemente muestran que incluso cuando la mitad de las etiquetas están dañadas, el modelo realiza más del 90% con precisión en el conjunto de validación. Esto muestra que las redes pueden pasar por alto los datos de la etiqueta cuando tienen motivos para hacerlo.
- ¿Cómo se puede usar la IA en campañas políticas?
- ¿Alguien puede resumir en base a sus experiencias sobre qué técnicas de aprendizaje automático se adaptan a qué problema?
- ¿Cuál es la diferencia entre una red de creencias profundas (DBN) y una red neuronal recurrente (RNN)?
- ¿Puede AI construir bibliotecas de etiquetas para literatura científica?
- ¿Cuáles son las aplicaciones económicas de un sistema de inteligencia artificial equivalente al percentil 50?
El objetivo principal de este estudio fue modelar a cada clínico que contribuyó a un diagnóstico (por ejemplo, etiqueta de clase para una imagen médica) y aprender cada modelo clínico por separado (tener tantas capas de salida de softmax como médicos) solo para colapsar sus predicciones en tiempo de prueba (denominado DoctorNet). La práctica habitual en el etiquetado de datos médicos es el voto mayoritario después de un etiquetado ciego de varios médicos (el voto mayoritario colapsa los datos incluso antes de la capacitación y posiblemente pierde información valiosa) o la resolución de disputas entre los médicos que causó la discrepancia en la etiqueta de datos en primer lugar ( en lugar de votar, esto es muy costoso y solo se hace para mantener el conjunto de pruebas para una precisión absoluta). El último induce una mayor confianza en las etiquetas donde el primero es más barato y funciona como un conjunto implícito (¿impulsar?).
Si tiene fuentes separadas de etiquetas de datos, puede considerar este esquema.
El estudio mencionado: https://arxiv.org/pdf/1703.08774…