¿Cómo se relaciona la teoría de la información con el procesamiento de imágenes?
Las imágenes pueden considerarse como canales simples. Entonces la teoría es exactamente aplicable a las imágenes. Es útil en análisis de compresión, control de ajuste automático (por ejemplo, enfoque automático y umbral), reducción de desenfoque / ruido, reconstrucción de imágenes y algos de súper resolución (y muchos, muchos otros). En la mayoría de los casos, la entropía de la imagen proporciona métricas / estimaciones puntuales (con propiedades específicas como la invariancia de escala / permutación) para usar en estos algos.
si es útil / común expresar el procesamiento de imágenes en términos de cambiar la información asociada en las imágenes
- ¿Cuáles son algunas aplicaciones sorprendentes de Machine Learning en el mundo real?
- ¿Cuál es actualmente la mejor plataforma de casa inteligente?
- ¿Qué piensa la comunidad informática actual de Alan Kay?
- ¿Cuál es la mejor manera de controlar la temperatura de la CPU y la GPU en Windows 7?
- ¿Habrá otra arquitectura convencional después de x86 y ARM?
Obviamente. Proporciona una medida de calidad por decir lo menos.
¿Significa esto que cada filtro tiene un factor de atenuación de información asociado?
Sí, lo hace (en la representación del dominio de frecuencia de una imagen). Las imágenes tienen un valor de potencia asociado con ellas, y los filtros tienen ganancias (y factores / pérdidas de festoneado): funcionan igual que en las señales digitales.
si las imágenes A y B contienen bits X e Y, ¿cuántos bits contendrían A y B? A | ¿SI?
Estos se consideran bajo entropías condicionales y conjuntas y operaciones de información mutua.
Por ejemplo, la entropía de una imagen en escala de grises de [math] N [/ math] píxeles se puede describir mediante la entropía habitual de Shannon:
[matemáticas] H = – \ Sigma_ {i} p_i \ log p_i [/ matemáticas], donde,
[matemáticas] p_i = N_i / N [/ matemáticas],
y [math] N_i [/ math] representa el número de px con el valor gris i [math] ^ {\ text {th}} [/ math] ([math] p_i [/ math] captura el mismo índice de frecuencia que el obtenido de un histograma de imagen). Sin embargo, esta no es la única definición. También está la entropía de Rényi (que generaliza muchas otras definiciones de entropía).
[La respuesta de Dave Gordon no tiene nada que ver con la información interpretada bajo la teoría de la información . Esa respuesta confunde la extracción semántica de gráficos / escenas interpretativas y el contenido del canal con ‘información’. Y hay una gran amplitud / profundidad de investigación sobre todos estos temas]