La mayoría de los documentos de IA abordan problemas importantes conocidos con métodos más o menos similares a los métodos anteriores utilizados en esos problemas. A veces, los documentos de IA abordan problemas importantes e conocidos con métodos que son atípicos para esos problemas, y cuando es bueno, es interesante, así que gracias por su pregunta (espero otras respuestas).
La compresión de imagen optimizada de extremo a extremo, un artículo de ICLR 2017, ofrece una formulación CNN bien motivada y divertida de leer para la compresión que funciona considerablemente mejor que los métodos de pérdida utilizados comúnmente basados en la transformación optimizada por separado (por ejemplo, DCT para jpeg y wavelet para jpeg2000), cuantificación, y pasos de codificación de entropía. Lo que me parece más impresionante de esto es que, para las representaciones con mucha pérdida, las imágenes decodificadas, por supuesto, carecen de detalles, pero sin artefactos que parecen ser la falla del algoritmo de compresión, como el bloqueo de los archivos JPEG altamente comprimidos. Me pregunto qué tipo de situaciones prácticas hay en las que esté dispuesto a usar compresión con pérdida Y guardar bits en imágenes en su disco duro y recorrer su red es lo suficientemente importante para el aumento significativo de los requisitos de tiempo y espacio para codificar y decodificar.
- En redes neuronales artificiales, ¿a qué se refiere la 'señal' en el contexto de los gradientes?
- ¿Python es actualmente un lenguaje flexible para IA?
- ¿Qué compañías están empujando los límites reales de la inteligencia artificial? ¿Cómo puedo trabajar para ellos?
- ¿Puede la interfaz cerebro máquina contribuir a la inteligencia artificial?
- Cuando la inteligencia artificial sea capaz de reproducirse, ¿sería correcto llamar a ciertos tipos de especies (excepto el hecho de que no son biológicas)?