Voy a ser antitético aquí e intentaré incorporar alguna teoría de la información [1] para argumentar una hipótesis.
La información, según una teoría presentada por el venerable Claude Shannon [2], está estrechamente asociada con el concepto de entropía [3]. Para establecer esta relación de la forma más sencilla posible: una comunicación con contenidos desconocidos contiene más información que una con contenidos conocidos o predecibles.
Si bien no es probable que lleguemos a un punto en el que se sepa todo sobre el universo, cada año aprendemos más y más sobre lo que podemos observar. Utilizamos estas observaciones para construir modelos y predecir el comportamiento futuro, a veces con una precisión impresionante. Usando esta línea de lógica, podríamos imaginar un sistema dentro del cual podemos extinguir información porque podemos predecir su transformación de entrada / salida con perfecta precisión.
- ¿Cómo se procesan y visualizan los grandes datos? ¿Qué herramientas se usan?
- ¿Qué son los patrones ocultos en big data?
- ¿Cómo debo planificar cuando aspiro a ser un científico de datos?
- Cómo manejar unos 8 millones de tweets (17 GB) para un paso de preprocesamiento
- ¿Qué tipo de eventos de usuario deben enviarse a Kafka para sitios de comercio electrónico clásicos?
Con esta perspectiva, podemos comprender mejor los objetivos de la identificación del sistema, gran parte del aprendizaje automático y el análisis predictivo en general. Estos métodos buscan suprimir la sorpresa (entropía) mediante el uso de información previa para modelar con precisión el comportamiento de un sistema.
Notas al pie
[1] Teoría de la información – Wikipedia
[2] Claude Shannon – Wikipedia
[3] Entropía (teoría de la información) – Wikipedia