La predicción del tráfico de red en el centro de datos a gran escala no parece ser una investigación candente, al menos por ahora. Esto se debe a que el tráfico suele ser impredecible .
Se puede encontrar un resultado “importante” en el documento SIGCOMM’09 (citado 1400+) de Microsoft Research:
VL2: una red de centro de datos escalable y flexible
- ¿Por qué la mayoría de las investigaciones de inteligencia artificial abandonaron la inteligencia artificial basada en la lógica en favor de enfoques estadísticos?
- ¿Cuáles son las mayores diferencias entre la programación con fines científicos (por ejemplo, para modelos en física o economía) y la programación para la web?
- Soy un estudiante de ciencias de la computación interesado en HCI como tema para mi proyecto final. Mi habilidad de programación no es tan buena. ¿Cuáles son algunas ideas de proyectos que podría emprender?
- ¿Cuáles son los teoremas / deducciones más ingeniosos en la teoría de grafos?
- ¿Cuáles son algunos campos crecientes y relativamente desconocidos de la informática (fuera de los campos como IA, criptografía, bioinformática, minería de datos)?
Los autores recopilaron la serie temporal de datos de tráfico en un grupo muy utilizado (sección 3.1), resumieron los patrones de tráfico latente (sección 3.3) durante cada intervalo de tiempo (100s) como la matriz de tráfico, y agruparon matrices similares en el mismo grupo. En primer lugar, descubrieron que el número de matrices de tráfico representativas (en un día) es bastante grande, y el error de ajuste sigue siendo alto en los resultados de la agrupación. Esto muestra que el tráfico del centro de datos no se puede resumir de manera concisa, debido a la gran variabilidad , y mucho menos a la predicción del tráfico (a largo plazo / día por delante).
¿Qué tal la predicción a corto plazo? Los autores investigaron si el tráfico en el siguiente intervalo (100s) es predecible dado el tráfico en el intervalo actual. Lo que encontraron fue, algo sorprendente, incluso a corto plazo, los patrones de tráfico cambian constantemente sin un comportamiento periódico que pueda ayudar a predecir el tráfico futuro.
Con base en estos hallazgos, los autores conjeturaron:
“La falta de previsibilidad se deriva del uso de la aleatoriedad para mejorar el rendimiento de las aplicaciones del centro de datos. Por ejemplo, el sistema de archivos distribuido distribuye fragmentos de datos aleatoriamente entre los servidores para la distribución de carga y la redundancia”. La volatilidad implica que es poco probable que otras rutas las estrategias superarán a VLB “.
Aquí, VLB significa Valiant Load Balancing .
Lecturas adicionales:
[1] R. Zhang-Shen y N. McKeown, “Diseñando una columna vertebral predecible de Internet con un valiente equilibrio de carga”, Springer-Verlag, 2005, pp. 178-192.