¡Hola!
Bueno, no tengo ninguna experiencia en este asunto, pero al menos puedo decir algo basado en las clases que tuve en la universidad.
Por lo que puedo decir, la velocidad de la luz no es una restricción para los grandes datos, al menos no hoy. La razón por la que digo esto es porque todavía no utilizamos su capacidad al máximo. Los protocolos y algoritmos utilizados para transmitir / leer / escribir datos incluso a través de fibra óptica vienen con cuellos de botella que hacen imposible, por ejemplo, transmitir gigabytes de información en un instante.
- ¿Qué herramientas usan los científicos de datos?
- ¿Cuál es la mejor computadora portátil para un científico de datos?
- ¿Cuáles son las API de aprendizaje automático que puedo usar para analizar la calidad de los datos?
- ¿Cómo entró por primera vez en Machine Learning / Data Science?
- Al hacer una prueba A / B sobre la tasa de conversión (proporción de visitas que incluyen una compra), ¿cómo abordo el hecho de que no todas las visitas son independientes?
No estoy diciendo que los algoritmos y protocolos estén mal diseñados. Es todo lo contrario, los científicos luchan cada vez para encontrar formas buenas y eficientes de trabajar con datos. Pero aún así, es difícil hacer que algo ‘vaya’ tan rápido como la velocidad de la luz.
Cuando hablamos de big data. El almacenamiento de estos datos se realiza en dispositivos electrónicos como HD, SSD o RAM, y los cálculos se realizan en el procesador o en la GPU, los datos pueden transmitirse a través de la red o el procesamiento puede distribuirse en diferentes subprocesos, etc. Hay cuellos de botella y costos asociados con todo esto que ni siquiera es fácil de cuantificar. Si la luz fuera más rápida, por supuesto que ayudaría, pero todavía hay espacio para que podamos mejorar, haciendo que la velocidad de la luz sea algo no impedidor.