¿Por qué el rendimiento de datos disminuye tanto con la distancia?

Lo que está preguntando es una pregunta bastante rutinaria sobre los protocolos de red, y más específicamente, TCP. No hay nada fundamental sobre los enlaces largos que limite el rendimiento, pero existen varias razones prácticas por las que a menudo se observa una relación inversa entre el retraso y el rendimiento en los enlaces largos:

Primero, voy a asumir que quieres una transmisión confiable. En segundo lugar, voy a suponer que está utilizando TCP (otros protocolos, por ejemplo, XCP pueden hacerlo mucho mejor, pero rara vez se usan por varias razones).

  1. Buffering. Si sus enlaces son muy largos, entonces debe esperar un tiempo extra largo antes de que vuelva a recibir un paquete que acaba de enviar. Eso significa que la ventana de tiempo de los datos que debe almacenar (para una posible retransmisión si se pierde) es mucho más grande. Esto entra en juego cuando considera que la memoria rápida en enrutadores / conmutadores es muy costosa. Eso pone un límite al rendimiento en algunos casos.
  2. La respuesta fundamental es el comportamiento de TCP cuando se intenta acelerar para utilizar un enlace de larga distancia. El bucle de control (tiempo que le toma obtener un reconocimiento por un paquete que envió, lo que le permite reaccionar) aumenta con el retraso de extremo a extremo. Eso significa que reaccionas mucho más lento a todo. Cuando inicia un flujo / conexión por primera vez, el inicio rápido le permite duplicar su velocidad de transmisión cada vez que recupera algunos ACK. Pero cuanto más tarde, más lento aumentará su tasa de envío. Después de que exista un inicio rápido y entre en control / evitación de congestión, aumentará su velocidad de envío aún más lentamente. Pero en todos los casos, la tasa de aumento de la tasa de envío depende en gran medida de la rapidez con la que obtiene (o no) los ataques. Un retraso más prolongado significa una reacción más lenta, lo que significa que lleva mucho más tiempo alcanzar tasas de rendimiento razonables en un enlace largo.

    Y si obtiene una pérdida / tiempo de espera, su velocidad de transmisión se reducirá a la mitad, y luego tendrá que comenzar nuevamente para avanzar lentamente hacia velocidades de transmisión más altas. Y dado que los enlaces más largos a menudo tienen tasas de falla más altas, esta es una mala combinación para el rendimiento.

RE: Marte. Hay muchas razones. 1) restricciones de energía en los Rovers. 2) memorias intermedias muy pequeñas. 3) El enlace interplanetario es extremadamente ruidoso, por lo que hay muchas fallas, muchas retransmisiones y retrasos de bloqueo debido a retransmisiones. A un protocolo como TCP le iría muy mal, pero dudo que la NASA esté usando TCP (ciertamente espero que lo sepan mejor). 4) El enlace ruidoso también significa que es probable que estén utilizando un protocolo FEC altamente redundante en la parte superior del canal de datos. Por lo tanto, la velocidad de datos real efectiva es incluso menor que la velocidad del enlace físico.

Puede obtener la mayoría de estas ideas leyendo un libro de redes de nivel de posgrado, o leyendo algunos documentos técnicos sobre TCP / XCP / ECN.

Una de las razones sería la restricción de poder.
La transferencia de datos a mayor velocidad requeriría más potencia, lo cual es escaso en un satélite. Entonces, en lugar de hacer una transferencia en ráfaga de grandes volúmenes de datos y quedarse sin batería, hacen una transferencia lenta / prolongada, lo que les da tiempo para recargar su batería. Piense en ello como 2G vs 3G vs 4G en términos de ancho de banda y consumo de batería.

No estoy totalmente seguro de mi respuesta porque acabo de recibir una breve introducción a esto.

De todos modos, veamos cómo se transmiten los datos. La forma más común de transmitir datos es a través de una de las ondas electromagnéticas. La velocidad de cualquier onda en el vacío es 3 * 10 ^ 8. Y usando la fórmula v = f * longitud de onda donde v es la velocidad / velocidad (m / s) yf es la frecuencia (Hz), podemos ver un aumento de frecuencia a medida que disminuye la longitud de onda y viceversa.

La frecuencia es la cantidad de datos que se transmiten por unidad de tiempo, y la longitud de onda es la “distancia de penetración” o pueden enviarse los datos de distancia máxima de una cierta cantidad por unidad de tiempo.

Usando la fórmula para la velocidad de una onda electromagnética, la velocidad permanece constante en el vacío, siendo las únicas variables la frecuencia (cantidad de datos enviados por unidad de tiempo) y la longitud de onda (se pueden enviar datos de distancia máxima). Por lo tanto, una mayor cantidad de datos enviados se traduce en una menor distancia que puede viajar. Pero la gran distancia entre los planetas en nuestro sistema solar significa que los datos son necesarios para recorrer una distancia mayor, por lo que los datos enviados por unidad de tiempo son menores.

Espero que esto responda a tus dudas!

El rendimiento no necesita disminuir con la distancia. Todo lo que necesita es una ventana TCP suficientemente grande y una ruta limpia y puede hacer cosas muy interesantes: CALTECH SuperComputing 2012

El rendimiento a Marte está limitado por la velocidad de transferencia, que es necesariamente muy baja, más el hecho de que el espacio del búfer es extremadamente limitado.

El rendimiento también depende del enlace de cuello de botella presente en la ruta. Suponga que está enviando con una velocidad de 10 mbps pero hay un enlace en algún punto intermedio que solo tiene 5 mbps. Luego, los datos salen del enlace a 5 mbps limitando el rendimiento recibido en el receptor a 5 mbps.
Las retransmisiones también disminuyen el rendimiento útil en el enlace. Si hay un enlace en el medio que es satelital o inalámbrico, puede tomar algún tiempo retransmitir en caso de que algún error conduzca a una disminución en el rendimiento.