¿Cuál es la diferencia entre latencia y rendimiento?

¿Qué es la latencia de red?

El ancho de banda es solo un elemento de lo que una persona percibe como la velocidad de la red. La latencia es otro elemento que contribuye a la velocidad de la red. El término latencia se refiere a cualquiera de varios tipos de demoras que generalmente se incurre en el procesamiento de datos de red. Una llamada conexión de red de baja latencia es aquella que experimenta pequeños tiempos de demora, mientras que una conexión de alta latencia sufre largas demoras.

Además de los retrasos en la propagación, la latencia también puede implicar retrasos en la transmisión (propiedades del medio físico) y retrasos en el procesamiento (como pasar a través de servidores proxy o hacer saltos de red en Internet).

Latencia vs rendimiento

Aunque el ancho de banda máximo teórico de una conexión de red se fija de acuerdo con la tecnología utilizada, la cantidad real de datos que fluye a través de una conexión (llamada rendimiento ) varía con el tiempo y se ve afectada por latencias cada vez más altas. La latencia excesiva crea cuellos de botella que impiden que los datos llenen la tubería de la red, lo que disminuye el rendimiento y limita el ancho de banda efectivo máximo de una conexión. El impacto de la latencia en el rendimiento de la red puede ser temporal (durar unos segundos) o persistente (constante) dependiendo de la fuente de los retrasos.

Latencia de los servicios de Internet de banda ancha

En las conexiones de Internet por cable o DSL, las latencias de menos de 100 milisegundos (ms) son típicas y a menudo son posibles menos de 25 ms.

Las conexiones a Internet por satélite, por otro lado, las latencias típicas pueden ser de 500 ms o más. Un servicio de Internet con una velocidad de 20 Mbps puede funcionar notablemente peor que un servicio con una velocidad de 5 Mbps si se ejecuta con alta latencia.

El servicio de Internet satelital ilustra la diferencia entre latencia y ancho de banda en redes de computadoras.

Las conexiones a Internet por satélite poseen un ancho de banda alto y una latencia alta. Al cargar una página web, por ejemplo, la mayoría de los usuarios de satélites pueden observar un retraso notable desde el momento en que ingresan una dirección web hasta el momento en que la página comienza a cargarse. Esta alta latencia se debe principalmente al retraso de propagación, ya que el mensaje de solicitud viaja a la velocidad de la luz hasta la estación de satélite distante y de regreso a la red doméstica. Sin embargo, una vez que los mensajes llegan a la Tierra, la página se carga rápidamente como en otras conexiones de Internet de gran ancho de banda (como DSL o Internet por cable).

Medición de latencia de red

Las herramientas de red como las pruebas de ping y el traceroute miden la latencia al determinar el tiempo que tarda un paquete de red determinado en viajar desde el origen hasta el destino y viceversa, el llamado tiempo de ida y vuelta . El tiempo de ida y vuelta no es la única forma de medir la latencia, pero es la más común.

Resumen

Dos elementos clave del rendimiento de la red son el ancho de banda y la latencia. La persona promedio está más familiarizada con el concepto de ancho de banda, ya que es el que anuncian los fabricantes de equipos de red. Sin embargo, la latencia es igualmente importante para la experiencia del usuario final, como lo ilustra el comportamiento de las conexiones a Internet por satélite. Las características de Calidad de servicio (QoS) de las redes domésticas y comerciales están diseñadas para ayudar a administrar el ancho de banda y la latencia juntas para proporcionar un rendimiento más consistente.

Fuente: https://www.lifewire.com/latency…

El rendimiento es la cantidad que se obtiene en un período de tiempo determinado.

La latencia es el tiempo necesario para obtener una unidad primaria específica transferida.


Si tiene una manguera conectada a un grifo de agua, el rendimiento se expresa en litros por segundo y es independiente de la longitud de la manguera. La latencia es el tiempo necesario para que salga el agua dada una manguera inicialmente vacía. La latencia se expresa en segundos y depende de la longitud de la manguera y la velocidad del agua. Asumimos que la posición de la manguera y el camino no están cambiando.


En el contexto de las TIC, el rendimiento está fuertemente relacionado con el ancho de banda en los protocolos de una forma.

El rendimiento se ve afectado por la latencia si el protocolo requiere acuses de recibo sincrónicos.

Definición de términos

Intentemos definir esos dos términos:

La latencia es el tiempo requerido para realizar alguna acción o para producir algún resultado. La latencia se mide en unidades de tiempo: horas, minutos, segundos, nanosegundos o períodos de reloj.

El rendimiento es el número de acciones ejecutadas o resultados producidos por unidad de tiempo. Esto se mide en unidades de lo que se está produciendo (automóviles, motocicletas, muestras de E / S, palabras de memoria, iteraciones) por unidad de tiempo. El término “ancho de banda de memoria” a veces se usa para especificar el rendimiento de los sistemas de memoria.

Un simple ejemplo

El siguiente ejemplo de fabricación debería aclarar estos dos conceptos:

Una línea de montaje es la fabricación de automóviles. Se necesitan ocho horas para fabricar un automóvil y que la fábrica produzca ciento veinte automóviles por día.

La latencia es: 8 horas.

El rendimiento es: 120 automóviles / día o 5 automóviles / hora.

EDITAR: Copiado de la comprensión de la latencia versus el rendimiento.

Oooh Gran pregunta que me da la oportunidad de “presumir” un poco:

Matemáticamente, uno solo puede calcular la diferencia entre dos cualidades de tipo similar. El rendimiento y la latencia son tipos diferentes, por lo tanto, la diferencia entre ellos no es el parámetro correcto para tratar de comprender.

Una mejor pregunta es “cuál es la relación entre rendimiento y latencia”.

De hecho, esta pregunta tiene una respuesta exacta de la teoría de colas (teorema de Little) que establece:

Rendimiento × Latencia = QueueSize.

Para explicar en términos simples, piense en un restaurante; “Número de comensales sentados adentro” (capacidad del restaurante) es igual a “cuánto tiempo pasa cada comensal en el restaurante” (latencia) multiplicado por “el número de clientes por unidad de tiempo” (rendimiento). Es bastante intuitivo y también te da la respuesta que querías si lo piensas.

En la vida real, dado que estos valores son variables, uno debe tomar valores promedio para satisfacer la ecuación.

Eche un vistazo a la ecuación: Rendimiento × Latencia = QueueSize. También nos dice que para un tamaño de cola fijo, la latencia y el rendimiento son inversamente proporcionales entre sí. Un ejemplo práctico son nuestros caminos. El camino en sí es la “cola” y su tamaño es fijo. Eso explica por qué cuando hay demasiados automóviles, se tarda más en recorrer la carretera y el rendimiento efectivo es menor.

Hola,

Consulte el blog a continuación para comprender la latencia y el rendimiento. Ese blog tiene definiciones muy básicas junto con ejemplos.

¿Por qué estar tan confundido con la latencia, el ancho de banda, el rendimiento y el tiempo de respuesta?

Respuesta corta.

Latencia = Tiempo que tarda un paquete de datos en viajar a su destino (generalmente en milisegundos)

Rendimiento = La cantidad de datos que pueden pasar a través de la conexión o la red en un período de tiempo establecido (por segundo)

El arte de la programación multinúcleo dice:

Latencia: el tiempo que tarda una llamada de método individual en completarse

Rendimiento: la tasa general a la que se completan las llamadas al método.

La primera podría ser, lo que podría importarle una aplicación en tiempo real, mientras que, por ejemplo, una base de datos podría preocuparse más por el rendimiento.

Vea una de mis raras entradas de blog: ¿Cuándo más rápido no significa más rápido?

Básicamente, la latencia tiene que ver con el tiempo que tarda un paquete de datos en llegar del punto “A” al punto “B”, y el rendimiento tiene que ver con la cantidad de paquetes de datos que puede enviar de “A” a “B “durante un intervalo de tiempo determinado.

Entonces, para tomar prestado un poco de la física, puede pensar en el rendimiento como “corriente” de datos, y la latencia como el inverso del “voltaje” o la velocidad a la que se pueden mover los paquetes, aunque esto no es una analogía perfecta.

La latencia es el tiempo empleado para mover X de un punto a otro.

El rendimiento es el no de X movidas de un punto a otro en un período de tiempo determinado.