Junto con la funcionalidad básica y la confiabilidad, el rendimiento de una red informática determina su utilidad general. La velocidad de la red implica una combinación de factores interrelacionados.
¿Qué es la velocidad de red?
Los usuarios obviamente quieren que sus redes se ejecuten rápidamente en todas las situaciones. En algunos casos, un retraso de la red puede durar solo unos pocos milisegundos y tener un impacto insignificante en lo que está haciendo el usuario. En otros casos, los retrasos en la red pueden causar ralentizaciones graves para un usuario.
- ¿Por qué no se realiza la fragmentación en IPv6 como en IPv4?
- ¿Cuál es la forma más rápida de ingresar a la seguridad de la red?
- ¿Cómo pasarías por alto un firewall?
- ¿Por qué mi conexión iiNet es tan lenta?
- ¿Aproximadamente cuánto tomará terminar la preparación para el examen CISA?
Los escenarios típicos que son especialmente sensibles a los problemas de velocidad de la red incluyen
- hora de establecer una nueva conexión
- hora de cargar una página web
- hora de descargar una aplicación, parche del sistema operativo u otros archivos
- capacidad de transmitir contenido de video durante largos períodos sin fallas
El papel del ancho de banda en el rendimiento de la red
El ancho de banda es un factor clave para determinar la velocidad de una red informática. Prácticamente todos conocen las clasificaciones de ancho de banda de sus enrutadores de red y su servicio de Internet, números destacados en los anuncios de productos.
El ancho de banda en las redes de computadoras se refiere a la velocidad de datos admitida por una conexión o interfaz de red. Representa la capacidad general de la conexión. Cuanto mayor sea la capacidad, más probable será que se obtenga un mejor rendimiento.
El ancho de banda se refiere tanto a las calificaciones teóricas como al rendimiento real, y es importante distinguir entre los dos. Por ejemplo, una conexión Wi-Fic 802.11g estándar ofrece 54 Mbps de ancho de banda nominal, pero en la práctica solo alcanza el 50% o menos de este número en el rendimiento real.
Las redes Ethernet tradicionales que en teoría admiten 100 Mbps o 1000 Mbps de ancho de banda máximo, pero esta cantidad máxima tampoco puede alcanzarse razonablemente. Las redes celulares (móviles) generalmente no reclaman ninguna clasificación de ancho de banda específica, pero se aplica el mismo principio. Los gastos generales de comunicaciones en el hardware de la computadora, los protocolos de red y los sistemas operativos marcan la diferencia entre el ancho de banda teórico y el rendimiento real.
Medición de ancho de banda de red
El ancho de banda es la cantidad de datos que pasa a través de una conexión de red a lo largo del tiempo, medida en bits por segundo (bps). Existen numerosas herramientas para que los administradores midan el ancho de banda de las conexiones de red. En las LAN (redes de área local), estas herramientas incluyen netperf y ttcp . En Internet, existen numerosos programas de prueba de ancho de banda y velocidad, la mayoría disponibles para uso gratuito en línea.
Incluso con estas herramientas a su disposición, la utilización del ancho de banda es difícil de medir con precisión, ya que varía con el tiempo dependiendo de la configuración del hardware más las características de las aplicaciones de software, incluida la forma en que se utilizan.
Acerca de las velocidades de banda ancha
El término gran ancho de banda a veces se usa para distinguir las conexiones a Internet de banda ancha más rápidas de las velocidades tradicionales de acceso telefónico o de red celular. Las definiciones de ancho de banda “alto” versus “bajo” varían y se han revisado a lo largo de los años a medida que mejora la tecnología de red. En 2015, la Comisión Federal de Comunicaciones de los EE. UU. (FCC) actualizó su definición de banda ancha para ser aquellas conexiones con al menos 25 Mbps para descargas y al menos 3 Mbps para cargas. Estos números reflejaron un fuerte aumento de los mínimos anteriores de la FCC de 4 Mbps hacia arriba y 1 Mbps hacia abajo.
(Hace muchos años, la FCC estableció su mínimo en 0.3 Mbps).
Otros factores en el rendimiento de la red informática
El ancho de banda no es el único factor que contribuye a la velocidad percibida de una red. Un elemento menos conocido del rendimiento de la red, la latencia , también juega un papel importante.
¿Qué es la latencia de red?
El ancho de banda es solo un elemento de lo que una persona percibe como la velocidad de una red. La latencia es otro elemento que contribuye a la velocidad de la red. El término latencia se refiere a cualquiera de varios tipos de demoras que generalmente se incurre en el procesamiento de datos de red. Una llamada conexión de red de baja latencia es aquella que experimenta pequeños tiempos de demora, mientras que una conexión de alta latencia sufre largas demoras.
Además de los retrasos en la propagación, la latencia también puede implicar retrasos en la transmisión (propiedades del medio físico) y retrasos en el procesamiento (como pasar a través de servidores proxy o hacer saltos de red en Internet).
Latencia vs rendimiento
Aunque el ancho de banda máximo teórico de una conexión de red se fija de acuerdo con la tecnología utilizada, la cantidad real de datos que fluye a través de una conexión (llamada rendimiento ) varía con el tiempo y se ve afectada por latencias cada vez más altas. La latencia excesiva crea cuellos de botella que impiden que los datos llenen la tubería de la red, lo que disminuye el rendimiento y limita el ancho de banda efectivo máximo de una conexión. El impacto de la latencia en el rendimiento de la red puede ser temporal (durar unos segundos) o persistente (constante) dependiendo de la fuente de los retrasos.
Latencia de los servicios de Internet de banda ancha
En las conexiones de Internet por cable o DSL, las latencias de menos de 100 milisegundos (ms) son típicas y a menudo son posibles menos de 25 ms.
Las conexiones a Internet por satélite, por otro lado, las latencias típicas pueden ser de 500 ms o más. Un servicio de Internet con una velocidad de 20 Mbps puede funcionar notablemente peor que un servicio con una velocidad de 5 Mbps si se ejecuta con alta latencia.
El servicio de Internet satelital ilustra la diferencia entre latencia y ancho de banda en redes de computadoras.
Las conexiones a Internet por satélite poseen un ancho de banda alto y una latencia alta. Al cargar una página web, por ejemplo, la mayoría de los usuarios de satélites pueden observar un retraso notable desde el momento en que ingresan una dirección web hasta el momento en que la página comienza a cargarse. Esta alta latencia se debe principalmente al retraso de propagación, ya que el mensaje de solicitud viaja a la velocidad de la luz hasta la estación de satélite distante y de regreso a la red doméstica. Sin embargo, una vez que los mensajes llegan a la Tierra, la página se carga rápidamente como en otras conexiones de Internet de gran ancho de banda (como DSL o Internet por cable).
Medición de latencia de red
Las herramientas de red como las pruebas de ping y el traceroute miden la latencia al determinar el tiempo que tarda un paquete de red determinado en viajar desde el origen hasta el destino y viceversa, el llamado tiempo de ida y vuelta . El tiempo de ida y vuelta no es la única forma de medir la latencia, pero es la más común.
Resumen
Dos elementos clave del rendimiento de la red son el ancho de banda y la latencia. La persona promedio está más familiarizada con el concepto de ancho de banda, ya que es el que anuncian los fabricantes de equipos de red. Sin embargo, la latencia es igualmente importante para la experiencia del usuario final, como lo ilustra el comportamiento de las conexiones a Internet por satélite. Las características de Calidad de servicio (QoS) de las redes domésticas y comerciales están diseñadas para ayudar a administrar el ancho de banda y la latencia juntas para proporcionar un rendimiento más consistente.
Fuente: todo lo que necesita saber sobre las velocidades de red