En un mundo perfecto sin pérdidas y suponiendo UDP, tomaría 0.0000001 de segundo
Cálculo
se tarda 1 segundo en enviar 10000000 bits
¿Cuánto tiempo tomará 1 bit?
- ¿Cuál es un ejemplo de regulación?
- ¿Cuáles son los 5 ataques más comunes en sitios web?
- Le pago a mi ISP, ¿a quién le paga mi ISP? ¿Quién es el dueño de internet? ¿Quién proporciona internet a los ISP?
- (PREGUNTA COMUNITARIA - 20,000 créditos) ¿Hay un sitio o fuente en Internet donde pueda encontrar una base de datos completa de lesiones en Taekwondo?
- ¿Quién o qué pone toda la información en internet? ¿Quién es el dueño de internet? ¿Cómo puede tener una respuesta para cada pregunta?
es decir
1 seg = 10000000 bits
x seg = 1 bit
x (seg) 10000000 x (bits) = 1 (bits) x 1 (seg)
resolver para x
x = 1/10000000
x = 0.0000001 seg
o
x = 0,0001 ms
Pero eso es en teoría. Como señala Silvery Fu, en el mundo real, debe tener en cuenta el tiempo que le toma a la computadora compilar los bits, enviar SYN, esperar ACK, su velocidad de datos real (que en realidad sería menos de 10 mbps), la actual tamaño del tráfico en su nodo / ISP, medios de transmisión, cobre, fibra óptica, wifi, satélite, número de nodos entre usted y el destino, carga actual de nodos de transmisión y recepción.
Con todos estos factores traducidos aproximadamente a la latencia, se espera que el tiempo de transmisión sea más largo que 0.0001 ms.