Si tiene una conexión de 10 Mbps, ¿cuánto tiempo se tarda en enviar un bit?

En un mundo perfecto sin pérdidas y suponiendo UDP, tomaría 0.0000001 de segundo

Cálculo

se tarda 1 segundo en enviar 10000000 bits
¿Cuánto tiempo tomará 1 bit?

es decir

1 seg = 10000000 bits
x seg = 1 bit

x (seg) 10000000 x (bits) = 1 (bits) x 1 (seg)

resolver para x

x = 1/10000000
x = 0.0000001 seg
o
x = 0,0001 ms

Pero eso es en teoría. Como señala Silvery Fu, en el mundo real, debe tener en cuenta el tiempo que le toma a la computadora compilar los bits, enviar SYN, esperar ACK, su velocidad de datos real (que en realidad sería menos de 10 mbps), la actual tamaño del tráfico en su nodo / ISP, medios de transmisión, cobre, fibra óptica, wifi, satélite, número de nodos entre usted y el destino, carga actual de nodos de transmisión y recepción.

Con todos estos factores traducidos aproximadamente a la latencia, se espera que el tiempo de transmisión sea más largo que 0.0001 ms.

Si tiene una conexión ideal, el tiempo necesario sería insignificante, alrededor de 1/10 ^ 7 segundos, pero como se mencionó en las respuestas anteriores, el tiempo exacto dependerá del ruido en el cable y otros factores.