¿Qué tan rápido es la intranet en las granjas de servidores de Google?

tl; dr: 1pbs === realmente muy muy rápido. Tan rápido que necesitamos repensar qué es exactamente una computadora para aprovechar toda esta capacidad.

Amin Vahdat, líder en tecnologías de redes de Google, escribió una publicación en el blog sobre las redes de centros de datos de Google. A partir de 2015, sus centros de datos tienen un ancho de banda de bisección de 1 petabit por segundo. Lo que eso significa es que si elige cualquier mitad de los servidores en el centro de datos, pueden transmitir colectivamente 1 petabit a la otra mitad cada segundo.

Para poner ese número en perspectiva, puede transferir todo el contenido escaneado de la Biblioteca del Congreso en 0.1 segundos. También puede transferir la totalidad de wikipedia en menos de un segundo. Demonios, incluso podrías transferir el zipbomb 42.zip sin comprimir, que mide aproximadamente 5 PB, en menos de un minuto. También puede transferir toda la información que circula por Internet pública cada segundo en 0.2 segundos. Puede transferir todo el ADN de cada persona viva en menos de 12 horas. Si no está dispuesto a esperar tanto tiempo, puede comprimir ese ADN [1] y transferirlo en poco menos de 4 minutos.

Mirando ese número desde una perspectiva ligeramente diferente, le tomaría a su plan promedio de datos de teléfonos celulares (20 MB / s) más de 3 meses transferir tantos datos como los centros de datos de Google pueden en 1 segundo. Le tomaría su conexión de fibra de Google de 800 Mb / s durante 2 semanas transferir ese mismo segundo de datos.

Sin embargo, no puede pensar en las velocidades de descarga del centro de datos de Google como pensaría en sus velocidades de descarga personales. Las velocidades de red individuales entre las computadoras todavía están en el orden de gigabits por segundo; es solo que, como colectivo, el centro de datos tiene un ancho de banda monstruoso. Si ese zipbomb de 4.5 petabytes sin comprimir viviera en una sola máquina, aún le tomaría días transferirlo a otras partes del centro de datos. Si ese zipbomb se fragmentó de manera que cada máquina solo fuera responsable de unos pocos gigabytes de ese zipbomb sin comprimir, entonces comenzamos a ver la potencia total de la red del centro de datos.

Este cambio de paradigma de una computadora como un nodo de cómputo a un centro de datos como un nodo de cómputo es uno con el que muchas empresas están lidiando a medida que la demanda de cómputo aumenta inexorablemente y las leyes fundamentales de la física están disminuyendo las ganancias en el rendimiento de la CPU. Google ha publicado un libro sobre su transición: El centro de datos como computadora: una introducción al diseño de máquinas a escala de almacén.

¿Qué hace Google con todo este poder? Para todo el código que implementan en su automóvil autónomo, lo simulan en millones de millas en un entorno de videojuego adversario primero en lugar de soltarlo y ver qué sucede. Entrenan redes neuronales de aprendizaje profundo para jugar (y posiblemente ganar) uno de los juegos de mesa más elegantes de todos los tiempos (AlphaGo). Realizan simulaciones a gran escala de patrones de viento para orquestar una flota de globos estratosféricos para transmitir Internet en todo el mundo (Proyecto Loon). Y debido a que hay tanta potencia, incluso dejan que los servidores vean YouTube por un tiempo.

[1] Esto supone que comprimir el ADN de cada persona individualmente toma 4MB. Probablemente podamos hacerlo mucho mejor si comprimimos el ADN de todos juntos, aprovechando las estructuras compartidas.

Descargo de responsabilidad: aunque he realizado prácticas en Google, toda la información en mi respuesta es de conocimiento público.

Si cada servidor está instalado con tarjeta HBA (fibra), entonces la “velocidad” está limitada a la velocidad máxima de HBA.

por ejemplo, la tarjeta Mellanox HBA proporciona 100 Gb / s (con pequeño b, no B)

usando dos HBA y alguna configuración de software, podría duplicar la “velocidad”

o tal vez podríamos usar cuatro tarjetas HBA, debe verificar si son compatibles.

Entonces esa sería la máxima “velocidad” entre los servidores y sus conmutadores.

ahora para Backbone, aquí es donde los Backbone Switches se comunican entre sí.

si ponen Cisco Service Provider Class (ej: Nexus 9000 series) en su Backbone, esos conmutadores podrían transferir una gran cantidad de datos hasta 512 x 100Gbps.

Sí, eso no proporciona la respuesta real, tal vez alguien que realmente administre los conmutadores centrales troncales podría dar los números exactos.