¿Cómo mantiene Google sus servidores ya que muestra miles de millones de registros de búsqueda en Internet?

Estimaciones recientes han colocado el recuento de servidores de Google en más de 1 millón. Pero los nuevos datos sobre el uso de energía de Google sugieren que la compañía probablemente esté ejecutando alrededor de 900,000 servidores.

Google nunca dice cuántos servidores se están ejecutando en sus centros de datos. La nueva estimación se basa en información que la compañía compartió con el profesor de Stanford Jonathan Koomey, quien acaba de publicar un informe actualizado sobre el uso de energía del centro de datos.

Los centros de datos de Google están diseñados para aprovechar las mejores prácticas de la industria en diseño y operaciones. La compañía ha sido pionera en el funcionamiento de instalaciones más cálidas y en el diseño de centros de datos sin enfriadores que usan menos energía. A nivel del servidor, los servidores personalizados de Google cuentan con una fuente de alimentación que integra una batería, lo que le permite funcionar como una fuente de alimentación ininterrumpida (UPS). El diseño desplaza las funciones de respaldo de batería y UPS del centro de datos al gabinete del servidor.

Cuando Google comenzó a diseñar sus propios centros, descubrieron que gran parte de este enfriamiento era innecesario. “Muchas especificaciones para los centros de datos se remontan a los días de mainframe cuando las computadoras todavía usaban tarjetas perforadas”, dice Kava, “por lo que la mayoría de las empresas enfrían sus centros”. Google tiene una prueba simple para asegurarse de que las salas de servidores de datos no reciban demasiado frío y desperdicia energía innecesariamente. Los empleados que mantienen los sistemas usan pantalones cortos, en lugar de pantalones largos, en el trabajo. Si el centro de datos se vuelve incómodamente frío para los trabajadores que usan pantalones cortos, la temperatura es demasiado baja.

A2A

Fuente: Google comparte las mejores prácticas en centros de datos a medida

Sabemos que Google posee centros de datos gigantescos ( Google nunca dice cuántos servidores se están ejecutando en sus centros de datos ) donde desarrolla y utiliza sus propios diseños de servidores. Estos servidores dependen de las unidades de 3,5 pulgadas .

Google dice que necesita explorar cambios como unidades más altas y agrupación en discos. La compañía también menciona la necesidad de “optimizar la recopilación de discos , en lugar de un solo disco en un servidor”.

Con estos experimentos y cambios, Google apunta a mejorar el rendimiento general además de reducir los costos operativos .

Hablando de su enorme tamaño, solo para YouTube , los usuarios cargan más de 400 horas de video por minuto , que a un gigabyte por hora requiere más de un petabyte (1M GB) de almacenamiento nuevo todos los dias Google indexó más de 50 mil millones de páginas en todos sus servidores. Esto significa que si cada página web fuera un trozo de papel A4, una versión impresa de los sitios web indexados de Google tendría más de 1 kilómetro de altura , un poco más alto que El Capitán, el icónico monolito de granito en el Parque Nacional Yosemite en California.

Algunos de los centros de datos más grandes tienen 10s y 10s de megavatios de infraestructura informática. Una red típica hoy (no necesariamente Google) puede tener 10K + switches, 250K + enlaces, 10M + reglas de enrutamiento.

Google se está preparando para administrar flotas de servidores mucho más grandes en el futuro. La compañía ha diseñado un nuevo sistema de almacenamiento y cómputo llamado Spanner , que buscará automatizar la administración de los servicios de Google en múltiples centros de datos. Eso incluye la asignación automatizada de recursos en “flotas completas de máquinas”, que van desde 1 millón a 10 millones de máquinas.

Los esfuerzos de Google giran en torno a un plan de ataque de tres frentes: usar una topología Clos, usar SDN (Redes definidas por software) y construir su propio equipo personalizado a su manera en Google.

Hace diez años, el ancho de banda agregado era de 2 terabits / s. Las telas Jupiter de última generación proporcionan un ancho de banda de 1.3 Pb / s . Su conmutador Jupiter Superblock ofrece 80Tb / s de ancho de banda , aloja su pila de software SDN a través de OpenFlow y se controla de forma remota. El conmutador alimenta todos sus centros de datos con el saldo que Google ha adquirido.