¿Por qué las empresas prefieren cada vez más Ethernet sobre el canal de fibra?

La pregunta es solo a medias. La pregunta debería ser: “¿Por qué las empresas prefieren cada vez más Ethernet sobre Fibre Channel para ciertos casos de uso ?”

Fibre Channel es una red de almacenamiento determinista y resuelve problemas relacionados con el transporte de datos de almacenamiento que requieren un rendimiento predictivo dedicado a escala. FC hace un trabajo, y lo hace muy, muy bien.

Ethernet, por otro lado, es de uso más general. Por lo general, es de naturaleza no determinista, pero considerablemente más flexible con los tipos de transporte de datos. Sin embargo, también puede hacer que Ethernet sea determinista y poder utilizar el protocolo Fibre Channel junto con los transportes de almacenamiento basados ​​en IP (iSCSI, NFS, SMB, etc.) al mismo tiempo.

Sin embargo, el problema es que el rendimiento es solo una pregunta. El costo también lo es. Puedo configurar su centro de datos empresarial con transporte de almacenamiento que le costará $ 14.99, pero usar una memoria USB de 32G para mover los datos manualmente será muy, muy, muy lento. Por lo tanto, hay un costo por unidad de trabajo en el tiempo que es una medida más confiable.

Muchos entornos de centros de datos se están moviendo a Ethernet desde Fibre Channel, pero algunos se están moviendo de regreso. FC, como dije, hace un almacenamiento extremadamente bueno y hay algunos tipos de aplicaciones que no funcionan muy bien en redes de uso general.

Para más información, puede leer más aquí:

  • Conceptos básicos de almacenamiento: cuándo usar SAN v. NAS
  • ¿Cuáles son las diferencias de rendimiento entre NFS, iSCSI y FiberChannel para Sun Unified Storage?

Por lo que vale, esta pregunta se hace casi semanalmente. No tendrá problemas para encontrar otras respuestas a las preguntas sobre el almacenamiento del Centro de datos, ya sea en este sitio o en mi blog sobre conceptos de almacenamiento: Resultados de búsqueda para “almacenamiento”

Las ventajas de capacidad y precio / rendimiento de Ethernet sobre FC son bastante obvias. Eche un vistazo a la industria en 2000: 4G FC frente a 1G Ethernet con ambos en el mismo rango general de precios. Para 2008, 10G Ethernet se había vuelto más barato que 8G FC y con diferencias en la codificación era, en la práctica, un 50% más rápido. Para 2016, había surgido 32 gigabit FC en un punto donde se podía tener 100 gigabit Ethernet por la mitad del precio. El mundo FC alcanzará los 64 y 128 gigabits en una cadencia similar a la de Ethernet, alcanzando los 400 gigabits y 1 terabit, respectivamente.

Sin embargo, lo que posiblemente sea más interesante es que la forma en que se consume el almacenamiento también ha cambiado bastante radicalmente durante el mismo tiempo. Nuevamente, desde el año 2000, el almacenamiento primario y de alto rendimiento se basaba abrumadoramente en bloques. Las grandes aplicaciones, y los servidores que las ejecutaban, querían ver un disco sin procesar (o equivalente) y reemplazar los subsistemas SCSI ad-hoc desordenados, caros y limitados del pasado con un tejido centralizado más moderno fue una gran victoria. Era más barato, más rápido y abrumadoramente más flexible. De hecho, la separación del almacenamiento del cómputo en el mundo x86 es lo que permitió muchos de los avances que hemos visto en el mercado.

Sin embargo, en última instancia, a medida que Ethernet e IP se volvieron más rápidos, más baratos y (hasta cierto punto) más confiables, el concepto de convergencia se volvió cada vez más interesante. En los primeros días de la virtualización x86, no era raro tener servidores con 6 (o más) enlaces Gigabit Ethernet y un par de enlaces 4G FC. Todo el desorden podría reemplazarse con un par de enlaces 10GE mientras se eliminan hasta 3/4 del equipo de conmutación y el cableado asociados. Debajo de las cubiertas podríamos mapear las mismas construcciones de nivel de bloque en iSCSI o FCoE, por lo que más ancho de banda, menos equipo y casi ningún cambio en el diseño lógico y las operaciones.

Al mismo tiempo, sin embargo, el NAS tradicional (NFS / SMB) se volvió mucho más viable a medida que los grandes reproductores SW (VMW, Oracle, MS, etc.) comenzaron a admitir sus principales productos en estos entornos. Si mis entornos de Exchange y VMWare pueden ejecutarse, a escala, en SMB3 y NFS respectivamente, ¿por qué incluso construir otra red?

Aún más importante: ¿dónde ha estado el gran crecimiento almacenado en los últimos años? ¿Almacenamiento en la nube pública? ¿Copias de seguridad fuera del sitio? Todo está basado en objetos. En lugar de confiar en el viejo SCSI crujiente o en el pantano de la ingeniería NFS / SMB, todo el desastre se puede empujar a través de llamadas HTTP …

Eso nos lleva a la actualidad. Si el almacenamiento es cada vez más un servicio que se puede asignar a través de IP, ¿por qué querría una red física dedicada que esté diseñada para transportar una pila de protocolos que comenzó cuando las cintas de 8 pistas eran de vanguardia? Claramente, hay un montón de lugares donde es innegablemente exitoso y debe mantenerse en su lugar, pero ¿por qué querría cultivarlo ?

Ignorancia. La gente tiene la impresión errónea de que Ethernet es más barato. Bueno, lo es, a menos que quieras Ethernet de ALTA VELOCIDAD.

Existe esta creencia a nivel de CIO de que tener un solo tipo de medio de conexión física y un tipo de conmutador es algo bueno. No lo es. Pierdes resistencia y pierdes escalabilidad.

Podría dar muchos ejemplos, pero déjame decirte que iSCSI, a escala, es absolutamente horrible para el rendimiento. Es un protocolo basura nunca destinado a la gestión o el rendimiento.

A diferencia del canal de fibra, que fue diseñado desde cero para una confiabilidad excepcional y un alto rendimiento. Cisco ha estado prediciendo el final del canal de fibra durante aproximadamente 10 años. Incluso dejaron el mercado y tuvieron que volver a entrar.

Ethernet de 100 Gb podría funcionar bien, pero la carga de la CPU en los dispositivos podría arruinarlo, tal como lo ha hecho con 10 Gb.

Sé de organizaciones que querían dispositivos de almacenamiento basados ​​en SSD de alto rendimiento. Debido a que usaron iSCSI, tuvieron que comprar 2 matrices.

2 matrices. Matrices SSD. Cada conjunto costaba aproximadamente un cuarto de millón de dólares.

Los clientes de canales de fibra con entornos similares estaban bien con 1. Las implementaciones de canales de fibra funcionan increíblemente bien, y lo hacen durante años. Muchas organizaciones todavía usan SAN de 4 Gb (que superan el iSCSI de 10 Gb).

¿La red TCP se cae? SAN se queda despierto. Si la SAN deja de funcionar, todavía tiene una red de administración. Cuando una red plana se cae? Tu negocio pierde.

¿Estás bromeando no? Ethernet es muy barato porque es omnipresente, ha estado en el silicio durante décadas y se ha optimizado al mínimo.

FibreChannel es básicamente un protocolo de transporte integrado en silicio personalizado, de bajo volumen y alto costo.

Costo