¿Por qué las computadoras mainframe siguen siendo relevantes en 2015?

Muchas respuestas muy buenas.

La arquitectura de un marco principal es considerablemente diferente de un sistema basado en x86. Es extremadamente configurable de una manera que es imposible de lograr en otro lugar. Eso permite atender circunstancias muy especiales como velocidad, disponibilidad, etc.

Sin querer entrar en detalles técnicos, aquí hay dos cositas que ilustran lo que puede hacer un mainframe:

En 2016, Amazon declaró que el 12 de julio, día de Amazon Prime, vendieron 636 artículos por segundo [1], esto se hace usando la ahora famosa infraestructura de AWS.

Según una publicación de VISA, el procesamiento de su tarjeta de crédito ejecuta 56,000 transacciones por segundo [2]. Eso se logra utilizando 8 cuadros principales del Sistema Z.

Amazon tiene enormes instalaciones para administrar su infraestructura. 8 Los sistemas System Z caben en un espacio de una casa grande. [3]

Notas al pie

[1] Prime Day le da a Amazon más de 600 razones por segundo para celebrar

[2] https://usa.visa.com/dam/VCOM/do…

[3] Asuntos tecnológicos

El procesador Z, Z / OS y los mainframes en los que se usan forman un universo paralelo totalmente diferente del ecosistema servidor / PC / móvil “normal”. Las preocupaciones que el hardware y el software están hechos para satisfacer son totalmente diferentes a las que la mayoría de la gente está acostumbrada. Cuando se hace esta pregunta, mucha gente dice cosas como “inversión en hardware”, “los bancos tardan en cambiar” y “el software se depura, ¿por qué cambiar?”. Todo esto es cierto, pero también es cierto que no existe una solución de hardware que resuelva los principales problemas que resuelven los mainframes.

El primero de ellos es la aritmética decimal. No realmente. Los bancos y algunos otros tipos de empresas tienen que hacer cálculos aritméticos decimales con una precisión del 100% y a tasas de muchos billones de operaciones por día. Si intenta emular esto usando aritmética binaria de punto fijo, punto flotante o entero, la mayoría de los programadores se equivocarán y será lento. El procesador Z tiene unidades decimales dedicadas que solo hacen aritmética decimal codificada en binario. Lo hacen mucho más rápido y con más confiabilidad de lo que se puede hacer en software, y con absoluta confianza nadie va a usar un número entero y no pensar en ello.

En segundo lugar, necesitan un tiempo de actividad del 100%. No es que la mayoría de los datos estén disponibles la mayor parte del tiempo con cierta cantidad de potencia informática, sino todos los datos, todo el tiempo y con toda la computadora detrás. Sin excepciones. No hay margen de maniobra. Entonces todo es intercambiable en caliente. Puede extraer una placa de CPU de una máquina en funcionamiento y no se pierde nada. Hay un conjunto completo de requisitos de software y hardware necesarios para poder hacer esto.

Hay más: el ancho de banda de E / S masivo, la virtualización verdadera y el hardware específico de la aplicación incorporada también son importantes.

Hay lugares como bancos y compañías de seguros que han invertido $ 100 millones en esa vieja tecnología de hardware y software y los sistemas funcionan lo suficientemente bien para ellos. Han estado comprando mainframes nuevos y más baratos cada pocos años y están muy contentos de ejecutar su software de 40 años ahora en racks de hardware mucho más pequeños.

Por ejemplo, un banco grande en la ciudad aquí tiene todo su software de cuenta corriente escrito en lenguaje ensamblador BAL, IBM / 360 de 40 a 50 años. Funciono bien y ya está depurado en su mayoría. Les costaría mucho tiempo, dinero y nuevos errores reescribir todo eso para un hardware más moderno. Puede ser de menor costo y en un lenguaje más moderno, pero los costos, los riesgos y los dolores de cabeza son demasiado altos.

Todavía son relevantes porque:
1) Las aplicaciones comerciales críticas generalmente no están demasiado interesadas en cambiar la tecnología a menos que haya una necesidad apremiante. Esto no solo requiere una gran inversión, sino que también existe un gran riesgo operativo. Las computadoras mainframe han sido altamente confiables, seguras y probadas a lo largo del tiempo.

2) IBM ha estado constantemente mejorando estos.
La integración con otra plataforma tecnológica es el aspecto más importante para mantenerlos vivos. Siempre que existía una necesidad comercial realmente apremiante, casi siempre había alguna solución de integración para integrar mainframe con alguna otra plataforma tecnológica para cumplir con el requisito. Por ejemplo, la organización necesitaba sitios web de Internet, pero el front-end de mainframe era un problema. Luego, IBM desarrolló tecnologías de middleware para integrar mainframes con java / dot net para satisfacer las necesidades del negocio y al mismo tiempo conservar mainframe como back end.

Cuando comencé a trabajar en centros de datos, un par de mainframes y su almacenamiento asociado ocuparon una sala entera. Los servidores de PC eran desconocidos, pero siguieron unos años más tarde tomando algunas de las tareas de servicio domésticas (piense en los camareros de un restaurante).
A medida que pasó el tiempo, el servidor hizo más, mientras que los mainframes se hicieron más pequeños, más rápidos y mucho más confiables.

El aumento de la confiabilidad permite a las organizaciones trabajar con menos mainframes y, sin embargo, hacer un montón de trabajo. La mayor fiabilidad también reduce el tamaño de la fuerza de trabajo de apoyo. En los años 80 era común ver a 20 o 30 operadores (incluidos los simios de cinta y las operaciones de la sala de impresión) zumbando (o escucharlos roncar detrás de un estante de equipo), hoy en día un puñado de operaciones puede hacer el mismo trabajo.
Actualmente, la mayor parte del trabajo en centros de datos se destina a soportar millones de servidores en rack, por lo que pocos miembros del personal de soporte tienen motivos para interactuar con un mainframe.

Diariamente vemos cargas de contenedores de servidores en rack cada vez más altos, lo que muchos de nosotros consideramos como la desaparición del mainframe (esto ha sido un titular recurrente desde los años 80), pero a medida que la huella del mainframe ha reducido nuestra dependencia de ellos ha aumentado. (Ver la excelente contribución de Simon Kinahan).

Simplemente no podemos pasar sin mainframes, y siento que no los usamos lo suficiente. Los mainframes energéticamente sabios son mucho más eficientes que sus contrapartes de PC. Los mainframes no fallan, sin embargo, en contraste, lo mejor que verá de un servidor de PC es cinco nueves en una vida útil corta y muchas plantas de enfriamiento asociadas.

Sin embargo, el hecho de que IBM sea ahora la única compañía que construye mainframes es un poco preocupante.

El 7 de abril de 1964, IBM anunció la familia de mainframes Systems / 360. Y siguen existiendo porque a lo largo de todos estos años, los mainframes tuvieron que proporcionar un buen valor a los clientes, que de otro modo habrían abandonado la plataforma. Han sido diseñados para admitir las aplicaciones más críticas de una empresa, incluida la banca, la gestión de inventario y las reservas de aerolíneas. Por lo tanto, han tenido que soportar grandes volúmenes de transacciones y tiempos de respuesta muy rápidos, así como estar en funcionamiento casi todo el tiempo con interrupciones mínimas. Además, estas aplicaciones de misión crítica requieren los más altos niveles de seguridad, disponibilidad, administración de sistemas y otras llamadas utilidades.