Si IBM introduce el aprendizaje automático en z / OS, ¿qué significará eso para un desarrollador de mainframe?

Entiendo que esto suceda en un Mainframes que se ejecuta en Linux más que cualquier otra cosa. Ya podemos tener portadas de bibliotecas de aprendizaje automático y trajes de software que sean capaces de ejecutarse en Linux.

Para un desarrollador en Mainframes, esto significaría aprender un montón de Techstack (R, Python …), Matemáticas y Ciencias de datos para aprovechar mejor esta situación.

Con esto podemos tener lo siguiente

  1. Business Intelligence puede integrarse en Mainframes.
  2. Es posible que podamos entrenarlo para corregir errores comunes de datos encontrados en bases de datos, archivos DASD o archivos VSAM. (La gente de soporte de producción estará feliz)
  3. Podemos reconocer el patrón de cuerda para encontrar una transacción fraudulenta mejor.
  4. Los sistemas CICS en línea pueden tener incorporados sistemas de sugerencias, pueden aprender las entradas de uso común del usuario y rellenarlas previamente o darles un conjunto de “conjeturas” para elegir.

More Interesting

¿Por qué es importante aprender el descenso de gradiente en el aprendizaje automático?

¿Cómo se usa el aprendizaje automático en FinTech (P2P, pagos), particularmente fuera de algo trading? ¿Alguien tiene ejemplos específicos en punto a punto, verificación de crédito, pagos, etc.?

¿Cuál es el mejor método de extracción de características para OCR en texto chino escrito a mano?

¿Es GitHub o GitLab más adecuado para una empresa de ciencia de datos / ML?

¿Por qué se usa tanto el aumento de gradiente con los árboles de decisión, en lugar de con otros clasificadores?

¿Cómo elijo theta0, thetaL y thetaU en un modelo de proceso gaussiano de scikit-learn?

¿Cuál es la tecnología detrás de la aplicación Summly recién adquirida por Yahoo?

¿Qué son los espacios latentes en el aprendizaje de representación?

¿Cómo construye Apple su red neuronal para el nuevo iPhone X Face ID? Los usuarios solo registran sus caras una vez cuando configuran el teléfono inicialmente, entonces, ¿cómo podría esa foto de los usuarios ser un conjunto de entrenamiento lo suficientemente grande como para entrenar la red neuronal?

¿Cuál es el artículo o recurso web más informativo sobre el modelado similar?

¿Por qué el error cuadrático medio es equivalente a minimizar la entropía cruzada entre la distribución empírica y un modelo gaussiano?

¿Cuál es el uso de una capa de disminución de resolución en una red neuronal convolucional (CNN)?

¿Podemos tener un error cuadrado medio de datos de entrenamiento para una red neuronal?

¿Qué es exactamente el sobreajuste y por qué preferimos modelos que no están sobreajustados incluso cuando los resultados son mejores?

¿Cuántos tipos de técnicas utilizan los limpiadores profesionales?