El BI convencional (clásico) está muerto . ‘BI clásico; (informes, consultas, etc.) fue una herramienta útil para la medición táctica de los sistemas operativos. Las herramientas y técnicas de BI clásicas son muy buenas para predecir el pasado. El BI clásico descansaba sobre los almacenes de datos relacionales y en su mayoría sistemas operativos.
El ‘BI neoclásico’ nos permitió profundizar un poco más en el análisis de la causa raíz y proporcionó herramientas para la estimación y el presupuesto. Servidores analíticos, cubos (MOLAP / ROLAP) con desglose / capacidad de paso. La gestión por tablero se acuñó aquí y el mercado se inundó con herramientas que admitían la tecnología de visualización. Las arquitecturas neoclásicas se basaban en esquemas de estrellas, almacenes de datos y data marts. Estos sistemas requieren una enorme cantidad de cuidado / alimentación. El costo total de propiedad anual es alto. Muchos de estos sistemas se están desmantelando hoy y reemplazados por arquitecturas de BI modernas debido a la falta de agilidad y alto costo / beneficio.
El BI moderno ha surgido en los últimos 7 años y aprovecha las herramientas y técnicas que nos permiten extraer y analizar datos estructurados y no estructurados en arquitecturas sin esquemas. Esta era se centra en el análisis de grandes conjuntos de datos que cambian rápidamente y es un subproducto de otros movimientos tecnológicos como Social Media IoT y otras plataformas SaaS que crean cantidades masivas de datos que requieren análisis / toma de decisiones. Las herramientas son buenas para consumir grandes conjuntos de datos sobre plataformas de grandes datos como Hadoop y Spark. Esta era introdujo el Data Scientist y términos como aprendizaje automático y análisis predictivo para integrar la TI. Se ha avanzado mucho en la democratización del análisis de datos y la creación de potentes plataformas de autoservicio. La era moderna de BI también ha demostrado que la mayoría de las tecnologías analíticas y de almacenamiento de datos en las instalaciones, una vez integradas en las instalaciones, pueden trasladarse a la nube y el consumo puede ocurrir en cualquier dispositivo. Estamos a punto de pasar a la próxima era.
- ¿Es Siraj Raval el Neil De Grasse Tyson del aprendizaje profundo?
- ¿Qué tipo de algoritmo de aprendizaje profundo utiliza IBM Watson para la clasificación del lenguaje natural? ¿Utiliza CNN o RNN?
- ¿Cuánto importa el aprendizaje automático en ciencia de datos?
- Todos estos algoritmos de aprendizaje automático, ¿cuál es el punto? Parece que la elección del algoritmo de aprendizaje automático, el árbol de decisión, la red neuronal, svm, no es tan importante como la selección de características y el proceso de extracción de características que determina lo que entra, basura en basura, ese tipo de cosas.
- # ¿Cómo puedo comenzar un trabajo de investigación sobre aprendizaje automático?
Post Modern BI : hemos entrado en las primeras etapas de esta era hace unos dos años y estamos a horcajadas sobre las eras Modern / Post Modern BI. El BI / Analytics que emergerá en los próximos 5-7 años se basará en la adición de tecnologías de aprendizaje profundo en capas sobre los metamodelos del proceso de BI y análisis de datos. El BI postmoderno se caracterizará por:
- Inteligencia artificial basada en esquemas : por ejemplo: los algoritmos utilizarán un modelo de datos de entidades comerciales clave y mapeado en un conjunto de datos subyacente para analizar e informar de manera autónoma sobre tendencias y relaciones interesantes. Los resultados del análisis (estadísticas descriptivas y series de tiempo) se graficarán y / o presentarán en forma de tabla para su posterior revisión. Las analíticas más perspicaces se pueden guardar para una mayor supervisión y ajustarse en un panel para compartir / revisión colaborativa. Esta característica existe actualmente en Microsoft Power BI. Pero se pone mejor.
- IA sin esquema: la IA subyacente ha comenzado a identificar las relaciones naturales (covarianza / correlación) entre los datos y con capacitación adicional descubre relaciones importantes que existen dentro de conjuntos de datos estructurados y no estructurados. Hasta cierto punto, Watson de IBM hace esto hoy. Hay varios algoritmos de aprendizaje profundo que pueden hacer esto en conjuntos de datos estrechos.
- Consulta de lenguaje natural: además de cualquiera de los enfoques mencionados, los analistas podrán enviar consultas de lenguaje natural a la IA y con algunos comentarios de capacitación adicionales para responder preguntas habladas / escritas relacionadas con la agregación, tendencias, valores discretos (métricas / KPI) y proyecciones. Watson ofrece esta capacidad en forma limitada hoy como lo demuestra su éxito en el programa de juegos Jeopardy. Microsoft y SAP proporcionan características rudimentarias de lenguaje natural además de sus metamodelos basados en esquemas.
- Conjuntos de construcción analítica : las herramientas para construir experimentos analíticos más profundos mejorarán con bancos de trabajo visuales que se convertirán en la norma más que la excepción. Mire a IBM con SPSS y Microsoft con AZURE / ML para marcar el ritmo y proporcionar un acceso más democratizado a análisis más profundos. Observe cómo los resultados de estos experimentos se entrelazan con el tejido analítico de la empresa capaz de ser explotado por una IA que se ejecuta en la metacapa.
- Experimente con IA: en función del conocimiento subyacente recopilado por nuestros robots de IA y armado con antecedentes de la materia, nuestro nuevo modelo de IA autónoma y libre será capaz de diseñar, ejecutar y resumir los resultados de los experimentos.
Una vez que termine la era posmoderna, ya no habrá mucha necesidad de nuestras habilidades de BI y, dependiendo de la filosofía que adopte, nos moveremos a otros trabajos de análisis incapaces (por el momento) de ser ejecutados por una IA o nos unimos a muchos de nuestros hermanos de cuello blanco en la línea de desempleo … ese es un tema que vale la pena para una discusión en otro hilo.