Técnicas de procesamiento de señales junto con aprendizaje automático; se han usado juntos para el diagnóstico de fallas, mientras que ML puede hacerlo solo para CBM. ¿Por qué?

Esta es en realidad una muy buena pregunta y una que intentaré responder de la mejor manera posible.

No estoy al día con las últimas técnicas de ML en CBM / CBM +, pero he pasado algunos años trabajando en los aspectos teóricos del análisis de CBM +.

No intentaré darle un análisis global sobre Procesamiento de señal / Filtrado adaptativo vs. ML, pero haré constar que probablemente estén mucho más relacionados de lo que cree. En gran medida, el LD es una extensión de estas otras disciplinas tradicionalmente EE. Gran parte del ML basado en texto, si no está relacionado con las aplicaciones tradicionales para CBM. Una de las áreas más emocionantes de ML que realmente se extiende entre esta valla figurativa entre ML y SP es el filtrado adaptativo del núcleo.

En CBM, le interesan principalmente los diagnósticos y pronósticos. Ambos se basan en muchas de las áreas de aplicación de ingeniería clásicas (detección, estimación, filtrado adaptativo, control adaptativo, etc … teorías).

Teniendo en cuenta la discusión anterior, y especialmente cuán estrechamente relacionados están estos temas, si vuelve a la teoría de decisión básica, hay algo que se llama “estadística suficiente”. Una estadística suficiente es el concepto de que cualquier problema de decisión puede reducirse a una dimensión menor que se centre en las métricas que separan el espacio de decisión.

Estadística suficiente – Wikipedia

Para una decisión binaria, como en el caso de una hipótesis de falla frente a nula, una “estadística suficiente” le permite resolver este problema utilizando una razón de probabilidad escalar. Las estadísticas suficientes clásicas en SP, es el filtro coincidente .

Filtro combinado – Wikipedia

El filtro coincidente se basa en algunos conceptos matemáticos muy profundos en la teoría de la optimización. El MF maximiza la salida de un filtro para todas las entradas posibles y, al mismo tiempo, maximiza la relación señal / ruido (SNR). Además, minimizó el ruido de salida del proceso. En los términos más simples, si está tratando de detectar un cierto patrón, realiza una correlación de todas sus entradas con una copia del patrón que está buscando. El MF está sintonizado a esa señal y suena más fuerte.

Más allá de ser óptimo en un sentido de mínimos cuadrados, al realizar este proceso, se reduce en gran medida la cantidad de datos involucrados en la toma de una decisión. Esto se debe a que todas las señales tienen un ancho de banda limitado a menos que sean ruido blanco puro. Puede reducir en gran medida su problema computacional a un espacio de decisión que elimine toda la redundancia de datos.

En CBM +, como regla general, siempre querrá hacer algún tipo de procesamiento de señal frontal para establecer un espacio de decisión de dimensionalidad mucho menor antes de aplicar una técnica ML (núcleo o neural) sobre la cual tomar decisiones finales de detección de fallas. Esto no es solo desde el punto de vista de la carga computacional, sino también desde el punto de vista del transporte y almacenamiento de datos. Si es fácil ejecutar un algoritmo SP para producir estadísticas suficientes, ¿por qué debo transportar la señal completa a un algoritmo ML general? Los requisitos computacionales de transporte de datos dnf se reducen drásticamente utilizando el preprocesamiento de SP.

Solo imagine hacer diagnósticos CBM en una flota de 5000 vehículos y está recolectando datos continuos de una multitud de puntos en cualquier vehículo a velocidades de datos de 100 hz. La cantidad de datos se convertirá rápidamente en una gran carga.