Respuesta de TLDR: creo que son cosas muy diferentes .
El procesamiento estadístico de señales (SSP), en términos generales, trata los métodos y técnicas de procesamiento de señales aplicados a los procesos estocásticos (SP), que son señales no deterministas, es decir, señales que tienen un componente aleatorio o estocástico. A menudo también se les llama simplemente “series temporales” porque son una fuente muy común de SP. En realidad, la mayoría de las señales reales son SP; no hay señales deterministas interesantes, en términos de contener información nueva, porque una señal determinista no tiene información (ya la conoce; es determinista).
Las operaciones típicas en SSP son la estimación espectral, la extracción de modelos de series de tiempo (por ejemplo, modelos ARMA o modelos Box-Jenkins), la predicción y el filtrado (por ejemplo, con el filtro Kalman o el filtro óptimo de Wiener) y, en cierta medida, el filtrado adaptativo. Le sugiero que comprenda la tabla de contenido de Monson H. Hayes: 9780471594314: Amazon.com: Books, que es un libro muy bien considerado sobre SSP para tener una idea de los asuntos en el área. Por supuesto, para dominar SSP debe dominar antes de las técnicas de procesamiento de señal “determinista” (análisis de Fourier, transformación Z, FFT, …).
- ¿Hay buenos libros o cursos para comenzar a aprender redes neuronales?
- ¿Qué gigantes tecnológicos están invirtiendo más en inteligencia artificial y cuáles son sus planes a largo plazo?
- ¿Hay alguna solución de código abierto para Chatbots o agentes de conversación?
- ¿Cómo pueden los robots reemplazar a los humanos? ¿Cuándo se estima que esto ocurra?
- ¿Los sistemas de reconocimiento de imágenes de aprendizaje profundo siempre aprenden esencialmente las mismas características de bajo nivel?
Tenga en cuenta que en SSP no tiene “aprendizaje” en absoluto, al menos en el sentido de aprendizaje automático (ML) .
Por otro lado, de nuevo en términos generales, ML implica el estudio de todos los aspectos del esfuerzo de proporcionar a las máquinas algoritmos que, al final, los hagan emular un comportamiento inteligente (¿humano?). A continuación se presentan algunas definiciones de ML extraídas de una búsqueda en Internet rápida y sucia, que, de una forma u otra, se refieren a “enseñar a aprender a usar computadoras o máquinas”. Nunca está implícito ningún procesamiento de señal estadística.
Entonces, para resumir, puede irse con el procesamiento estadístico de la señal sin “tocar” en el aprendizaje automático, o viceversa .
Sin embargo, hoy en día se realiza mucho trabajo en ML que utiliza métodos SSP . Si, por ejemplo, está enseñando a una computadora a hacer buenas predicciones de los precios de las acciones, o de las ventas de libros de Amazon, probablemente esté utilizando técnicas SSP (probablemente extrayendo modelos adaptativos ARMA u otros, de series de tiempo) para alimentar la “tubería de aprendizaje” ” de la máquina. Es decir, probablemente esté extrayendo “patrones” de series de tiempo utilizando técnicas SSP como un primer paso en el flujo algorítmico de ML.
Entonces, en conclusión, y en mi humilde opinión, tal vez porque muchas aplicaciones modernas de ML se basan en información estocástica indexada en el tiempo (la serie de tiempo …) existe esta idea errónea de que SSP y ML son una y la misma cosa.
Solo una nota final: muchos de los algoritmos ahora en ML una vez “pertenecían” a los campos de Estadísticas e Investigación de Operaciones. Más recientemente, muchos de ellos fueron considerados propiedad de Inteligencia Artificial. Hoy en día son Machine Learning. La gran diferencia entre los tiempos pasados y los modernos es que hoy tenemos acceso a una gran potencia informática; Muchas variaciones de los algoritmos antiguos, e incluso la viabilidad de su uso en problemas prácticos, y también de algoritmos modernos, aparecieron debido al aumento de esa potencia de cálculo. Por ejemplo, k-means apareció en 1957 cuando las computadoras tenían menos potencia que la calculadora científica promedio; la regresión se remonta a Legendre y Gauss, alrededor de 1800, pero la regresión logística se remonta a solo 1958. SVM se inventó en 1963. El descenso de gradiente (descenso más pronunciado) para la optimización se remonta a las edades de Newton y Euler, aunque el descenso de gradiente estocástico es mucho más moderno .
#######################################
### Algunas DEFINICIONES de APRENDIZAJE DE MÁQUINAS (de una búsqueda en la Red) ###
#####
El aprendizaje automático estudia algoritmos informáticos para aprender a hacer cosas. Podríamos, por ejemplo, estar interesados en aprender a completar una tarea, hacer predicciones precisas o comportarnos de manera inteligente.
#####
Esencialmente, es un método para enseñar a las computadoras a hacer y mejorar predicciones o comportamientos basados en algunos datos. ¿Qué son estos “datos”? Bueno, eso depende completamente del problema. Podrían ser lecturas de los sensores de un robot a medida que aprende a caminar, o la salida correcta de un programa para cierta entrada.
Otra forma de pensar sobre el aprendizaje automático es que es el “reconocimiento de patrones”: el acto de enseñar a un programa a reaccionar o reconocer patrones.
#####
El aprendizaje automático es un subcampo de la informática que evolucionó a partir del estudio del reconocimiento de patrones y la teoría del aprendizaje computacional en inteligencia artificial. En 1959, Arthur Samuel definió el aprendizaje automático como un “campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programado explícitamente”. El aprendizaje automático explora el estudio y la construcción de algoritmos que pueden aprender y hacer predicciones sobre los datos. Dichos algoritmos funcionan construyendo un modelo a partir de un conjunto de ejemplos de entrenamiento de observaciones de entrada para hacer predicciones o decisiones basadas en datos expresadas como salidas, en lugar de seguir instrucciones estrictamente estáticas del programa.
#####
El aprendizaje automático es un tipo de inteligencia artificial (IA) que proporciona a las computadoras la capacidad de aprender sin ser programadas explícitamente. El aprendizaje automático se centra en el desarrollo de programas informáticos que pueden aprender a crecer y cambiar cuando se exponen a nuevos datos.
El proceso de aprendizaje automático es similar al de la minería de datos. Ambos sistemas buscan en los datos para buscar patrones. Sin embargo, en lugar de extraer datos para la comprensión humana, como es el caso de las aplicaciones de minería de datos, el aprendizaje automático usa esos datos para detectar patrones en los datos y ajustar las acciones del programa en consecuencia. Los algoritmos de aprendizaje automático a menudo se clasifican como supervisados o no supervisados. Los algoritmos supervisados pueden aplicar lo aprendido en el pasado a nuevos datos. Los algoritmos no supervisados pueden extraer inferencias de conjuntos de datos.