¡Muchos!
Ya sabemos por ejemplo:
* predecir una variable dadas las otras (pseudolikelihood)
- Cómo usar el aprendizaje automático para unir un patrón a partir de valores CSV
- Cómo leer esta arquitectura de red neuronal convolucional
- ¿Qué valor cree que tiene la selección de funciones en el aprendizaje automático? ¿Cuál crees que mejora más la precisión, la selección de características o la ingeniería de características?
- En una unidad LSTM, ¿cuál es la razón detrás del uso de una activación de tanh?
- ¿De qué manera las competencias de minería de datos y aprendizaje automático ayudan / restan valor a estos campos académicos y sus aplicaciones comerciales?
* predecir un subconjunto de variables dadas las otras (pseudolikelihood generalizado)
* predecir una variable dada las anteriores en algún orden (redes Bayes totalmente visibles, redes autorregresivas, NADE, RNN generativos)
* dada una observación corrupta, recupere el punto limpio original (eliminación de ruido)
* predecir si la entrada proviene de la distribución generadora de datos o de alguna otra distribución (como un clasificador probabilístico) (Estimación restrictiva de ruido)
* aprender una función invertible de tal manera que la distribución transformada sea lo más factorial posible (NICE, y cuando se consideran funciones aproximadamente invertibles, los autoencoders variacionales)
* aprender una transformación estocástica para que si la aplicamos muchas veces convergiéramos en algo cercano a la distribución de generación de datos (Redes estocásticas generativas, autoencoders generadores de ruido, inversión de difusión = termodinámica de no equilibrio)
* aprender a generar muestras que no pueden ser distinguidas por un clasificador de las muestras de entrenamiento (GAN = redes adversas generativas)
* ¡o simplemente maximice la probabilidad de los datos bajo algún modelo probabilístico!
y estoy seguro de que olvidé algunos y que se descubrirán más 🙂