Ejemplos rápidos y sucios:
Preprocesamiento: supongamos que tiene datos de entrada en forma de categorías y que tiene que transformarse de etiquetas de categoría a números reales o características binarias (un vector caliente). O tiene varios predictores y desea “normalizar” las entradas para que todas se parezcan al modelo. O tiene datos de garabage y desea tirarlos antes de alimentarlos (entrenamiento) al modelo. O bien, desea agregar nuevos predictores de ingeniería basados en inferencias que realice dentro del conjunto de datos examinado y luego (nuevamente) alimentarlo al modelo. Esto es en realidad toda una ciencia 🙂
Pre-entrenamiento: es realmente más directo: comienza su modelo final con “pesos” predefinidos basados en un proceso de pre-entrenamiento. Esto ciertamente (o potencialmente …) generará múltiples beneficios, como un tiempo de entrenamiento reducido, especialmente para modelos profundos que ya sabrán (que tienen pesos especialmente predefinidos / entrenados) cómo reconocer ciertas características o grupos de características con las capas ocultas.
- Sistemas de bases de datos: ¿Qué formatos de datos se utilizan para almacenar series de tiempo?
- ¿Cuáles son algunos de los temas candentes que se están investigando actualmente en la escucha de máquinas / procesamiento de audio?
- ¿Las computadoras cuánticas mostrarían una aceleración para el aprendizaje automático?
- ¿Cuáles son los mejores libros de aprendizaje automático para principiantes?
- ¿Dónde está el mejor lugar para encontrar startups emergentes de aprendizaje automático y PNL?