Codificadores automáticos.
Las técnicas de compresión de datos como PCA, LDA estaban limitadas en términos de sus asignaciones por linealidad. Los codificadores automáticos (un tipo de red neuronal) son más fuertes debido a sus asignaciones no lineales innatas. Puede usar codificadores automáticos para asignar sus entradas a un vector de características de menor dimensión y luego recuperar (al menos en gran medida) sus entradas de estas características de dimensiones reducidas. Los codificadores automáticos también se usan ampliamente para eliminar el ruido de los datos (esta variante es famosa como Denoising-Autoencoders, acertadamente). Por lo tanto, seguramente puede agrupar estas 2 características juntas y obtener vectores de características comprimidos sin ruido para sus datos. Casi todos los marcos de aprendizaje profundo con los que he trabajado admiten codificadores automáticos, por lo que es simplemente una elección basada en su preferencia de lenguaje de programación. Si no tiene mucha experiencia con la codificación, sugeriría comenzar con Caffe (tiene binarios preconstruidos para todo), de lo contrario, puede usar Torch (Lua), Theano / Keras (Python) o Tensorflow (Python) si tiene familiarizado con la programación.
DESCARGO DE RESPONSABILIDAD: No estoy seguro de en qué nivel está familiarizado con los conceptos de Aprendizaje automático o Aprendizaje profundo, por lo que mi respuesta es algo que no debería enfrentar muchos problemas para implementar, incluso si es muy nuevo en este paradigma. ¡Esto NO es lo mejor que puedes hacer!
- ¿Cuál es su experiencia con el programa inmersivo de ciencia de datos de la Asamblea General?
- ¿Qué tan malo es estandarizar variables ficticias?
- ¿Cómo tenemos equilibrio de carga en los reductores en caso de sesgo de datos?
- ¿Cuáles son las compañías en India que trabajan en el dominio de las ciencias de datos aparte de Mu Sigma?
- Si cada ciencia usa datos, ¿qué es la ciencia de datos?