¿Cuáles son las principales aplicaciones de aprendizaje profundo en centros de datos?

Optimización de la energía del centro de datos: con empresas más grandes como Google, Facebook, etc., el tamaño del centro de datos y la complejidad de la información que recibe de varias fuentes de datos, que puede ser de un usuario individual a varios datos de sensores de dispositivos vívidos, aumenta dramáticamente.

El algoritmo de aprendizaje profundo se utiliza en la optimización energética del centro de datos , para identificar los diversos conjuntos de escenarios que un humano podría perder con datos tan abundantes en primer lugar y cuando agregamos varias combinaciones, hace que el problema sea interesante.

Permítanme explicar los escenarios de los que estoy hablando, considere el ejemplo de monitorear el calor dentro de las salas de servidores o el uso eficiente de energía, necesitamos enfriarlo de manera eficiente. Con maquinaria compleja y sofisticada interactuando entre sí, el entorno tiende a cambiar de forma no lineal. El factor externo, como el clima, el tiempo de respuesta esperado de la maquinaria puede variar en función del tiempo de horas pico de uso del usuario, etc. Esto lleva a la conclusión de que sería difícil lidiar con tal situación utilizando un modelo de ingeniería tradicional que podría implicar factores codificados. .

Estos procesos son un problema apto para ser atendido y resuelto por el algoritmo de aprendizaje profundo. Identificar un preajuste de datos del sensor que se pueda utilizar para identificar patrones vívidos para tomar las medidas adecuadas es la forma de resolver el problema ahora. Google ya se está ocupando del uso de energía en su centro de datos utilizando el algoritmo de aprendizaje profundo de manera más precisa al suministrar una gran cantidad de datos de sensores a la DeepMind AI. No estoy seguro de los números, pero es una reducción del 30-40% en la factura del centro de datos de Google. Considero que esto es una aplicación importante del aprendizaje profundo en lo que respecta al centro de datos, el hecho simple es que los datos son importantes, pero ahora también lo hacen nuestros recursos energéticos.

Otra aplicación emergente que utiliza el aprendizaje profundo para recopilar y limpiar datos , modelado y análisis de datos : un ejemplo interesante es la comparación de archivos de datos mediante un algoritmo de aprendizaje profundo, en caso de una gran cantidad de datos, el algoritmo de aprendizaje profundo podrá encontrar la correlación entre archivos de manera más eficiente. Más importante aún, no se lo perderá y podría cubrir un rango o alcance más amplio.

Me gustaría agregar para “¿Reconocimiento de voz? ¿Procesamiento de imagen? ”, Que puede prosperar mediante el uso del aprendizaje profundo? La respuesta es: a partir de ahora, el procesamiento de imágenes lidera la carrera. Sin embargo, podemos ver que recientemente el algoritmo de aprendizaje profundo ha cambiado la forma en que interactuamos con nuestros teléfonos móviles específicamente Android, ha habido una gran mejora en el procesamiento del habla en los dispositivos Android.

También puede haber otro ejemplo. Si puede agregar, por favor comente a continuación, me gustaría escucharlo.

Tiene razón, el reconocimiento de voz, el procesamiento de imágenes y los sistemas de recomendación dominan la gran mayoría de las cargas de trabajo de inferencia de centros de datos.

More Interesting

¿Cuáles son algunas aplicaciones de la vida real del aprendizaje automático además de las aplicaciones relacionadas con la web?

¿Cuáles son las diferencias entre los modelos pre-entrenados y entrenados?

¿Qué núcleo (para los métodos de núcleo en el aprendizaje automático) es menos sensible a la alta dimensión: cauchy, gaussiana o laplaciana?

¿Qué tan útil es un trabajo cuantitativo en Goldman Sachs para un doctorado posterior en Machine Learning?

Cómo combinar salidas del sistema de recomendación (matriz de elementos de usuario) a través de un conjunto

¿Qué computadora portátil debo comprar, la Dell XPS 15 o la MacBook pro 13 '2017 para una Maestría en Ciencias de la Computación, en los EE. UU. Con enfoque en aprendizaje automático y ciencia de datos?

¿Cuáles son las ventajas y desventajas de la traducción automática estadística y basada en reglas?

¿Existen algoritmos que hacen lo contrario de la detección de anomalías, por ejemplo, señalan ocurrencias regulares en datos ruidosos?

¿Cuál es la diferencia entre factorización y parametrización?

¿De qué sirve un alumno constante?

¿MATLAB es el software más conveniente para el aprendizaje automático?

¿Cuál es un ejemplo básico de aprendizaje automático?

¿Cuáles son los lenguajes de programación básicos para aprendizaje automático, inteligencia artificial y big data?

¿Se pueden mapear los datos de entrada circulares (como la fase de una sinusoide) en un espacio de características lineales usando un núcleo lineal usando SVM? Si no, ¿qué núcleo es óptimo para datos de entrada circulares?

¿Por qué las redes convolucionales profundas llegaron tan tarde?