¿Qué otras arquitecturas de redes neuronales se han utilizado para reducir las facturas de energía del centro de datos aparte del método de DeepMind?

Implementar esto efectivamente tiene poco que ver con la arquitectura NN en sí. La estrategia general de optimización es más importante, al principio.

El aprendizaje automático en general se ha utilizado mucho para mejorar la eficiencia del centro de datos. Algunos optimizan el servidor de destino, otros optimizan el HVAC, y algunos ambos (prediciendo el uso del servidor y el rendimiento del sistema de enfriamiento). DeepMind está usando NN (svm, y también se pueden usar otros métodos de optimización), pero no sabemos exactamente cómo los está usando. La estrategia general de optimización es desconocida.

¿Cuáles son las variables optimizadas? ¿Qué sensores se están mirando? ¿Qué tipo de sistema de enfriamiento se está utilizando? ¿Se está utilizando energía renovable? ¿Los datos se enrutan geográficamente en función de dónde se encuentra la energía más renovable en ese momento? ¿El sistema de enfriamiento tiene capacidad de almacenamiento? ¿Cómo se equilibra el rendimiento del servidor y la eficiencia de enfriamiento? ¿Está segmentando los NN para realizar tareas específicas o es uno agrupado en una gran red? Si está segmentado, ¿cómo está estructurado?

Estas son las preguntas que debe hacer primero antes de implementar esto. Estoy seguro de que puede obtener una optimización decente sin los algoritmos de DeepMinds (aunque estoy seguro de que ayuda). TensorFlow probablemente proporcionará predicciones correctas para comenzar. Una vez que tenga una buena estrategia, puede preocuparse por hacer la mejor arquitectura para hacer predicciones de estado precisas.

More Interesting

¿Cómo se manejan las características categóricas en un modelo de mezcla gaussiana / modelo de agrupamiento?

¿Qué método de reducción de dimensionalidad puede mantener las relaciones de traslación entre puntos?

Conjuntos de datos: ¿Cuáles son los principales corpus de texto utilizados por los lingüistas computacionales y los investigadores del procesamiento del lenguaje natural, y cuáles son las características / sesgos de cada corpus?

Will Naive Bayes dará un buen resultado si el conjunto de entrenamiento es mucho más pequeño que el no. de características en un clasificador de aprendizaje automático?

¿Qué son los núcleos de difusión?

Quiero pasar el tiempo dado para el proyecto del último año para aprender ML. ¿Cómo empiezo?

¿Hay grupos de investigación trabajando en aprendizaje profundo teórico?

¿Por qué el aprendizaje de refuerzo (profundo) no es adecuado o se usa más para resolver problemas de optimización combinatoria?

¿Cómo tratan SVM y ANN los valores atípicos?

¿Puede la operación de agrupamiento aumentar el número de neuronas en el aprendizaje profundo?

¿Qué significa el término difusión en bibliotecas numéricas con matrices como MATLAB, Numpy o TensorFlow?

¿Cómo debo comenzar si quiero ser parte de un proyecto de inteligencia artificial?

¿Cuál es el propósito de usar un parámetro de penalización [matemática] C [/ matemática] en SVM?

¿Se puede usar un C ++ para el aprendizaje automático? Si es así, ¿qué tan bueno es en comparación con Python y R?

¿Es útil para un científico de datos conocer métodos ágiles como Scrum?