¿Cómo se compara Grok / Numenta con otros algoritmos de aprendizaje automático?

Me divertí investigando esta respuesta, ya que no es un área de especialización. Por lo tanto, algunas de mis conclusiones podrían ser engañosas. Lee con precaución.

Grok es un producto de software desarrollado por Numenta basado en las ideas de Jeff Hawkins, inventor de Palm Pilot.

Jeff propone una teoría jerárquica basada en la alimentación, la alimentación, la alimentación hacia adelante / predicción para describir cómo funciona la neocorteza de mamíferos. La teoría se llama teoría del marco de predicción de memoria y está destinada a apoyar tanto una descripción física de la función cerebral como un modelo potencial para ejecutar una inteligencia artificial general.

Grok, sin embargo, es un esfuerzo mucho más centrado y, por lo tanto, factible a corto plazo. Específicamente, Grok aplica la teoría de Jeff para crear un sistema para la detección de anomalías en la operación del servidor. Se crea una instancia diferente de Grok para cada parámetro del servidor, como la utilización de la CPU, lectura / escritura de memoria, actividad de E / S, etc. Grok utiliza datos históricos sobre el comportamiento del parámetro para crear un modelo inicial para predecir el comportamiento futuro. Luego observa el comportamiento real y lo compara con sus predicciones en curso. Grok espera una cierta tasa de error en la predicción y evalúa las fluctuaciones en la tasa de error, frente a los errores mismos, para señalar un comportamiento anónimo. Grok parece estar completamente normalizado y, por lo tanto, puede adaptarse a los cambios en el comportamiento del sistema sin intervención humana. Se considera que su rendimiento es superior a un sistema de monitoreo basado en el umbral de parámetros más convencional.

Grok aprende de manera no supervisada en tiempo real basándose en datos reales, dado un poco de historia como punto de partida. Esto contrasta con el aprendizaje basado en el refuerzo mediante el cual se proporciona retroalimentación correctiva externa sobre los resultados o el aprendizaje basado en datos de prueba o ejemplos. La actividad de aprendizaje parece estar basada en una combinación de modelos estadísticos para generar predicciones con alguna forma de algoritmo basado en reglas para interpretar la importancia de las fluctuaciones de la tasa de error. La filosofía de diseño hace referencia a la función de cortex neo pero no parece utilizar un enfoque de red neuronal. El modelado se trata de un flujo de datos de una sola variable a la vez en lugar de mapear las conexiones y relaciones entre diferentes variables, aunque sugiere la sugerencia de que se debe introducir una capa de correlación de nivel superior para escalar los informes cuando se producen anomalías simultáneas entre múltiples parámetros del servidor.

Grok es un ejemplo de inteligencia artificial débil por la cual la capacidad se limita a un área problemática muy enfocada, en oposición a la inteligencia artificial dura o general. A primera vista, Grok parece ser una aplicación exitosa del aprendizaje automático, en la misma liga que el reconocimiento facial, del habla, de caracteres y la traducción automática. Sin embargo, todos estos ejemplos implican capacitación por adelantado sobre ejemplos con retroalimentación correctiva, en contraste con Grok, que aprende por sí mismo en tiempo real. Intuitivamente, parece que el enfoque incorporado en Grok podría extenderse a problemas más difíciles si se combina con capacitación supervisada de refuerzo en escenarios de prueba.

Grok no es un algoritmo de aprendizaje automático sino una plataforma para analizar datos de TI. Si desea utilizar algoritmos de aprendizaje automático, usaría una biblioteca como Tensorflow o PyTorch.