Kafka es un sistema distribuido altamente escalable para almacenar y distribuir datos en tiempo real (con múltiples fuentes de datos y múltiples consumidores al mismo tiempo).
Por lo tanto, si está creando una aplicación, es decir, para un aeropuerto, donde necesitaría capturar y analizar miles o millones de imágenes por segundo , entonces kafka puede resolver sus requisitos de almacenamiento y distribución de datos.
Kafka es en realidad el más adecuado para mensajes de tamaño pequeño a mediano, y la configuración predeterminada permite usar mensajes de hasta 1 MByte, aunque puede anular fácilmente esta configuración.
- ¿Puede la coincidencia de patrones funcionar en la clasificación de imágenes en color con SVM?
- ¿El proceso gaussiano supone que sus covarianzas se mantienen constantes?
- ¿Cuáles son los mejores libros de aprendizaje automático para principiantes?
- ¿Cuáles son los proyectos de aprendizaje automático más populares en Github?
- ¿Por qué se requieren conocimientos de aprendizaje automático para un periodista de datos? ¿Por qué la exploración y visualización de datos por sí sola no es suficiente para el periodismo de datos?
La parte de visión por computadora, por supuesto, requerirá algún tipo de algoritmo de aprendizaje automático, y con Kafka podría desarrollar su algoritmo para operar en una imagen a la vez, y así obtener resultados con baja latencia.