Aprendizaje automático: Alex Casalboni: ¿Cuál es la mejor herramienta de ML para desenfocar caras (los tres tipos de visión izquierda, derecha y frontal) y placas en las imágenes?

Hola vikas ranga

El primer paso del proceso, para ambas tareas, sería detectar rostros y placas en sus imágenes.

Tanto la detección de rostros como el OCR se pueden lograr con la API de Google Vision (todavía en vista previa limitada). Aquí demostré cómo podría usarse y en qué escenarios: API de Google Vision: Análisis de imagen como servicio.

Por supuesto, no todos los textos extraídos de la imagen serán una placa de matrícula, por lo que deberá buscar patrones en el texto extraído. Una técnica alternativa sería la detección de objetos reales, que es más eficiente y precisa, pero también más compleja.


El segundo paso sería desenfocar un área determinada de la imagen, una vez que haya identificado dónde se encuentran las caras o las licencias. Puede implementar esto mediante simples bibliotecas de procesamiento de imágenes, como OpenCV (OpenCV | OpenCV). Si está familiarizado con Python, aquí hay un tutorial útil sobre el suavizado de imágenes (por ejemplo, el desenfoque) con Python y OpenCV: suavizado de imágenes.


Es posible que desee implementar este proceso en un entorno de nube que le brinde algunas funcionalidades de canalización, como AWS Lambda. Puede definir una función Lambda para cada paso (detección de rostros, detección de licencia y desenfoque) y organizarlos en pasos secuenciales (es decir, puede haber ambos rostros y placas en la misma imagen), eventualmente accediendo a cada función de Lambda a través de Amazon API Gateway.

Tenga en cuenta que cada función Lambda tiene un tiempo de ejecución máximo, por lo que deberá optimizar las llamadas y el procesamiento de la API. Además, necesitaría generar un entorno Lambda adecuado para usar OpenCV, aquí hay una buena lectura: https://markn.ca/2015/10/python-…

More Interesting

¿Por qué un niño de 6 años puede realizar tareas de reconocimiento de objetos mejor que una red neuronal distribuida a gran escala con decenas de miles de núcleos de CPU, pero incluso un cerebro adulto no puede competir con un procesador anticuado cuando se trata de cálculos de procedimientos? ¿Qué falta en nuestro procesador?

¿Cómo determinaría si el error de cuando ejecuta su algoritmo de aprendizaje automático es de alto sesgo o alta varianza (también conocido como corte o sobreajuste)?

¿Cuáles son los problemas interesantes en la 'automatización de big data'?

¿Qué tipo de empresas necesitan / necesitarán ingenieros de Machine Learning?

¿Cómo encuentro y uso información en el diseño de máquinas?

Cómo descargar el conjunto de datos para el resumen de texto extractivo

¿Cuál es una mejor manera de comenzar a aprender Ciencia de Datos, a través de cursos en línea o en un Instituto de capacitación?

¿Por qué el impulso ayuda a entrenar una red neuronal?

Los algoritmos de ML escritos en Java funcionan bien para un conjunto de datos más pequeño. Para un conjunto de datos grande, ¿cómo podemos escalar estos algoritmos? ¿Necesitamos buscar algoritmos distribuidos / mapas distribuidos en memoria / NOSQL / archivos para leer y escribir grandes conjuntos de datos o hay alguna buena API?

Cuando se estandarizan los datos como un paso de preprocesamiento, ¿por qué se usa la media y la varianza utilizadas en el tiempo del tren también en el momento de la prueba?

¿Cómo comienzo en la teoría y la programación del aprendizaje automático?

¿Cuál es un buen conjunto de datos para probar mi clasificador vecino más cercano K?

¿Qué se entiende por el término "ejemplos adversos" en el aprendizaje automático?

¿Qué pasaría si pocos puntos de datos son comunes en los conjuntos de capacitación y validación?

¿Qué algoritmo funciona mejor para bandidos adversarios?