No existe un método fácil y rápido para hacer el reconocimiento de imágenes. Todos los métodos actuales utilizan cantidades masivas de procesamiento paralelo (por ejemplo, tecnología de visión artificial basada en redes neuronales NVIDA) o redes de computadoras (por ejemplo, sistema de visión artificial Google X-Labs). El enfoque típico es desarrollar un sistema basado en visión artificial en la tecnología basada en ANN (redes neuronales atrayentes) (por ejemplo, aprendizaje profundo) y luego enseñar al sistema cómo reconocer objetos basados en imágenes y finalmente convertir esa información de interconectividad en una versión de hardware basada en nano-chip usando PAL (lógica de matriz de compuerta programable), FPGA (matriz de compuerta programable de campo) o directamente usando diseños de nanochips basados en transistores personalizados. Estas son las formas exitosas de hacer lo que está buscando hacer. Robotronics LLC | Facebook
Cómo crear rápidamente un prototipo de una aplicación de reconocimiento de imágenes utilizando el aprendizaje automático y la red neuronal
Related Content
¿Cómo funcionan las redes interbancarias?
¿Cuál es el lenguaje más cercano al lenguaje de máquina?
¿Por qué Intel Xeon Phi no se usa mucho para acelerar el entrenamiento de aprendizaje profundo?
Hola,
Recomiendo a Keras una de las bibliotecas de redes neuronales de alto nivel en python. Es muy fácil, rápido y eficiente. También considerará usar redes convolucionales. Aquí hay un gran tutorial sobre cómo hacer ese reconocimiento de objetos con redes neuronales convolucionales en la Biblioteca de aprendizaje profundo de Keras: dominio del aprendizaje automático.
AFAIK, no puede encontrar bibliotecas más rápidas para la creación de prototipos de redes neuronales.
Buena suerte y espero que ayude.
Mahoma
More Interesting
¿Cuántos 50 mg / ml hay en un vial de 10 ml de EP?
¿Cómo comenzarías en Computación ubicua y programación para ello?
¿Se pueden usar los modelos ocultos de Markov como clasificadores binarios? Si es así, ¿cómo?
¿Cuáles son las desventajas y desventajas de usar el aprendizaje profundo?
Como científico de datos, ¿qué te inspiró a seguir una carrera en ciencia de datos?
¿Crees que la tecnología 'block chain' es la próxima gran novedad en informática?
¿Qué dice el profesor Yaser Abu-Mostafa en su conferencia sobre la viabilidad del aprendizaje?
Cómo integrar el marco Tensorflow con XGBoost
¿Cuáles son los problemas interesantes en la 'automatización de big data'?
¿Por qué el método de Newton solo es apropiado cuando el hessiano es positivo definido?