¿Cuál es el algoritmo utilizado por la búsqueda de imagen inversa de Google (es decir, la búsqueda por imagen)? ¿Qué algoritmos necesitaría entender para crear una funcionalidad similar a pequeña escala?

Contestaré tu pregunta, pero primero necesito contarte acerca de cómo Google construye un cerebro humano artificial que busca gatos.


La búsqueda de imágenes es un sistema muy complicado y, dado el secreto de Google, es imposible saber realmente qué están haciendo detrás de escena. Sin embargo, la búsqueda de imágenes utiliza algunas técnicas realmente avanzadas, la más interesante parece haber comenzado con los gatos.

El sistema, conocido como visión por computadora, fue adquirido por Google junto con su empresa matriz DNNresearch, una nueva empresa del profesor Geoffrey Hinton y dos estudiantes de posgrado en la Universidad de Toronto.

¿Mencioné que usaron una red de computadoras gigante que está estructurada como un cerebro humano? Compuesto por unos 16,000 procesadores también. Luego entrenaron esta computadora para reconocer a los gatos y la soltaron en YouTube para aprender por sí mismos. Es tarea? Escanee 10 millones de imágenes para identificar si tenía gatos o no.


Después de esto, parece que se utilizó el mismo principio a una escala mucho mayor. Google se dispuso a aplicar esto a Google Drive y Google + Photos, donde ahora podría buscar una imagen por su contenido, incluso cuando no estaba etiquetada.

Sacamos investigación de vanguardia directamente de un laboratorio de investigación académica y la lanzamos, en poco más de seis meses.

– Chuck Rosenberg, equipo de búsqueda de imágenes de Google

El principio detrás de esta búsqueda era el mismo, identificar componentes dentro de la imagen y luego buscar por ella. Puede leer acerca de los detalles técnicos en la clasificación de ImageNet en papel con redes neuronales convolucionales profundas. Utiliza aprendizaje supervisado, 7 capas de peso ocultas y extractores de funciones aprendidos de los datos.

Nuestra red neuronal tiene 60 millones de parámetros de valor real y 650,000 neuronas. Se adapta demasiado. Por lo tanto, entrenamos en 224 × 224 parches extraídos aleatoriamente de imágenes de 256 × 256, y también sus reflejos horizontales.


Según Google, la función de búsqueda de fotos puede reconocer 1100 etiquetas.

Se nos ocurrió un conjunto de aproximadamente 2000 clases visuales basadas en las etiquetas más populares en Fotos de Google+ y que también parecía tener un componente visual, que un humano podía reconocer visualmente. En contraste, la competencia ImageNet tiene 1000 clases. Al igual que en ImageNet, las clases no eran cadenas de texto, sino entidades, en nuestro caso utilizamos entidades de Freebase que forman la base del Gráfico de conocimiento utilizado en la búsqueda de Google. Una entidad es una forma de identificar de manera única algo de una manera independiente del idioma. (…) Como queríamos proporcionar solo etiquetas de alta precisión, también refinamos las clases desde nuestro conjunto inicial de 2000 hasta las 1100 clases más precisas para nuestro lanzamiento.

Esto fue hace un tiempo, desde entonces, la visión por computadora ha recorrido un largo camino.

Ahora en cuanto a la cuestión de cómo funciona la búsqueda de imágenes. Bueno, parece haber principalmente dos formas.
Google busca imágenes que se parecen a la imagen de destino (es decir, que son similares pero pueden tener un tono ligeramente diferente, un poco borroso o recortado, etc.). La respuesta de Max Xu MengXiang a los Algoritmos: ¿Cuál es el algoritmo utilizado por Google Search by Image? explica cómo se puede lograr esto.

Sin embargo, la segunda parte del sistema funciona con visión artificial. Básicamente, Google busca los componentes de la imagen y descubre qué tipo de cosas contiene. Luego lo compara con otras imágenes que contienen los mismos componentes, calculando la probabilidad de obtener una coincidencia. Junto con algoritmos similares, Google finalmente puede darle el resultado.

¡Tenga la seguridad de que la visión por computadora aún no está allí!

Supongo que Google probablemente usa alguna combinación de las siguientes técnicas y clasifica los resultados usando un algoritmo patentado.

1. Detección de características (huella digital de la imagen para buscar la coincidencia exacta)
Existen tres algoritmos de detección de características comúnmente utilizados para hacer coincidir la deformación de la imagen, como el desenfoque, la rotación, la escala y el cambio de iluminación.
Son SIFT , PCA-SIFT y SURF

  1. SIFT es lento y no es bueno para los cambios de iluminación, mientras que es invariable para la rotación, los cambios de escala y las transformaciones afines.
  2. SURF es rápido y tiene un buen rendimiento al igual que SIFT, pero no es estable a los cambios de rotación e iluminación.
  3. PCA-SIFT es el mejor pero tiene problemas con el desenfoque de imagen.

No existe un algoritmo perfecto, por lo que la elección depende principalmente de la aplicación y qué tipo de compensaciones puede tolerar la aplicación.

Ejemplo: PixID http://ideeinc.com/products/pixid/

2. Búsqueda por color

Proceso de Búsqueda Multicolor Piximilar de Idée Inc
Un buen ejemplo de este algoritmo en uso http://labs.ideeinc.com/multicolr

3. Búsqueda de similitud visual

Se utiliza un conjunto de algoritmos para analizar atributos de imagen como color, forma, textura, luminosidad, complejidad, objetos y regiones. Estos atributos se almacenan para indexar y hacer coincidir Google parece usar esto en combinación con palabras clave para refinar las búsquedas en colecciones extremadamente grandes.

Ejemplo: http://labs.ideeinc.com/visual

Notas adicionales:
Google adquirió Neven Vision en 2006, un jugador clave en biometría de reconocimiento facial y de imágenes. Esto permite a Google reconocer caras, lugares, objetos y aplicar etiquetas automáticamente a todas las imágenes en Internet.
Esta tecnología le dio a Google una capa adicional de datos que luego se convirtió en Google Goggles http://www.google.com/mobile/gog
Esperaría que esta capacidad se integrara con “Buscar por imagen” para aumentar la precisión de los resultados de búsqueda

————————
Si desea crear una funcionalidad similar para un proyecto comercial, su mejor opción es utilizar una solución de coincidencia de imágenes automatizada basada en API por un tercero (o simplemente usar la API de búsqueda de Google. Sin embargo, si lo está haciendo a pequeña escala proyecto escolar, la búsqueda por histograma de color debería ser la más fácil de implementar.

Referencias
http://tineye.com (sitio relacionado)
http://ideeinc.com/ (Proveedor de soluciones)
http://en.wikipedia.org/wiki/Sca… (SIFT)
http://en.wikipedia.org/wiki/SURF (SURF)
http://www.cscjournals.org/csc/m … (Comparación de algoritmos de detección de características)

La búsqueda inversa de imágenes es una técnica de consulta de recuperación de imágenes basada en contenido (CBIR) que implica proporcionar al sistema CBIR una imagen de muestra en la que luego basará su búsqueda; En términos de recuperación de información, la imagen de muestra es lo que formula una consulta de búsqueda. En particular, la búsqueda de imágenes inversas se caracteriza por la falta de términos de búsqueda. Esto elimina efectivamente la necesidad de que un usuario adivine palabras clave o términos que pueden o no devolver un resultado correcto. La búsqueda inversa de imágenes también permite a los usuarios descubrir contenido relacionado con una imagen de muestra específica,

popularidad de una imagen, y descubrir versiones manipuladas y trabajos derivados.

Algoritmos

Los algoritmos de búsqueda inversa comúnmente utilizados incluyen:

  • Transformación de características invariantes de escala: para extraer características locales de una imagen [7]
  • Regiones extremas máximamente estables
  • Árbol de vocabulario

Imágenes de Google

La Búsqueda por imagen de Google es una función que utiliza la búsqueda inversa y permite a los usuarios buscar imágenes relacionadas simplemente cargando una imagen o URL de imagen. Google logra esto mediante el análisis de la imagen presentada y la construcción de un modelo matemático con algoritmos avanzados.

[8]

Luego se compara con miles de millones de otras imágenes en las bases de datos de Google antes de devolver resultados coincidentes y similares. Cabe señalar que, cuando está disponible, Google también utiliza metadatos sobre la imagen, como la descripción.

TinEye

TinEye es un motor de búsqueda especializado en búsqueda de imágenes inversas. Al enviar una imagen, TinEye crea una “firma digital o huella digital única y compacta” de dicha imagen y la compara con otras imágenes indexadas.

Este procedimiento puede coincidir incluso con versiones muy editadas de la imagen enviada, pero generalmente no devolverá imágenes similares en los resultados.

Pinterest

Pinterest adquirió la nueva empresa VisualGraph en 2014 e introdujo la búsqueda visual en su plataforma.

En 2015, Pinterest publicó un artículo en la conferencia de la Conferencia ACM sobre descubrimiento de conocimiento y minería de datos y reveló la arquitectura del sistema. La tubería utiliza Apache Hadoop, el marco de red neuronal convolucional de código abierto Caffe , cascada para el procesamiento por lotes, PinLater para mensajería y Apache HBase para almacenamiento. Las características de la imagen, incluidas las características locales, las características profundas, las firmas de color salientes y los píxeles salientes se extraen de las cargas de los usuarios. El sistema se ejecuta en Amazon EC2 y solo requiere un clúster de 5 instancias de GPU para manejar las cargas diarias de imágenes en Pinterest. Mediante el uso de la búsqueda inversa de imágenes, Pinterest puede extraer características visuales de objetos de moda (por ejemplo, zapatos, vestido, gafas, bolso, reloj, pantalones, pantalones cortos, bikini, aretes) y ofrecer recomendaciones de productos que se parecen.

Estoy de acuerdo con la suposición de Max Xu MengXiang de que “Google usa alguna combinación” de técnicas y “clasifica los resultados usando un algoritmo patentado”.

Pero supongo que el algoritmo más importante que utilizan para clasificar sus resultados se basa en la técnica de compresión de imágenes que utiliza codificadores automáticos.

Permítame mostrarle primero cuán poderosos son los codificadores automáticos en la compresión y reconstrucción de imágenes. A continuación se muestra una imagen en escala de grises de un perro que está etiquetada como ‘Original’ de dimensiones 32 * 32 píxeles (total de 1024 píxeles). La estructura del codificador automático utilizado para la compresión aquí es [ 1024-256-64-8-64-256-1024 ], lo que significa que una imagen de 1024 dimensiones se está comprimiendo a solo 8 dimensiones. Y en la segunda parte de la imagen se puede ver qué tan bien el ‘Auto-Encoder’ es capaz de reconstruir la imagen ‘Original’. Justo al lado de eso, podemos ver cuán mal el algoritmo PCA reconstruye la misma imagen después de comprimir la imagen original a 8 Dimensiones (es decir, tomar solo los primeros 8 componentes principales).
PD: la compresión de codificador automático y PCA NO son técnicas de compresión sin pérdidas
Referencia: RBM Autoencoders, Nghia Ho

Por lo tanto, para cada imagen de esta dimensión, se puede asignar a un punto en el espacio 8-D mediante la compresión mediante codificadores automáticos. Y si algunas imágenes son visualmente similares, trazar los puntos de las imágenes comprimidas en el espacio 8-D muestra que todas se encuentran muy cerca una de la otra (usando Euclidean para los cálculos de distancia).
O en otras palabras, podemos decir que, todos los puntos que se encuentran cerca uno del otro en el espacio comprimido 8-D son visualmente similares.

Así es como se ve una red típica de codificador automático:
Referencia: RBM Autoencoders, Nghia Ho

Ahora creo que Google usa una de esas técnicas para realizar su búsqueda de imágenes. Los siguientes son los pasos que Google podría realizar para la recuperación más rápida de imágenes visualmente similares.

  1. Siempre que los robots de Google (robots de araña) encuentren una imagen mientras rastrean la web, primero esa imagen podría redimensionarse a la dimensión deseada. (por ejemplo, una imagen de 1024 * 768 píxeles podría redimensionarse a una imagen predeterminada de 32 * 32 píxeles como en el caso anterior)
  2. Entonces podría intentar encontrar esta forma de compresión N-dimensional para la imagen redimensionada (N es 8 en el ejemplo anterior) usando la red Auto-Encoder.
  3. Dado que la mayoría de las imágenes están coloreadas, cada imagen podría descomponerse en espacios de color R, G y B y luego encontrar la forma comprimida en cada espacio de color sería un camino mucho más fácil.
  4. Por lo tanto, Google tiene todas sus imágenes en forma de formato de matriz N-Dimensional de fácil búsqueda, es decir, ahora cada imagen es solo una matriz N-Dimensional donde N es mucho más pequeña que las dimensiones originales de la imagen.
  5. Ahora, todo lo que el motor de búsqueda de Google necesita hacer cuando alguien solicita una imagen visualmente similar de su foto es, al igual que arriba, encuentra la forma de compresión N-dimensional de esta nueva imagen y luego puede encontrar todos los puntos que son más cercano a él en el espacio N-dimensional y clasifíquelos según la distancia.

Esta forma de buscar imágenes visualmente similares no solo facilita la indexación y la búsqueda es más rápida, sino que también puede ayudar a segregar todas las imágenes en diferentes grupos.

Auto-Encoders es lo que escuchamos en conjunto con Deep Learning. Deep Learning es el algoritmo actual de última generación que está demostrando su calibre en muchas áreas de aplicación.

Google es una empresa muy orientada a la ingeniería. No espere que un solo documento explique su tecnología subyacente. Para cada artículo publicado, debe esperar algunas pepitas de sabiduría que entraron en su base de código masivo.

Los badasses de Google ejecutan mapreduces todo el día. Las imágenes se asignan a entidades. Las características se asignan a nuevas características. La selección de características elige subconjuntos. Luego se apresuran. Luego se cuantifican. Luego un poco más de aprendizaje. etc.

A veces me pregunto si alguien en Google sabe cómo funciona la tecnología real. Esto es tanto lo más sorprendente como lo más perturbador de la investigación de la visión en Google. Todo el proceso funciona porque los ingenieros son de primera categoría, realmente se preocupan por escribir un buen código y no están estresados ​​(por lo que pueden escribir código de alta calidad con bastante frecuencia).

[Editar]: Otra respuesta que encontré explica en mayor detalle: ¿Cuál es el algoritmo utilizado por la búsqueda de imágenes inversas de Google (es decir, buscar por imagen)? ¿Qué algoritmos necesitaría entender para crear una funcionalidad similar a pequeña escala?

Dudo que este algoritmo esté abierto al público, pero una vez hablé con Jitendra Malik en una escuela de verano en Italia hace un año, sobre cómo diseñaría un motor de búsqueda CBIR y básicamente me dijo que su criterio de búsqueda fundamental estaría en la base de:

  • SIFT, HOG, GIST (nivel de punto, objeto y escena)
  • Histogramas de color
  • Textones

Probablemente se agregarían otras características, estoy seguro de que los detectores de rostros Viola-Jones también están integrados, y tienen un gran conjunto de datos para entrenar de etiquetas comunes anteriores, como: humano, edificio, cielo, hierba, bosque, automóvil, bicicleta, ( objetos del PASCAL VOC), que si se detectan en la imagen de entrada, buscarán otras imágenes que contengan la misma etiqueta o elemento.

Un artículo realmente bueno que podría proporcionar una idea de Tomasz Malisiewicz y Alyosha Efros es este sobre Exemplar-SVM Ensemble of Exemplar-SVMs for Object Detection and Beyond que produce un trabajo como este: similitud visual basada en datos para la coincidencia de imágenes entre dominios también hecho en CMU.

Vi su demo en una escuela de verano en Francia. Era brillante:

Otra información relevante:
Recuperación de imágenes basada en contenido.

Depende de las características de Google Image Search en las que esté pensando: la recuperación o la clasificación / reconocimiento. De todos modos, puede obtener algunas ideas generales sobre las principales tecnologías que están utilizando.
Cualquiera que sea el método o los descriptores, puede estar seguro de que hay muchas optimizaciones y ajustes con sabor de Google. Me referiré aquí solo a la descripción visual. Claramente están fusionando múltiples tipos de descriptores e información en el producto final.

Clasificación
Para el problema de clasificación / reconocimiento en el que desea que el sistema le diga qué objetos / puntos de referencia / personas puede reconocer en la imagen que le proporciona, utilizan, muy probablemente, Deep Learning como se menciona en las otras publicaciones. Los expertos en aprendizaje profundo que se han unido a ellos (Andrew Ng y Geoffrey Hinton & Co.) seguramente tuvieron algunas palabras que decir sobre esto (aunque también deben estar trabajando en otros problemas no visuales al mismo tiempo). Una vez que se clasifica la imagen (se detectaron objetos o conceptos conocidos en la imagen), la imagen se etiqueta y luego se introduce en un marco de motor de búsqueda de texto que permite recuperar la imagen tocando algunas palabras clave.

Recuperación
Con respecto a la parte de recuperación donde realiza la búsqueda / consulta por imagen, creo que la tecnología que utilizan es más o menos la misma que en Google Goggles. Probablemente usan una variante de Bag-of-Words (Page on Ox) o VLAD (Page on Hal) con sus propios descriptores de puntos de interés (wavelets locales adaptadas de Gabor), agrupación, cuantificación y métodos de reducción de dimensionalidad. Hay una charla dada por Hartmut Neven (jefe del equipo de Búsqueda de imágenes de Google) en ICML en 2011 que podría valer la pena ver Machine Learning en Google Goggles. La primera parte de la charla brinda información sobre Google Goggles, mientras que la segunda parte sobre Optimización cuántica. podría ser relevante en 10 años a partir de ahora 🙂

Con el gran progreso realizado recientemente por el aprendizaje profundo, que permite reunir muchos datos y aprender de ellos, creo que las tareas de recuperación y clasificación (hasta ahora abordadas como problemas diferentes) deberían acercarse ya que son bastante complementarias. Especialmente cuando debes manejar tantos datos. Los veo usados ​​juntos para la recuperación, descubrimiento y etiquetado de imágenes conjuntas de una manera más automática.

Como otros ya han mencionado, la búsqueda de imágenes de Google es un sistema enorme y complejo, y no tengo idea de cómo funciona, aparte de algunas suposiciones muy generalizadas.
Pero recientemente mejoraron su sistema al agregar elementos de Deep Learning a la búsqueda de fotos, lo cual es realmente interesante.
Puede leer más sobre esto aquí: Un paso a través de la brecha semántica
Sobre aprendizaje profundo: aprendizaje profundo
Otra lectura interesante en el trabajo de google + Andrew Ng para detectar gatos (sí, CATS) en videos de youtube: Uso de simulaciones cerebrales a gran escala para el aprendizaje automático y la IA
Si quieres profundizar un poco más: Relevent ICML 2012 Paper: http: //static.googleusercontent ….

Aquí hay un par de artículos que Googler ha publicado sobre este tema:

* Página sobre Kevinjing
* http://www.www2008.org/papers/pd

Como muchos otros han dicho, no hay forma de confirmar esto, pero un algoritmo que se adaptaría a lo que desea hacer, funciona bien y es simple es VisualRank.

La idea general de VisualRank es la siguiente: primero obtenga todas las imágenes que coincidan con la consulta, analizando etiquetas, metadatos, nombres de imágenes, lo que sea. Tendrá un grupo de muchas imágenes, algunas de ellas no tendrán nada que ver con la consulta, pero la mayoría sí, y esa es la clave para el siguiente paso.

Calcule la matriz de similitud entre todas las imágenes, dirá “¡imposible!” pero usando LSH (Locality Sensitive Hashing) esto se puede hacer en un tiempo razonable. ¿Cómo calculas la similitud entre dos imágenes? Un buen enfoque es usar SIFT (transformación de características invariantes de escala) para extraer características de las imágenes y luego usar esas características para calcular la distancia entre dos imágenes.

Una vez que tiene un “gráfico” de imágenes y sus distancias, ejecuta Pagerank, que solo calculará la centralidad del vector propio de cada imagen. Pagerank le dará un rango de imágenes de la más central a la menor, esto significa qué imagen es más similar a todas las demás y si asumimos que la mayoría de las imágenes en el grupo son buenas para la consulta, entonces la imagen que es más similar a todas las demás es probablemente la mejor opción para la consulta.

Y eso es.

Si bien no tengo ningún reclamo sobre los usos de Google, debo tener en cuenta que Visualrank fue publicado por Google, por lo que podrían estar usando algo bastante similar.

Luis.

La búsqueda inversa de imágenes es una técnica de consulta de recuperación de imágenes basada en contenido (CBIR) que implica proporcionar al sistema CBIR una imagen de muestra en la que luego basará su búsqueda; En términos de recuperación de información, la imagen de muestra es lo que formula una consulta de búsqueda. En particular, la búsqueda de imágenes inversas se caracteriza por la falta de términos de búsqueda. Esto elimina efectivamente la necesidad de que un usuario adivine palabras clave o términos que pueden o no devolver un resultado correcto. La búsqueda inversa también permite a los usuarios descubrir contenido relacionado con una imagen de muestra específica,

Búsqueda de personas: resultados instantáneos, precisos y fáciles.

popularidad de una imagen, y descubrir versiones manipuladas y trabajos derivados

La búsqueda inversa de imágenes se puede usar para:

  • Localiza la fuente de una imagen
  • Encuentra versiones de mayor resolución
  • Descubre páginas web donde aparece la imagen
  • Encuentra al creador de contenido
  • Obtener información sobre una imagen.

Algoritmo

Los algoritmos de búsqueda de imagen inversa comúnmente utilizados incluyen:

  • Transformación de características invariantes de escala: para extraer características locales de una imagen
  • Regiones extremas máximamente estables
  • Árbol de vocabulario
  • Búsqueda de personas: resultados instantáneos, precisos y fáciles.

Usted resultó ser una de todas las personas que han trabajado día y noche para hacer trabajos artísticos distintivos; de lo contrario, transfirió fotos originales y sorprendentes en Flickr, Pinteresta y en algún momento vio su exposición en un sitio web masivo sin crédito a su perfil. Sin embargo, ¿eso te hará sentir? ¿Alguna vez has pensado, si notas todas las páginas en la web, la agencia de las Naciones Unidas sacó tus fotos? Bienvenido, al mundo de la búsqueda inversa de imágenes, que le permite buscar copias de una imagen en toda la red.

  • Uso: herramientas de búsqueda inversa de imágenes gratis

Como su nombre lo indica, la exploración inversa de imagen significa que está haciendo una investigación asociada con una imagen en particular. durante este artículo, comprenderá todo lo que le gustaría, con respecto a lo que se entiende por estilo de imagen inversa, sin embargo, funciona y la forma en que también puede realizar una imagen de maltrato de caza simplemente.

¿Qué se entiende por búsqueda de imagen inversa?

Este tipo de búsqueda no requiere ningún texto, puede realizar la búsqueda mediante carga de imágenes o URL de imagen. A veces sucede que tiene una imagen y desea conocer la fuente original de esa imagen o desea ver más imágenes similares a la imagen que tiene o encontrar dónde se publica toda una imagen en Internet. Existen motores de búsqueda especializados que pueden ayudarlo a encontrar imágenes utilizando un archivo de imagen o URL que tenga. Espero que no esté simplemente copiando imágenes de la búsqueda de imágenes de Google, sino que si lo hace, aquí hay algunos recursos que lo ayudarán a encontrar imágenes para sus artículos:

  • Dónde encontrar imágenes en línea
  • Sitios web para descargar imágenes gratuitas

Existen muchos motores de búsqueda de imágenes inversas y hay muchas razones por las que es posible que desee realizar una búsqueda de imágenes inversas. Hago esto con bastante frecuencia y las razones por las que hago este tipo de búsqueda son:

  • A veces quiero saber la fuente original de la imagen que tengo. Sin embargo, tenga en cuenta que Internet es un gran lugar y puede haber muchos sitios web diferentes, que podrían haber utilizado la imagen que tiene. Por lo tanto, puede pasar algún tiempo antes de que finalmente pueda conocer la fuente original de la imagen.
  • También utilizo este tipo de búsqueda cuando quiero encontrar imágenes de la imagen de mayor resolución, me interesa. Cuando realice esta búsqueda, los resultados de la búsqueda presentados delante de usted le dirán desde dónde puede obtener una resolución más alta. imágenes de la misma imagen que tienes.
  • Incluso puede encontrar las direcciones URL de los diferentes sitios web de Internet donde se utilizó la imagen que tiene.
  • Encontrar al propietario de la imagen para pedirle permiso para usar una imagen.
  • También utilizo esta búsqueda para averiguar si la imagen que estoy pensando en cargar se ha usado en otro lugar anteriormente. Esto sucede mucho con las imágenes disponibles públicamente, ya que muchas personas las usan.

Puede haber muchas otras razones por las que desearía hacer una búsqueda inversa de la imagen que tiene. Muchas personas cargan sus propias imágenes creadas en Internet, y todos sabemos que a veces sucede que otros sitios web usan esas imágenes sin preguntar. A través de este tipo de búsqueda de imágenes, puede encontrar fácilmente los diferentes sitios web de Internet donde aparece su imagen, y luego puede usar los derechos que tiene bajo la ley de derechos de autor.

Este tipo de búsqueda de imágenes le permitirá ver los diferentes sitios web de Internet donde se están infringiendo sus derechos de autor. También puede ver los sitios web que podrían estar vendiendo sus imágenes. Incluso puede ver los sitios web de Internet que podrían haber hecho alguna alteración y han representado que sus imágenes son de otra persona.

Hay muchas maneras de hacer este tipo de búsqueda de imágenes, y he mencionado dos formas más populares (TinyEye y búsqueda de imágenes de Google) y también he agregado algo para los usuarios de Pinterest.

de Wikipedia

La búsqueda inversa de imágenes es una técnica de consulta de recuperación de imágenes basada en contenido (CBIR) que implica proporcionar al sistema CBIR una imagen de muestra en la que luego basará su búsqueda; En términos de recuperación de información, la imagen de muestra es lo que formula una consulta de búsqueda. En particular, la búsqueda de imágenes inversas se caracteriza por la falta de términos de búsqueda. Esto elimina efectivamente la necesidad de que un usuario adivine palabras clave o términos que pueden o no devolver un resultado correcto. La búsqueda inversa de imágenes también permite a los usuarios descubrir contenido relacionado con una imagen de muestra específica, también puede interesarle la búsqueda inversa de personas

popularidad de una imagen, y descubrir versiones manipuladas y trabajos derivados.

Algoritmos

Los algoritmos de búsqueda de imagen inversa comúnmente utilizados incluyen:

  • Transformación de características invariantes de escala: para extraer características locales de una imagen [7]
  • Regiones extremas máximamente estables
  • Árbol de vocabulario

Todo el artículo en wiki se puede leer aquí: https://en.wikipedia.org/wiki/Re

Búsqueda inversa de imágenes en dispositivos móviles

Desafortunadamente, la función de búsqueda de imágenes de Google no está disponible en dispositivos móviles, pero podemos usar un simple truco y obtener la ventaja de la búsqueda de imágenes de Google.

1. Abra Google Image Search o images.google.com en Google Chrome en su dispositivo.

2. Ahora toque tres puntos verticales (Menú) en la esquina superior derecha y toque Solicitar sitio de escritorio.

3. Ahora verá el icono de la imagen antes del icono de búsqueda. Toque el icono de la imagen. Le mostrará dos opciones para Buscar por imagen

yo. Pegar URL de imagen: si ha encontrado una imagen en línea y desea encontrar imágenes similares o una imagen original, puede pegar el enlace de esa imagen para encontrar las imágenes similares.

ii. Cargar una imagen: aquí puede elegir un archivo (imagen) de su dispositivo para buscar imágenes similares en la Web.

4. Para Buscar imágenes en imágenes de Google, elegiremos la segunda opción y cargaremos la imagen desde el dispositivo o haremos clic en una nueva imagen y Google Image Search buscará imágenes en la base de datos de imágenes de Google y mostrará todas las fotos relacionadas.

Eso es todo la próxima vez que desee que la fuente original de la imagen en la web pruebe Google Reverse Image Search.

Fuente: Cómo hacer una búsqueda inversa de imágenes en su teléfono móvil – CODYBABA

Google usa la búsqueda inversa de imágenes

es una técnica de consulta de recuperación de imagen basada en contenido (CBIR) que consiste en proporcionar al sistema CBIR una imagen de muestra en la que basará su búsqueda; en términos de recuperación de información, la imagen de muestra es lo que formula una consulta de búsqueda: http://en.wikipedia.org/wiki/Rev

Aquí está la explicación de Google sobre esto -http: //googlesystem.blogspot.in/…

Su recuperación se clasifica según el nombre del archivo y se compara con las propiedades de la dimensión (que incluye el valor de color de píxeles esporádicos en las imágenes con la coincidencia de color más cercana dentro de una cuadrícula de imagen, luego los bordes dentro de la cuadrícula de imagen, etc.). Encontrar patrones de imágenes de la naturaleza y el espacio es comparativamente sencillo y luego encontrar una criatura humana. En la nota de almacenamiento, la imagen archivada en la granja de Google habría utilizado el tipo de lógica de mapa / reductor y la calificaría en función de la coincidencia de percentiles, que luego coincide con sus consultas. Pero es realmente brillante … He probado algunas docenas de escenarios de prueba en esto …

Hasta donde sé, trabajé en la búsqueda inversa de imágenes, que es la búsqueda por motor de imágenes. ¡Utilicé SURF, PCA-SIFT para extraer puntos clave y descriptores (vector de valores flotantes) y luego usé LSH para indexar y combinar!

La búsqueda de Google en Google google utiliza un modelo de bolsa de palabras para la búsqueda de imágenes, pero los nuevos algoritmos utilizan cada vez más enfoques de aprendizaje profundo, como las fotos de Google, utilizan una red neuronal convolucional profunda muy grande y puede consultar esta página para obtener algunas ideas, cosas muy complejas.

Espero que esto ayude :).

El motor de búsqueda de imágenes inversas de Google es un servicio que permite a los usuarios buscar por imágenes.

Ingresa una URL de imagen o carga una imagen, y luego Google encuentra imágenes de aspecto similar.

http://www.localwebsiteexperts.com/

Google utiliza técnicas de visión por computadora para hacer coincidir su imagen con otras imágenes en el índice de Google Images y colecciones de imágenes adicionales.

A partir de esas coincidencias, intentamos generar una descripción de texto precisa de “mejor conjetura” de su imagen, así como encontrar otras imágenes que tengan el mismo contenido que su imagen de búsqueda.

Su página de resultados de búsqueda puede mostrar resultados para esa descripción de texto, así como imágenes relacionadas.

El proceso se denomina “comprensión de la intención del usuario” o “clasificación de consultas”. También he escuchado a personas que lo llaman “comprensión de consultas”. El mecanismo es bastante complejo y patentado, por lo que dudo que pueda obtener una imagen completa.

Básicamente, se basa en evaluar la probabilidad de que la consulta pertenezca a una determinada categoría y la categoría con la puntuación más alta se muestra primero. Además, también tiene alternativas de “quiso decir”, en caso de que se equivocaron.

More Interesting

¿Por qué la notación O grande no se parece más a O (c) y O (cn) en lugar de a O (1) y O (n), esto último no tiene sentido?

¿Es esto un tipo de selección?

Dado un gráfico ponderado de N nodos, ¿existe un algoritmo que calcule la ruta más corta entre todos los nodos?

¿Cuál es el algoritmo más corto para probar si dos cadenas son anagramas?

¿Hay alguna razón para almacenar cosas en una lista en lugar de un árbol?

¿Cuándo podrán los algoritmos de detección de imágenes filtrar imágenes ofensivas de manera confiable?

¿Cuáles son los principios o características esenciales de los algoritmos gráficos en informática?

¿Se puede resolver un cubo de Rubik sin sus algoritmos?

¿Cuáles son los conceptos de software que todo programador debe saber?

¿Qué es un algoritmo para programar un torneo para que termine en el menor tiempo posible, dado un torneo round robin (donde cada jugador juega entre sí) entre n jugadores (n es par) que puede representarse con un gráfico completo?

¿Cuáles son algunos algoritmos utilizados por las grandes empresas (como Amazon) para determinar de manera eficiente desde qué almacén se debe cumplir un pedido?

¿Cuáles son las aplicaciones de la lista de enlaces simple, doble, circular y de encabezado en la estructura de datos?

¿Por qué el problema de detención se considera no solucionable mientras manipulamos / negamos la respuesta nosotros mismos con la máquina N al final de la máquina X?

¿Existe algún algoritmo simple que pueda resolver la programación del taller?

¿Puedo diseñar una estructura de datos tipo pila que haga popMin () en tiempo O (1)?