¿Cuál es el propósito de Google Dream?

A2A

Contestaré su pregunta sobre el propósito de Google DeepDream, pero antes de eso intentemos comprender qué es el Deep Dream Project de Google.
(Si ya lo sabe, pase a la última parte de la respuesta)

Comenzaré con la clasificación de imágenes y la reorganización de imágenes,
Clasificación de la imagen: una imagen puede contener múltiples objetos, como un paisaje simple puede tener una casa, un sol, un árbol y algunos otros objetos también.
El objetivo de la clasificación de imágenes es reconocer todos estos objetos diferentes en una imagen y luego clasificarlos.

Redes neuronales: – La red neuronal es un sistema de IA inspirado en cómo funciona la mente humana. Tiene una larga cadena de nodos que tienen su propio trabajo. Cada nodo pasa su salida al otro nodo por delante como entrada. Los primeros nodos del sistema detectan cosas simples como bordes, los nodos posteriores hacen cosas más complejas.

¿Cómo se implementa la clasificación de imágenes usando la red neuronal?
En un sistema de red neuronal de clasificación de imágenes, en primer lugar, se introducen miles de imágenes de un objeto específico en el sistema como entrada y se le dice al sistema qué es este objeto.
Para entenderlo mejor: –
Si ingresamos 1000 imágenes de silla (de diferente tamaño y ángulo diferente) en el sistema y le decimos al sistema que todas estas imágenes son de silla. El sistema aprenderá cierta información importante requerida para reconocer una silla. (Una silla tiene 4 patas, 1 tablón y un respaldo, esta es la información importante requerida para reconocer una silla).
Una vez que hayamos entrenado el sistema para reconocer algunos objetos. Cuando le damos al sistema una imagen como entrada y le ordenamos que la reconozca.
Los nodos neuronales del sistema comienzan a comparar esta imagen con todos los datos (otras imágenes) que tiene y finalmente reconoce todos los objetos presentes en la imagen. Entonces, si habrá una silla en la imagen, lo más probable es que pueda reconocerla.

Entonces, ¿qué es Google Deep Dream?

En Google Deep Dream, Google acaba de invertir su red neuronal.
En el sueño profundo, le das cualquier imagen aleatoria como entrada al sistema y luego le dices al sistema que tiene un objeto en particular. El sistema intentará encontrar ese objeto en la imagen.
Ejemplo: ingresa una imagen de un horizonte y le dice al sistema que esta imagen tiene torres y pagodas. Ahora, idealmente, el sistema debería haber fallado en encontrar una torre en la imagen (ya que no está allí), pero en realidad el sistema comienza a recrear la imagen de una manera que crea la ilusión de que una torre está allí en la imagen. (Ver imagen)

Dado que el sistema realmente está soñando o alucinando (no literalmente) los objetos que en realidad no están presentes en la imagen. Este sistema ha sido llamado Deep Dream.

Entonces finalmente llego a tu pregunta

¿¿Cuál es el propósito de esto??

Siento que Deep Dream es solo un juguete divertido con una importancia menos práctica.
Personalmente, creo que los medios están haciendo un bombo de todo esto. A los medios de comunicación les encanta cuando pueden escribir sobre computadoras con capacidades similares a las de los humanos, y luego Google lanzó tantas imágenes que llamó mucho la atención.

Pero creo que este proyecto tiene algunos méritos.

  • Indica claramente que nuestro sistema de clasificación de imágenes aún está lejos de ser perfecto y necesita mucho trabajo.
  • También puede ayudar a comprender cómo funcionan realmente todas las capas de una red neuronal.
  • Según el blog de investigación de Google
    Esta técnica nos da un sentido cualitativo del nivel de abstracción que una capa en particular ha logrado en su comprensión de las imágenes. Llamamos a esta técnica “Incepcionismo” en referencia a la arquitectura de red neuronal utilizada.

El blog de Google Research ha hecho algunos reclamos importantes con respecto a esto.

Esta técnica nos ayuda a comprender y visualizar cómo las redes neuronales pueden llevar a cabo tareas de clasificación difíciles, mejorar la arquitectura de la red y verificar lo que la red ha aprendido durante el entrenamiento.

Si aplicamos el algoritmo de forma iterativa en sus propias salidas y aplicamos un poco de zoom después de cada iteración, obtenemos un flujo interminable de nuevas impresiones, explorando el conjunto de cosas que la red conoce. Incluso podemos comenzar este proceso desde una imagen de ruido aleatorio, de modo que el resultado se convierta puramente en el resultado de la red neuronal, como se ve en las siguientes imágenes:

He hecho todo lo posible para explicarlo de la manera más fácil posible.
Espero eso ayude

Fuentes:
Inceptionism: profundizando en redes neuronales

Google presentó su software “Deep Dream”, un experimento de investigación que convierte las fotos cotidianas en imágenes extrañas y psicodélicas, el mes pasado. Desde entonces, la tecnología se ha convertido en una sensación de internet.


El código se basa en el software de inteligencia artificial de “aprendizaje automático” de Google, que busca patrones para los que ha sido entrenado para reconocer en las imágenes que recibe. Luego cambia repetidamente ligeramente la imagen para que se vea como ese patrón, a menudo más allá del reconocimiento, para crear imágenes vívidas, a menudo lúcidas.

Muchos de los patrones que Deep Dream ve son caras de animales, ya que el software ha sido “entrenado” en muchas imágenes de animales. Esto significa que las caras de los perros, en particular, aparecen mucho.

A veces, cuando el software no reconoce a los perros, ve muchos ojos. Aquí está la Mona Lisa de Leonardo da Vinci atravesando Deep Dream.

Referencias: The Telegraph

Gracias por A2A.

El objetivo principal del proyecto Google Deep Dream es ver cómo analiza la máquina nuestras entradas. Básicamente, el proyecto soñado de Google nos permite ver cómo la máquina / IA comprende a partir de nuestras entradas y qué cosas aprende.

Google usa una red neuronal de IA para identificar objetos en una imagen. La red neuronal consta de muchas capas.

Esta red neuronal de IA se entrena primero al alimentarla con una gran cantidad de imágenes y le decimos que es un cierto tipo de objeto.

Por ejemplo: después de ver 1000 imágenes de cuchara en la red neuronal en diferentes ángulos y varios parámetros de red, la red neuronal puede identificar una cuchara en una imagen.

Ingresamos la imagen en la capa de entrada y después del procesamiento por varias capas, vemos la respuesta en la capa de salida, que nos dice qué objetos están presentes en la imagen.

Ahora no sabemos qué piensa realmente la red neuronal de la cuchara, es decir, qué aspecto tiene.

Entonces, Google invierte su red neuronal entrenada para identificar un determinado objeto.

Alimentan una imagen de ruido aleatorio a la red neuronal y le pide que muestre la imagen de un objeto específico.

Por ejemplo: Alimentaron una imagen de ruido aleatorio a una red neuronal entrenada para identificar plátanos, le pidieron que generara una imagen de plátano.

El resultado viene de la siguiente manera

Se alimentan varias entradas a redes neuronales entrenadas de manera diferente, a las cuales se les pide que produzcan diferentes objetos. Los resultados vienen como

El resultado no siempre es tan bueno.

Google le pregunta a una red neuronal entrenada para identificar una red neuronal entrenada para identificar pesas, cómo se ve una pesa. El resultado fue

Como puede ver, produce pesas con brazos, así no es como se ve una pesa. Pero fue por el hecho de que fue alimentado con imágenes de pesas en poder de alguien.

Entonces, al ver los resultados de la red neuronal anterior, deducimos que necesitamos ingresar imágenes de pesas solo con pesas. Esto nos ayuda a refinar las habilidades de recuperación de la red neuronal y, por lo tanto, podemos ver si nuestra IA está aprendiendo lo que nosotros queremos que aprenda o la dirección en la que queremos que se mueva.

De acuerdo con el tema REDDIT de Deep Dream

Deep Learning es un nuevo campo dentro de Machine Learning. En los últimos 4 años, los investigadores han estado entrenando redes neuronales con una gran cantidad de capas. Los algoritmos están aprendiendo a clasificar imágenes con una precisión mucho mayor que antes: puedes darles una imagen de un gato o un perro y podrán notar la diferencia. Tradicionalmente, esto ha sido casi imposible para las computadoras, pero fácil para los humanos.
Los algoritmos de aprendizaje profundo se entrenan dándoles una gran cantidad de imágenes y diciéndoles qué objeto hay en cada imagen. Una vez que ha visto (p. Ej.) Cien tipos de cabezas de perro 1000 veces desde cien ángulos, ha sido “entrenado”. Ahora puede darle nuevas imágenes y detectará cabezas de perro dentro de las imágenes, o le dirá que no hay ninguna. También puede decir cuán inseguro es.
Siempre era difícil saber qué estaban “viendo” o “pensando” los algoritmos cuando les dimos nuevas imágenes. Entonces, en junio de 2015, Google Engineers lanzó un método para visualizar lo que vieron los algoritmos. Hacia fines de junio de 2015 lanzaron su código, para que las personas pudieran ver lo que las redes neuronales entrenadas estaban viendo en cualquier imagen que quisieran.

FUENTES

es para la ciencia: Google quiere saber qué tan efectivamente están aprendiendo las computadoras.
La red neuronal artificial de Google es como el cerebro de una computadora, inspirada en el sistema nervioso central de los animales. Cuando los ingenieros alimentan la red con una imagen, la primera capa de ‘neuronas’ la observa. Esta capa luego ‘habla’ con la siguiente capa, que luego intenta procesar la imagen. Este proceso se repite de 10 a 30 veces, con cada capa identificando características clave y aislándolas hasta que haya descubierto cuál es la imagen. La red neuronal nos dice qué ha identificado valientemente el objeto, a veces con poco éxito. Este es el proceso detrás del reconocimiento de imágenes.
El equipo de Google se dio cuenta de que podían revertir el proceso. Le dieron un objeto a la red neuronal artificial y le pidieron que creara una imagen de ese objeto. La computadora luego intenta asociarlo con características específicas. Cuando queremos una imagen de un tenedor, la computadora debe darse cuenta de que las características definitorias de un tenedor son de dos a cuatro dientes y un asa. Pero cosas como el tamaño, el color y la orientación no son tan importantes. Las imágenes en la imagen de arriba fueron creadas para determinar si la computadora ha entendido este tipo de distinción.
Esta técnica, que crea imágenes donde no las hay, se llama acertadamente ‘incepcionismo’. Hay una galería de inicio donde puede explorar las obras de arte de la computadora.
Finalmente, los diseñadores le dieron a la computadora un reinado completo y gratuito sobre su obra de arte. Las piezas finales fueron bellas imágenes derivadas de una mente mecánica, lo que los ingenieros llaman “sueños”. El “lienzo en blanco” era simplemente una imagen de ruido blanco. La computadora extrajo patrones del ruido y creó paisajes oníricos: imágenes que solo podían provenir de una imaginación infinita.

Una red neuronal es un sistema de IA inspirado en la forma en que funciona el cerebro. Tiene varias capas de nodos, con conexiones entre una capa y la siguiente. Las primeras capas detectan cosas simples, como bordes y formas básicas. Las capas posteriores detectan cosas más complejas.
Google tiene una red neuronal para identificar objetos en imágenes. Hacer eso bien es muy útil para la búsqueda de imágenes y la robótica.
Google decidió que querían descubrir cómo la red neuronal realmente ve las imágenes, para que puedan mejorarla. De aquí viene el proceso del sueño profundo. Primero introducen una imagen en la red neuronal. Luego escogen una capa. Cualquier información que esa capa detecte se mejora. Los datos se retroalimentan a través de la red neuronal para producir una imagen basada en lo que vio esa capa.
Lanzaron el código para que cualquiera pueda ejecutar un sueño profundo en cualquier imagen.
Checkout / r / deepdream para obtener más información, así como imágenes soñadas profundas.

Fuente: Página en reddit.com

EN CORTO Desc.
Es solo un simple proceso de reconocimiento de imágenes que reconoce la imagen de carga del número de fotos guardadas en su base de datos.
EN LARGO Desc.
El software de reconocimiento de imágenes tiene miles de imágenes de referencia de cosas conocidas, que compara con una imagen que está tratando de reconocer.
Entonces, si le proporciona la imagen de un perro y le dice que reconozca la imagen, comparará la imagen con sus referencias, descubrirá que hay similitudes en la imagen con las imágenes de perros, y le dirá “hay un perro en esa imagen!
Pero, ¿qué pasa si usa ese software para hacer un programa que busca perros en imágenes, y luego le da una imagen sin perro y le dice que hay un perro en la imagen?
El programa encontrará lo que parezca más cercano a un perro, y como se le ha dicho que debe haber un perro allí en alguna parte, le dice que ese es el perro.
Ahora, ¿qué pasa si tomas ese programa y lo cambias para que cuando encuentre una característica similar a un perro, cambie la imagen de un perro para que sea aún más similar a un perro? Entonces, ¿qué sucede si vuelve a introducir la imagen de salida?
Lo que sucede es que el programa encontrará las características que se parecen incluso a las de los perros y las hará cada vez más como perros, haciendo caras como perros en todas partes.
Incluso si lo alimenta con ruido blanco, amplificará el más mínimo parecido a un perro en caras serias de perro.
Esto es lo que hizo Google. Tomaron su software de reconocimiento de imagen y lo hicieron retroalimentar, haciendo que la imagen que estaba mirando se pareciera cada vez más a lo que creía reconocer.
Los resultados terminan pareciendo realmente trippy.
Realmente no tiene nada que ver con los sueños de la OMI
Editar: Hombre esto se hizo grande. Me gustaría abordar algunas imprecisiones o declaraciones engañosas en la publicación original …
Estaba usando perros como ejemplo. El programa claramente no solo busca perros, y tampoco funciona de acuerdo con lo que le dices que busque. Busca TODAS las cosas que ha sido entrenado para reconocer, y si cree que ha encontrado la más mínima, la amplificará como se describe. (Sin embargo, he visto una variante que me han dicho que busque cosas específicas).
Sin embargo, resulta que el conjunto de referencia incluye una gran cantidad de imágenes de perros porque fue diseñado para permitir que un programa de reconocimiento sepa entre diferentes razas de perros (o eso escucho), lo que resulta en un sesgo de perro.
Estoy de acuerdo en que no compara la imagen de entrada directamente con el conjunto de imágenes de referencia. Compara imágenes de referencia de la misma cosa para determinar en algún sentido qué las hace similares, esto se almacena como parte del programa, y ​​luego, cuando se le da una imagen de entrada para que la reconozca, la juzga según las instrucciones que aprendió de mirando el conjunto de referencia para determinar si es similar.

Básicamente es un sistema complejo de reconocimiento y procesamiento de imágenes que utiliza múltiples capas / pilas de redes neuronales artificiales. También es un proyecto de código abierto con el código alojado en GitHub.

Ingresa una imagen al sistema y verá un conjunto de imágenes de referencia y luego le informará de qué se trata. Principalmente, el sistema se utilizó para diferenciar entre varias razas de perros. También puede generar imágenes basadas en la entrada. Las salidas son locas y también las encuentro inquietantes.

Mira esto aquí: ahora puedes convertir tus fotos en pesadillas computarizadas con ‘Deep Dream’
Advertencia: ¡las imágenes son inquietantes!

Pero realmente no sé cuál será su uso final, tal vez bueno o tal vez malvado o tal vez solo otro proyecto loco de desviación que desaparecerá pronto.

De todos modos, si te gusta la respuesta, ¡por favor vota! 🙂

Es una red de computadoras de inteligencia artificial que ayuda a Google a buscar de manera más eficiente.
Google tiene un software de reconocimiento de imágenes que se utiliza para determinar qué hay en una imagen.
El software de reconocimiento de imágenes tiene miles de imágenes de referencia de cosas conocidas, que compara con una imagen que está tratando de reconocer.
Entonces, si le proporciona la imagen de un perro y le dice que reconozca la imagen, comparará la imagen con sus referencias, descubrirá que hay similitudes en la imagen con las imágenes de perros, y le dirá “hay un perro en esa imagen!
Pero, ¿qué pasa si usa ese software para hacer un programa que busca perros en imágenes, y luego le da una imagen sin perro y le dice que hay un perro en la imagen?
El programa encontrará lo que parezca más cercano a un perro, y como se le ha dicho que debe haber un perro allí en alguna parte, le dice que ese es el perro.
Ahora, ¿qué pasa si tomas ese programa y lo cambias para que cuando encuentre una característica similar a un perro, cambie la imagen de un perro para que sea aún más similar a un perro? Entonces, ¿qué sucede si vuelve a introducir la imagen de salida?
Lo que sucede es que el programa encontrará las características que se parecen incluso a las de los perros y las hará cada vez más como perros, haciendo caras como perros en todas partes.
Incluso si lo alimenta con ruido blanco, amplificará el más mínimo parecido a un perro en caras serias de perro.
Esto es lo que hizo Google. Tomaron su software de reconocimiento de imagen y lo hicieron retroalimentar, haciendo que la imagen que estaba mirando se pareciera cada vez más a lo que creía reconocer.
Los resultados terminan pareciendo realmente trippy.

Para mejorar y comprender la Inteligencia Artificial. Los ayudará en su negocio principal, motor de búsqueda y también en automóviles sin conductor, Android.