¿Qué hace el -1 en la siguiente línea del código TensorFlow x_image = tf.reshape (x, [-1,28,28,1])?

La convolución requiere un tensor de 4 dimensiones con forma de Número de imágenes x Altura x Ancho x Canales. El 1 negativo indica que la dimensión particular debe dimensionarse para que el número total de elementos permanezca constante. Entro en más profundidad en este video:

que es parte del curso gratuito sobre Tensorflow:

Aplicaciones creativas de aprendizaje profundo con TensorFlow | Kadenze

A diferencia de otros cursos, este es un curso dirigido por aplicaciones, que le enseña los fundamentos de Tensorflow, así como algoritmos de vanguardia, al fomentar la exploración a través del desarrollo de pensamiento creativo y aplicaciones creativas de redes neuronales profundas. Ya hemos construido una comunidad muy fuerte con un foro activo y Slack, donde los estudiantes pueden hacerse preguntas y aprender de los enfoques de los demás sobre la tarea. Le recomiendo que pruebe este curso. Hay muchos recursos * GRANDES * para aprender Tensorflow. Pero este es el único curso completo en línea que le enseñará cómo usar Tensorflow y desarrollar su potencial creativo para comprender cómo aplicar las técnicas en la creación de redes neuronales.

Información del curso:

Este curso le presenta el aprendizaje profundo: el enfoque de vanguardia para construir algoritmos de inteligencia artificial. Cubrimos los componentes básicos del aprendizaje profundo, lo que significa, cómo funciona y desarrollamos el código necesario para construir varios algoritmos, tales como redes convolucionales profundas, autoencoders variacionales, redes adversas generativas y redes neuronales recurrentes. Un enfoque principal de este curso será no solo comprender cómo construir los componentes necesarios de estos algoritmos, sino también cómo aplicarlos para explorar aplicaciones creativas. Veremos cómo entrenar a una computadora para reconocer objetos en una imagen y utilizar este conocimiento para generar comportamientos nuevos e interesantes, desde comprender las similitudes y diferencias en grandes conjuntos de datos y usarlos para autoorganizarse, hasta comprender cómo generar infinitamente por completo nuevo contenido o que coincida con la estética o el contenido de otra imagen. El aprendizaje profundo ofrece un enorme potencial para aplicaciones creativas y en este curso interrogamos sobre lo que es posible. A través de aplicaciones prácticas y tareas de tarea guiadas, se espera que usted cree conjuntos de datos, desarrolle y entrene redes neuronales, explore sus propias colecciones de medios utilizando redes profundas existentes de última generación, sintetice nuevo contenido de algoritmos generativos y comprenda El potencial de aprendizaje para crear una estética completamente nueva y nuevas formas de interactuar con grandes cantidades de datos.

PROGRAMAR

El curso corre del 21 de julio de 2016 al 31 de diciembre de 2016

Sesión 1: Introducción a Tensorflow (21 de julio de 2016)
Cubriremos la importancia de los datos con algoritmos de aprendizaje profundo y máquina, los conceptos básicos de la creación de un conjunto de datos, cómo preprocesar los conjuntos de datos y luego saltar a Tensorflow, una biblioteca para crear gráficos computacionales creados por Google Research. Aprenderemos los componentes básicos de Tensorflow y veremos cómo usarlo para filtrar imágenes.

Sesión 2: Capacitación de una red con Tensorflow (2 de agosto de 2016)
Veremos cómo funcionan las redes neuronales, cómo se “entrenan” y los componentes básicos del entrenamiento de una red neuronal. Luego construiremos nuestra primera red neuronal y la usaremos para una aplicación divertida de enseñar a una red neuronal cómo pintar una imagen, y explorar dicha red se puede extender para producir una estética diferente.

Sesión 3: Aprendizaje no supervisado y supervisado (16 de agosto de 2016)
Exploramos redes neuronales profundas capaces de codificar un gran conjunto de datos, y vemos cómo podemos usar esta codificación para explorar las dimensiones “latentes” de un conjunto de datos o para generar contenido completamente nuevo. Veremos qué significa esto, cómo se pueden construir los “codificadores automáticos” y aprenderemos muchas extensiones de vanguardia que los hacen increíblemente poderosos. También aprenderemos sobre otro tipo de modelo que realiza un aprendizaje discriminatorio y veremos cómo se puede usar para predecir las etiquetas de una imagen.

Sesión 4: Visualización y representación de alucinaciones (30 de agosto de 2016)
Esta sesión trabaja con redes de vanguardia y ve cómo entender qué “representaciones” aprenden. Veremos cómo este proceso realmente nos permite realizar algunas visualizaciones realmente divertidas, incluyendo “Deep Dream”, que puede producir infinitos fractales generativos, o “Style Net”, que nos permite combinar el contenido de una imagen y el estilo de otra para producir Estética pictórica muy diferente de forma automática.

Sesión 5: Modelos generativos (13 de septiembre de 2016)
La última sesión ofrece un avance sobre algunas de las direcciones futuras del modelado generativo, incluidos algunos modelos de vanguardia como la “red de confrontación generativa”, y su implementación dentro de un “autoencoder variacional”, que permite algunas de las mejores codificaciones y modelado generativo de conjuntos de datos que existen actualmente. También vemos cómo comenzar a modelar el tiempo y dar memoria a las redes neuronales creando “redes neuronales recurrentes” y vemos cómo usar dichas redes para crear texto completamente generativo.

La documentación de tf.reshape lo explica. Es un buen lugar para ir si no sabes cómo funciona algo en Tensorflow (o en cualquier biblioteca).

Transformaciones de tensor

Si un componente de la shape es el valor especial -1, el tamaño de esa dimensión se calcula de modo que el tamaño total permanezca constante. En particular, una shape de [-1] aplana en 1-D. Como máximo, un componente de la shape puede ser -1.

La matriz de formas indica que [lote_tamaño, H, W, C] ya que no conocemos el tamaño del lote, lo especificamos con -1. Si intentas comprobar la forma de la x_image obtendrás

forma = (28, 28, 1)

More Interesting

¿Cuáles son las diferencias entre el aprendizaje automático y los programas de posgrado en ciencias de datos?

¿En qué se diferencia el aprendizaje profundo de la propagación por error (error)?

¿Cómo difiere la clasificación de la clasificación? ¿Cómo son similares?

Entre la agrupación y la clasificación, ¿cuál requiere más experiencia?

¿Cuál es la forma correcta de calcular la similitud de coseno entre una consulta y un documento? Cuando calculo la magnitud del documento, ¿sumo los cuadrados de todos los términos del documento o solo los de la consulta?

¿Qué nivel de experiencia en aprendizaje automático se espera de un científico de datos?

En PCA, ¿cuáles son los roles y los significados físicos de las caras propias?

Cómo obtener una pasantía de investigación en aprendizaje automático o inteligencia artificial en una universidad de los EE. UU., Ser indio trabajando en una startup

¿Dónde estará (o podría) estar el Aprendizaje Profundo si la Ley de Moore continúa por otros 10-20 años?

¿Existe una lista de conferencias de minería de datos / aprendizaje automático organizadas en los Estados Unidos?

¿Cuáles son los problemas con el enfoque de clasificación uno contra todos?

¿Cuáles son algunas de las ventajas de usar PyTorch sobre TensorFlow?

¿Puedo usar el aprendizaje profundo o ANN para un problema de agrupación como KNN?

¿Qué es el aprendizaje automático basado en modelos?

¿Qué debo hacer para construir una carrera en Machine Learning? ¿Por dónde empiezo y cuáles son mis opciones?