Bueno, técnicamente no lo son. La red solo puede ser tan buena como la distribución que le das. Entonces, si le da a la GAN un conjunto de habitaciones, entonces la GAN solo podrá imitar la distribución de fotos de la habitación, y nada más.
Como resultado, la GAN realmente no piensa en nada, y simplemente asigna variables aleatorias en imágenes. La “creatividad”, que yo sepa, proviene de la red que llena las partes faltantes de la distribución en una de las muchas formas de hacerlo, porque puede crear una curva que interseca dos puntos de maneras infinitas, la GAN también puede generar distribuciones infinitas que coinciden estrechamente con los ejemplos dados, por supuesto, la regularización puede ayudar a disminuir la capacidad del modelo y reducir el espacio de las distribuciones coincidentes, pero todavía hay muchas, lo que le da a la GAN algo de espacio para la variedad.
- ¿Se siguen evaluando empíricamente las arquitecturas de redes neuronales profundas?
- ¿Debo comenzar a aprender Python y el aprendizaje automático al mismo tiempo?
- ¿Cambridge o Stanford / Berkeley son mejores en aprendizaje automático?
- ¿Por qué las RVM no son tan populares como las SVM?
- ¿Qué modelos CNN necesitan una norma de lote pero son lo suficientemente pequeños como para hacer una prueba muy rápida?