VISUAL ASSET DEVELOPMENT USING A GENERATIVE ADVERSARIAL NETWORK
A virtual camera captures first images of a three-dimensional (3D) digital representation of a visual asset from different perspectives and under different lighting conditions. The first images are training images that are stored in a memory. One or more processors implement a generative adversarial...
Gespeichert in:
Hauptverfasser: | , , , , |
---|---|
Format: | Patent |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | A virtual camera captures first images of a three-dimensional (3D) digital representation of a visual asset from different perspectives and under different lighting conditions. The first images are training images that are stored in a memory. One or more processors implement a generative adversarial network (GAN) that includes a generator and a discriminator, which are implemented as different neural networks. The generator generates second images that represent variations of the visual asset concurrently with the discriminator attempting to distinguish between the first and second images. The one or more processors update a first model in the discriminator and/or a second model in the generator based on whether the discriminator successfully distinguished between the first and second images. Once trained, the generator generates images of the visual asset based on the first model, e.g., based on a label or an outline of the visual asset.
Une caméra virtuelle prend des premières images d'une représentation numérique tridimensionnelle (3D) d'un actif visuel depuis différents points de vue et dans différentes conditions d'éclairage. Les premières images sont des images d'entraînement qui sont stockées dans une mémoire. Un ou plusieurs processeurs mettent en œuvre un réseau antagoniste génératif (GAN) qui comprend un générateur et un discriminateur, qui sont mis en œuvre sous la forme de réseaux de neurones différents. Le générateur génère des secondes images qui représentent des variantes de l'actif visuel, et le discriminateur tente simultanément de faire la distinction entre les premières et secondes images. Le ou les processeurs mettent à jour un premier modèle dans le discriminateur et/ou un second modèle dans le générateur selon que le discriminateur a réussi ou non à faire la distinction entre les premières et secondes images. Une fois entraîné, le générateur génère des images de l'actif visuel sur la base du premier modèle, par exemple, sur la base d'une étiquette ou d'un contour de l'actif visuel. |
---|