** Es ist eine coole Bewegung von Figuren, Logos, Illustrationen usw. **. Es ist eine ziemlich vage Definition, nicht wahr? Ich glaube nicht, dass es tatsächlich eine klare Definition gibt. Bewegungsgrafiken werden häufig in dem verwendet, was üblicherweise als Emo bezeichnet wird. Es wird häufig in Künstler-MVs und Unternehmens-CMs verwendet. Wenn Sie auf YouTube usw. nach "Bewegungsgrafiken" suchen, werden Sie viele coole Bilder finden. Schauen Sie also bitte vorbei.
Die meisten Bewegungsgrafiken werden von den Erstellern von Hand erstellt. Dies ist eine sehr zeitaufwändige und schwierige Aufgabe. Vor kurzem habe ich mich gefragt, ob es mit der beliebten KI generiert werden kann. Wäre es nicht lustig, KI zu trainieren, um Bewegungsgrafiken zu generieren?
Auch wenn es generiert wird, ist ein Datensatz für das Training erforderlich. In meiner Forschung gab es jedoch keine ** Bewegungsgrafik-Datensätze. ** Sie müssen also Ihren eigenen Datensatz erstellen. Das Erstellen eines großen Datensatzes nimmt jedoch sehr viel Zeit in Anspruch. Daher habe ich dieses Mal einfach Bewegungsgrafiken für 6 Partikeltypen erstellt. Ich habe die Africa Effects von Adobe verwendet, um den Datensatz zu erstellen.
Nachdem wir den Datensatz erstellt haben (abgesehen davon, ob er in relativ kleinem Maßstab als Datensatz bezeichnet werden kann), ist als nächstes das Modell zu berücksichtigen. Es gibt Modelle mehrerer Generationen, und der aktuelle Mainstream ist GAN oder VAE. GAN ist schwer zu lernen, und wenn der Datensatz wie dieses Mal klein ist, besteht eine hohe Wahrscheinlichkeit, dass er nicht gut lernt. Deshalb haben wir VAE übernommen. VAE ist ein abgeleitetes System von AE, und die Verteilung latenter Variablen wird durch Komprimieren und Wiederherstellen des Datensatzes erfasst. Nach dem Training kann es erzeugt werden, indem dem Decoderteil Rauschen z gegeben wird. Für AE und VAE sind die folgenden Artikel hilfreich. Ausführliche Erklärung zum variablen Autoencoder Dieses Mal werden wir ein Video generieren, also hat VAE ein Modell der Unet-Struktur durch 3D-Faltung erstellt. Lernen Sie die räumlich-zeitlichen Informationen von bewegten Bildern durch 3D-Faltung. Die Transponierungskonv. Des Decoderteils ist die Translokationsfaltung. Die Translokationsfaltung wird auf leicht verständliche Weise mit einem Video im Artikel [hier] erklärt (ttps: //qiita.com/kenmatsu4/items/b029d697e9995d93aa24 "Relocation Convolution").
Da der Datensatz klein ist, endete das Training sofort. Ich urteilte, dass es in etwa 200 Epochen generiert werden könnte, also beendete ich das Training dort. Mit der GTX1080Ti dauerte es ungefähr eine Stunde.
Experimentdetails
Video Größe | Epochennummer | Rahmen | GPU |
---|---|---|---|
128x128x32 | 200 | PyTorch | GTX1080Ti |
Bewegungsgrafiken, die wie Trainingsdaten aussehen, wurden ordnungsgemäß generiert.
Morphing Durch Ergänzen des dem Decodierer gegebenen Rauschvektors z zwischen den Bewegungsgrafiken ist es möglich, eine Zwischenbewegungsgrafik zwischen den beiden Bewegungsgrafiken zu erzeugen. Dies ist eine Videoversion dessen, was häufig von GAN generiert wird und sich nach und nach ändert.
Zwischenbewegungsgrafiken werden erzeugt, indem die latente Variable z zwischen Bewegungsgrafiken wie in der folgenden Formel gezeigt ergänzt wird.
z = t z_1 + (1-t)z_2 \\
0 < t < 1
Ich konnte Bewegungsgrafiken mit tiefem Lernen erzeugen. Diesmal gab es aufgrund des relativ kleinen Datensatzes keine Unterschiede in der Generation. Wenn Sie einen großen Datensatz für Bewegungsgrafiken haben, würde ich gerne experimentieren. (Kann es jemand schaffen?) Es ist jedoch interessant, mit Mophing usw. Zwischensachen erzeugen zu können. In diesem Experiment haben wir festgestellt, dass Morphig auch mit einem kleinen Datensatz erstellt werden kann.
Ausführliche Erklärung zum variablen Autoencoder [Entfaltung im neuronalen Netz](ttps: //qiita.com/kenmatsu4/items/b029d697e9995d93aa24 "Transfer Convolution")
Recommended Posts