Nvidia: Neuronales Netzwerk generiert fotorealistische Bilder
Prominente, Tiere oder Fahrzeuge: Nvidias maschineller Lernalgorithmus generiert möglichst realistische Bilder. Die Vorlage stellen 30.000 Referenzbilder. Momentan sind die Ergebnisse noch nicht ohne Fehler - es sei denn ein zweiköpfiges Pferd ist erwünscht.
Der Hardwarehersteller Nvidia hat ein Konzept vorgestellt, mit dem Bilder von Objekten und Personen von einem neuronalen Netzwerk automatisch erstellt werden. Das Unternehmen nutzt dazu das Konzept von Generative Adverserial Networks (GAN), bei dem ein Algorithmus die Bilder generiert und ein anderer diese auf ihre Echtheit hin bewertet. Die Modelle werden in mehreren Etappen trainiert, in denen der Detailreichtum der Bilder Schritt für Schritt erhöht wird.
Erste Ergebnisse wurden in Form von Bildern mit einer Auflösung von 1.024 x 1.024 Pixeln gezeigt. Objekte wie Fahrräder, Busse oder Kirchen konnten bisher nur in 256 x 256 Pixeln gerendert werden.
Die Grundlage für die neuronalen Netzwerke bildet eine Datenbank aus 30.000 Bildern. Diese nimmt sich das System zur Vorlage und generiert nach Schlagwörtern entsprechende Motive. Erste Ergebnisse sind bereits sehr detailliert. Hauttexturen etwa können bereits vom Modell erstellt werden. Auch eine Art animierte Bilderserie erstellt das Modell. Das Ergebnis ist ein sich ständig änderndes Motiv, bei dem sich Bilder in andere Bilder morphen.
Verbesserungspotenzial für das GAN
Probleme hat Nvidias GAN-System allerdings noch bei reflektierenden Oberflächen, wie bei der feuchten Pupille eines Auges. In der Dreiviertel-Ansicht sehen einige Proportionen außerdem noch etwas verschoben aus. Nvidia berichtet im Dokument auch von Ergebnissen, bei denen ein Pferd zwei Köpfe hat oder von Frauen, die nur einen Ohrring haben.
Außerdem werden beim Begriff Fernseher vom Modell auch ähnlich aussehende Geräte wie Smartphones und Laptops generiert. Auch die Trainingszeit für das Modell ist noch immer eine Hürde: Nvidia hat dafür einen Supercomputer mit Tesla-P100-Grafikkarten 20 Tage lang laufen lassen.
Trotzdem sind viele der Ergebnisse bereits jetzt sehr fotorealistisch. Anwendungsgebiete für eine solche Technik können im Grafikdesign und in der Werbung gefunden werden. Momentan werden etwa in der Modebranche Fotomodelle zu großen Teilen noch von ausgebildetem Personal in Adobe Photoshop oder vergleichbarer Software so editiert, dass sie für den Zweck noch attraktiver wirken. Solche Aufgaben könnte in Zukunft ein Algorithmus übernehmen. Vielleicht stammt dann auch das Model selbst aus dem Computer.
Geil oder.
dim mens ... Mach dunkel den Mens! Er ist zu hell! Der Algorithmus soll nur 2D Bilder...
Sehr beeindruckend finde ich auch die Ergebnisse von CycleGAN: https://github.com/junyanz...
Aus Pixeln ;-)