Google Brain: Algorithmus macht Gesichter auf schlechten Bildern erkennbar

Der Traum der Kriminalisten: Googles Entwicklungsabteilung Google Brain hat einen Algorithmus geschaffen, der Inhalte aus niedrig aufgelösten Bildern hochrechnen kann. Für die Fahndung eignen sich diese Bilder allerdings kaum.

Artikel veröffentlicht am ,
Ausgangsbild, Extrapolation und Original: Details stammen aus dem Archiv.
Ausgangsbild, Extrapolation und Original: Details stammen aus dem Archiv. (Bild: Google Brain)

Eine bekannte Krimiszene: Ein Bildschirm, ein kaum erkennbares Bild, und der Kommissar fragt den Computerexperten: "Können Sie das schärfer machen?" Meist zeigt das Bild ein Gesicht, das von einer Überwachungskamera aufgenommen wurde - bei wenig Licht und in geringer Auflösung. Und der Fahnder will wissen, wen es zeigt. Im Film kann der Computerexperte helfen und das Bild scharf rechnen. Im richtigen Leben macht das jetzt Google.

  • Ausgangsbild, extrapoliertes Bild und Original (von links) (Bild: Google Brain)
Ausgangsbild, extrapoliertes Bild und Original (von links) (Bild: Google Brain)

Die Abteilung Google Brain hat ein System entwickelt, das in der Lage ist, sehr niedrig aufgelöste Bilder zu verbessern. Dazu haben die Google-Entwickler zwei neurale Netze miteinander kombiniert. Die analysieren das Bild und verbessern es.

Das neurale Netz vergleicht Bilder

Natürlich ist es nur möglich, Informationen, die im Bild vorhanden sind, zu verbessern. In den 8 x 8 Pixel großen Bildern gibt es aber kaum Informationen. Das erste neurale Netz vergleicht deshalb das niedrig aufgelöste Bild mit einem Archiv von höher aufgelösten Bildern. Diese werden ebenfalls auf 8 x 8 Pixel heruntergerechnet. Dann vergleicht das System das Ergebnis mit dem Ausgangsbild.

Das zweite System versucht, die fehlenden Details auf dem 8 x 8 Pixel großen Ausgangsbild hinzuzufügen. Auch dieses neurale Netz zieht wieder höher aufgelöste Bilder zum Vergleich heran. Hat das erste System erkannt, dass das kleine Bild ein Gesicht darstellt, vergleicht es das zweite System mit gespeicherten Gesichtern und ergänzt es dann.

Der Algorithmus ergänzt Details

Findet der Algorithmus beispielsweise in dem Minibild im oberen Bereich eine dunkle Stelle, schließt es daraus, dass es sich dabei um eine Augenbraue handeln könnte. Beim Hochrechnen baut es an dieser Stelle also Augenbrauen-Pixel ein.

Die Ergebnisse der beiden Systeme werden schließlich zusammengeführt und daraus wird dann ein Bild mit 32 x 32 Pixel errechnet. Die Ergebnisse sind erstaunlich: Aus einem 64 Pixel großen Bild, auf dem kaum etwas zu erkennen ist, macht das System erkennbar ein Gesicht.

Das rekonstruierte Gesicht ist nicht das echte Gesicht

Für den Kommissar ist das aber nicht unbedingt die Lösung seines Problems, auf einem unscharfen, verpixelten Bild einen Verdächtigen zu erkennen. Denn das Google-System kann auch nur mit den Daten arbeiten, die es hat - dem Original und einem Datensatz zum Vergleich. Daraus extrapoliert es dann ein Gesicht, das dem der Person auf dem Bild wahrscheinlich nur entfernt gleicht - und den Kommissar dazu bringen könnte, nach einer Person zu fahnden, die es gar nicht gibt.

Wenn das System mit der Zeit besser wird, kann es möglicherweise wirklich Menschen wieder erkennbar machen. Damit wiederum würde Google die eigenen Bemühungen um den Schutz der Privatsphäre unterlaufen: Vor einigen Jahren hat das Unternehmen eigens ein System entwickelt, das Gesichter in den Bildern von Google Street View verwischt. Was, wenn das neue System diese wieder erkennbar macht?

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Flobee 10. Feb 2017

Oh, stimmt! Faszinierend.

Eheran 09. Feb 2017

Quelle? Ich glaube nicht einfach irgendwas, was irgendwer einfach so behauptet.

mhstar 09. Feb 2017

Und im unteren Bild hat der Algorithmus weiße Pixel gesehen, und daraus geschlossen...

mightymike1978 09. Feb 2017

So wie ich das verstehe, dürfte es dasselbe Prinzip sein: "In addition to that the loss...



Aktuell auf der Startseite von Golem.de
Quellcode auf Github
MS-DOS 4.00 ist jetzt Open Source

Nachdem der ehemalige CTO eine alte MS-DOS-Floppy entdeckt hat, veröffentlicht Microsoft ein Stück Betriebssystem-Geschichte.

Quellcode auf Github: MS-DOS 4.00 ist jetzt Open Source
Artikel
  1. Startrampe Set: Lego bietet Milchstraße und Nasa-Rakete Artemis als Bausatz
    Startrampe Set
    Lego bietet Milchstraße und Nasa-Rakete Artemis als Bausatz

    Lego hat zwei neue Sets vorgestellt, die für Weltraumenthusiasten gedacht sind: das Nasa-Artemis-Startrampen-Set und das Milchstraßen-Galaxie-Set.

  2. Tarifrunde: Montag erneut Streiktag bei der Deutschen Telekom
    Tarifrunde
    Montag erneut Streiktag bei der Deutschen Telekom

    Beim letzten Warnstreik bei der Telekom waren 12.500 Beschäftigte beteiligt. Diesmal wird breiter mobilisiert. Die Telekom versucht Schadensbegrenzung.

  3. Auszieh-Apps: Apple entfernt KI-Nudify-Apps aus dem App Store
    Auszieh-Apps
    Apple entfernt KI-Nudify-Apps aus dem App Store

    Apps, die Personen per KI ungefragt digital ausziehen, sind beliebt. Nun entfernt Apple einige dieser Anwendungen aus dem App Store - aber erst nach Hinweisen von Journalisten.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Asus OLED-Monitor zum Tiefstpreis • Gigabyte GeForce RTX 4070 Ti im Sale • MediaMarkt: Asus Gaming-Laptop 999€ statt 1.599€ • Gamesplanet Spring Sale [Werbung]
    •  /