Künstliche Intelligenz: Nvidia entfernt Bildrauschen signifikant | Video

Wer schonmal mit einem Smartphone schlechten Lichtverhältnissen fotografiert hat, kennt die Problematik nur allzu gut: starkes Bildrauschen und fehlende Details. Das Gemeinschaftsprojekt „Noise2Noise“ von Nvidia, MIT und der Aalto University haben dank Künstlicher Intelligenz ein Verfahren entwickelt, um die Fotoqualität nachträglich deutlich zu steigern.

Noise2Noise ist ein neuronales Netzwerk, was zugleich bedeutet, dass es mit vielen Daten trainiert werden muss. Das Team verwendete 50.000 Bilder aus der ImageNet-Datenbank, die rauschfreie und hochauflösende Bilder enthält. Zusätzlich wurden der AI auch Bilder mit einem künstlich erzeugten Rausch-Effekt vorgelegt, damit der Algorithmus das „Entrauschen“ stufenweise trainieren konnte. Die Wissenschaftler variierten dabei den Grad und die Farbpalette des künstlichen Bildrauschens, was sich in einem höheren Schwierigkeitsgrad für die künstliche Intelligenz wiederspiegelte.

Nvidia steuerte für das Forschungssystem eine Vielzahl an Tesla P100 Grafikprozessoren bei, um das Netzwerktraining mit dem cuDNN-Tiefenlernframework TensorFlow durchzuführen. Mehrere Durchläufe waren nötig, bis Noise2Noise in der Lage war, das Rauschen zu entfernen und ein Ergebnis erreichte, das dem Originalbild – also ohne künstlichem Rauschen – gleichkam.

Nach Abschluss des Lernprozesses war das Netzwerk in der Lage, das Rausachen von Bildern zu entfernen, die es zuvor noch nie „gesehen“ hat. Das Forschungsteam berichtet, dass Noise2Noise Artefakte sowie Rauschen mit einer hohen Genauigkeit entfernen kann und zeigt das beeindruckende Ergebnis anhand eines Videos.

Die Ergebnisse der Forscher ebnen einen Weg für die verschiedensten Anwendungsmöglichkeiten von Noise2Noise. Die Low-Light-Fotografie wäre die erste Branche, die von der neuen Technik profitieren würde. Doch auch im wissenschaftlichen Bereich, beispielsweise der Astrofotografie, könnte Noise2Noise zu detailreichen Fotos führen. Da bei der Astrofotografie oft mit sehr langen Belichtungszeiten gearbeitet wird, sind die Bilder durch die Bewegung der fotografierten Körper zu einem hohen Grad “verwaschen” bzw. müssen bei der Schärfe nachkorrigiert werden. Das Verfahren könnte hier angewandt werden, um die Aufnahmen des Weltraumes deutlich klarer zu machen und so Details über neue oder sterbende Planeten besser erkennen zu können. Ebenso wäre ein Einsatz in abgespeckter Form z.B. als vom Netzwerk unabhängiger Algorithmus, bei Smartphones und Kompaktkameras möglich.

Mit Material von Nvidia 

Ebenfalls interessant...