Tja, ein weiteres cooles Betätigungsfeld für KI-Algorithmen in der Bildbearbeitung scheint die RAW-Entwicklung von Low-Light-Aufnahmen zu werden. Schon bisher gab es funktionierende Denoising-Ansätze mit Autoencodern, jedoch geht der nun in einem Projekt vorgestellte Ansatz noch einmal deutlich weiter. Zur Veranschaulichung vielleicht erst einmal das zugehörige Video:
Der Trick bleibt mal wieder faszinierend einfach: Das Netz bekommt kurz belichtete RAW-Aufnahmen und lernt daraus Aufnahmen abzuleiten, die aus Lerndaten durch lange Belichtung des selben Motivs entstanden sind. Gelernt wird dabei mit einer ziemlich normalen Convolution-Topologie. Die Projektdaten liegen zum selber ausprobieren auf GitHub. Das Netzwerk arbeitet direkt mit rohen Sensordaten und ersetzt einen Großteil der traditionellen Bildverarbeitungspipeline, die laut den den Autoren bei extremen Low-Light-Verhältnissen sowieso nur schlecht funktioniert.
// Top-News auf einen Blick:
- YouTuber verliert Prozess - Bruce Willis Synchronstimme darf nicht geklont werden
- Preview auf objektbasierte Maskentools in der Premiere Pro Beta
- Blackmagic DaVinci Resolve Studio ab sofort auch mit monatlicher Lizenz
- Neu und kostenlos - Adobe Premiere für iPhone
- Canon teasert neue, kompakte Kamera - Cine-Modell zur IBC?
- Revolutionärer AF für Cine-Objektive: Tilta Autofokus-Adapter zapft interne Kamera-...

Wenn man sieht um wie viel besser mit dieser Methode nochmal die Aufnahmen einer Low-Light Spezialistin wie der A7SII werden, darf man schon staunen.