Ohne künstliches Licht erscheinen selbst die farbprächtigsten Fische und Korallenriffe auf Unterwasser-Photos meist nur grün-/blaustichtig und fade farblos. Die Ursache liegt darin begründet, daß Wasser manche Wellenlängen des sichtbaren Lichts wie Rot und Gelb stärker als andere streut und absorbiert, was in verwaschenen Farben resultiert. Zusätzlich verfälschen im Wasser schwebenden Partikeln das Bild.
Da eine echte Farbdarstellung aber für die Korallenforschung wichtig wäre, um per neuronalen Netzen auf Millionen von Photos Korallen automatisch zuverlässig zu erkennen, zu klassifizieren und zu zählen, hat die Ingenieurin und Ozeanographen Derya Akkaynak in vierjähriger Arbeit einen neuen Algorithmus namens Sea-thru entwickelt, der die typischen visuellen Entfärbungen von Unterwasserphotos beseitigt und sie in vollem natürlichen Farbumfang darstellt (was schön auf den beiden Beispielbildern hier demonstriert wird).

Die Bildanalyse von Sea-thru berücksichtigt die andere Physik der Lichtabsorption und -streuung in der Atmosphäre, verglichen mit der im Ozean, wo die Partikel, mit denen das Licht auf der Strecke zum Auge (oder Bildsensor) interagiert, sehr viel größer sind. Dann entfernt das Programm die typischen Farbverschiebungen der Unterwasserbilder Pixel für Pixel und stellt verlorenen Farben wieder her.
Der Algorithmus unterscheidet sich von simplen Rot/Gelb-Farbkorrekturen in Bildbearbeitungsprogrammen, mit denen Anwender Unterwasserbilder künstlich verbessern können, durch ein intelligenteres Verfahren, welches die Strecke berücksichtigt, die das Licht durchs Wasser zurücklegen muss, und kann so zuverlässiger die einzelnen absorbierten Farbanteile physikalisch korrekt wiederherstellen und die echten Farben darstellen. Einfache Farbkorrekturen versagen bei Objekten, die unterschiedliche Distanzen zur Kamera aufweisen.

Der Algorithmus benötigt allerdings, um zu funktionieren, Informationen über die Entfernung der verschiedenen Objekte auf dem Bild, um zuverlässig die farbverändernde Wirkung des Wasser herausrechnen zu können. Das Programm kann aber mehrere Photos desselben Gegenstands aus verschiedenen Blickwinkeln (oder zwei Stereobilder) dazu benutzen, die Entfernung für die weitere Bearbeitung erfolgreich abzuschätzen (viele wissenschaftliche UW-Bilddatensätze enthalten eh schon per Photogrammetrie ermittelte Entfernungsdaten).
// Top-News auf einen Blick:
- DJI Mini 5 Pro bringt grossen 1 Sensor, LiDAR und 4K mit 120fps
- Google Veo 3 und Veo 3 Fast: Neue Features, 1080p-Support und drastische Preissenkung
- RØDE senkt Preise für seine RØDE Wireless Mikrofonsysteme radikal
- Blackmagic DaVinci Resolve 20.2 bringt neben Apple ProRes RAW u.a. ...
- iPhone 17 Pro: ProRes RAW, Genlock, Apple Log 2 und Blackmagic ProDock für Filmer
- Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?
Noch besser arbeitet der Algorithmus, wenn er Daten über die herrschenden optischen Eigenschaften des Wassers hat, was testweise schon mittels Ozean-Farbsatellitenbildern realisiert wurde, mit deren Hilfe dann die aktuelle Lichtdämpfung in der Wassersäule ermittelt werden konnte - eventuell könnten in Zukunft aber auch hier Deep Learning Algorithmen die genaue Kalibrierung vereinfachen.
Hier findet sich die zugehörige wissenschaftliche Arbeit ("Sea-Thru: A Method for Removing Water From Underwater Images") von Derya Akkaynak .