Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Sea-thru: Fade Unterwasseraufnahmen bekommen echte Farben durch neuen Algorithmus



Newsmeldung von slashCAM:



Ohne künstliches Licht erscheinen selbst die farbprächtigsten Fische und Korallenriffe auf Unterwasser-Photos meist nur grün-/blaustichtig und fade farblos. Die Ursache l...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Sea-thru: Fade Unterwasseraufnahmen bekommen echte Farben durch neuen Algorithmus


Space


Antwort von Darth Schneider:

Good Morning SlashCAM
Das stimmt aber so nicht alles so ganz. Bei den Malediven z.b. ist das Meer so klar das man schon beim schnorcheln 60 Meter weiter unten wunderschöne, leuchtende Farben sehen kann.
Auch auf 30 Meter, da braucht man kein künstliches Licht beim tauchen, und die Farben leuchten schöner als an Land...In Agypten war das Wasser im Gegenzug dazu ziemlich trüb und die Farben unter Wasser eher sehr flau...
Aber das dürfen die Ägypter natürlich nicht schreiben, das das Meer dort schmutzig ist, sonst ist es fertig mit Touristen...;)
Also ich weiss nicht ob das etwas mit Wellenlängen zu tun hat, ich denke viel, viel eher mit dem Grad der Wasser Verschmutzung und somit der Trübung des Wassers.
Wieviel Licht unter die Wasseroberfläche gelangt ist vor allem abhängig davon wieviel Staub und Sand und andere kleine Partikel im Wasser drin herum schwimmen, was man an Farben und Licht unter Wasser sehen kann und was nicht, wobei die Bewegung des Wassers sicher auch eine Rolle spielt.
Und nicht zuletzt auch abhängig von den Meeeresbewohnern die ja selber leuchten können und nicht überall, nicht in jedem Meer in den gleich schönen bunten Farben.
Ich weiss jetzt nicht so recht was da ein Algorithmus helfen soll....

Was sicher viel mehr helfen würde schönere Farben dort unten zu bewahren, ist die Weltmeere sauber zu halten...und das sensible Leben dort unten nicht zu stören und in Ruhe zu lassen. Sprich also gar nicht erst als eh nur Dreck bringender Tourist tauchen, und am besten gar nicht erst an solche Orte in die Ferien zu fliegen...Nur mal zum darüber nachdenken.

Ich war genau einmal im Leben auf den Malediven und in Ägypten, und als ich gesehen habe was die Touristen (auf gut deutsch, wir) dort alles kaputt machen wars das für mich, no more.
Und ehrlich gesagt, langsam verstehe ich sogar die nervende Greta, die gar nicht mehr fliegt....Cool, die sture junge Dame ist der Zeit so etwas von voraus.
Gruss Boris

Space


Antwort von vobe49:

Die Farbe bei Unterwasser-Aufnahmen von Fotos und Videos hat nichts mit der Sauberkeit des Meeres zu tun, sondern damit, dass der Rotanteil des Lichtes mit zunehmende Tiefe schnell immer geringer wird. Schon in wenigen Metern Tiefe beträgt er 0 %. Filter helfen da noch ein wenig wenn es nicht zu tief hinunter geht. Irgend wann sind aber wirklich schöne Aufnahmen nur noch durch den Einsatz von Kunstlicht zu erreichen, und dann wird der Aufwand schon recht erheblich. Beim Schnorcheln liegt man dagegen nur 30...40 cm tief im Wasser, und da ist der Rotanteil noch so "normal", dass man gute Aufnahmen hinbekommt oder in der Post noch hinreichende Möglichkeiten der Korrektur hat - Beispiele hier:

https://www.youtube.com/watch?v=2OylMZel_6U

https://www.youtube.com/watch?v=WCQTDVPT9U4

Was das Rote Meer anbelangt, so ist das deutlich weniger verschmutzt als alle asiatischen Meere. Allerdings kommt es in punkto Klarheit halt immer auch auf die Wettersituation an: bei windigem Wetter ist das Meer durch aufgewirbelte Schwebstoffe leicht trüb, was weniger gut für UW-Aufnahmen ist. Man sollte da eher nicht nach Hurghada sondern weiter in den Süden fahren. Schnorcheln sollte man auch eher in den frühen Morgenstunden. Da ist wegen des flachen Sonnenstandes der Lichteinfall besser und es sind noch nicht so viele Schwebstoffe im Wasser. Wenn das Meer sehr klar ist, ist auch der Nachmittag gut, aber meist sind da viele Schwebstoffe im Wasser. Beim Schnorcheln im Riff ist es günstig, mit der Sonne im Rücken in Richtung tiefen Wassers zu fotografieren/filmen. Der Hintergrund wird so sehr schön tiefblau und die Fische/Korallen heben sich so besser ab.
Gruß vobe49

Space


Antwort von Jott:

Die arme Ingenieurin wird sicher oft erleben, dass ihr Ansatz nicht verstanden wird.

Space


Antwort von dosaris:

Jott hat geschrieben:
Die arme Ingenieurin wird sicher oft erleben, dass ihr Ansatz nicht verstanden wird.
ja,
so ganz verstehe ich die auch nicht:

im Gegensatz zu Luft u HF ist die Absorption unter Wasser umgekehrt.
Zu höheren Frequenzen hin (blau) ist die Absorption geringer als
im längerwelligen Bereich (rot).

(in der Luft nimmt die Absorption mit der Frequenz zu, das Basis-Dilemma von 5G)

hier hanz gut ersichtlich:
https://de.wikipedia.org/wiki/Sichtweit ... Wasser.svg

Aber wie will man dann zB in 30m Tiefe rot wieder reinrechnen, wenn man nicht weiß
wieviel rot ursprünglich drin war? Natürlich kann man schöne bunte Bilder errechnen,
aber authentisch können die kaum sein.

Space


Antwort von domain:

Zitat:
"Einfache Farbkorrekturen versagen bei Objekten, die unterschiedliche Distanzen zur Kamera aufweisen."

Wobei ja zwei Distanzen zu berücksichtigen wären. Die Tiefe des Objektes unterhalb der Wasseroberfläche und die Distanz des Objektes zur Kamera. Letztere wird wohl die geringere Rolle spielen, weil aus 20m Entfernung wird wohl kein Foto gemacht werden.
Wie das ein Algorithmus schaffen kann ist mir schleierhaft.

Space


Antwort von Darth Schneider:

Klar, ich würde auch ganz nah zum weissen Hai um ihn von der schönsten Seite zu erwischen...dann hat er sein Frühstück, (Rülps)
Gruss Boris

Space


Antwort von tom:

dosaris hat geschrieben:
Jott hat geschrieben:
Die arme Ingenieurin wird sicher oft erleben, dass ihr Ansatz nicht verstanden wird.
ja,
so ganz verstehe ich die auch nicht:

im Gegensatz zu Luft u HF ist die Absorption unter Wasser umgekehrt.
Zu höheren Frequenzen hin (blau) ist die Absorption geringer als
im längerwelligen Bereich (rot).

(in der Luft nimmt die Absorption mit der Frequenz zu, das Basis-Dilemma von 5G)

hier hanz gut ersichtlich:
https://de.wikipedia.org/wiki/Sichtweit ... Wasser.svg

Aber wie will man dann zB in 30m Tiefe rot wieder reinrechnen, wenn man nicht weiß
wieviel rot ursprünglich drin war? Natürlich kann man schöne bunte Bilder errechnen,
aber authentisch können die kaum sein.
Die physikalischen Grundlagen und die zugrundeliegenden Formeln des Algorithmus beantworten vielleicht Deine Fragen:
http://openaccess.thecvf.com/content_CV ... _paper.pdf

Space


Antwort von Jalue:

Tolle Sache für die Wissenschaft, aber der Nutzwert für "uns" ist doch eher begrenzt, hat er doch mit dokumentarischer Fotografie wenig bis nichts zu tun. Wenn ich in der Ostsee oder im Schweriner See filme, definiert ein Grünstich nun mal die natürliche Farbe aus menschlicher Sicht, auch wenn es natürlich Sinn machen kann, ihn etwas zu reduzieren. Dafür muss ich aber nicht mit RAW oder Messwerten herumdoktern, ein Magentafilter tut’s völlig. Alles, was darüber hinausgeht, ist halt Nachkolorierung – und die kriegt man wahrscheinlich auch einfacher hin.

Space



Space


Antwort von vaio:

"Darth Schneider" hat geschrieben:
Good Morning SlashCAM
Das stimmt aber so nicht alles so ganz.
...das man schon beim schnorcheln 60 Meter weiter unten...
Hallo, entweder atmest du über Kiemen, oder du musst einen verdammt langen Schnorchel benutzt haben. Selbst tauchen auf 60 m... sehr beachtlich... Insofern stimme ich deinen Beitrag zu. Also den ersten Satz. :-)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Videomasken einfach per Beschreibung definieren durch neuen KI-Algorithmus
Kostenloses KI-Tool "Deep-Live-Cam" erzeugt täuschend echte DeepFakes im Live-Chat
TecoGAN: Neuer KI Super-Resolution Algorithmus macht Videos 4x schärfer
Googles neuer Super-Resolution Algorithmus SR3 skaliert Gesichter nahezu perfekt hoch
Nur Sternenlicht als Beleuchtung: Neuer KI-Algorithmus entrauscht Videos perfekt
Neuer Nvidia Algorithmus erschafft aus Photos eines Objekts ein bearbeitbares 3D-Modell
Neuer Algorithmus ermöglicht eigene Objekte in KI-generierten Bildern
SDXL-Turbo - Neuer KI-Algorithmus beschleunigt Stable Diffusion extrem
Neuer Algorithmus erkennt KI-Videos mit 98% Genauigkeit
LivePortrait - Neuer KI-Algorithmus animiert Gesichter per Video
Adobe Premiere Pro und After Effects bekommen ProRes RAW und mehr Neues...
Atomos Shogun und Ninja bekommen kein Ton vom Lenovo Thinkpad
sollte ich eine d3500 oder eine t6 mit ein paar weiteren objektiven bekommen?
Auch die Canon EOS 1D-X Mark III soll Log3 Option bekommen
Updates: Magic Bullet Looks und Colorista sowie Trapcode Particular bekommen neue Funktionen
Blackmagic Video Assist 3G/12G bekommen per Webcam Update Live-Streaming Funktionailtät
Und bei uns am Bahnhof bekommen sie nicht mal ein Verkaufsdisplay aufgestellt!
Sony Firmware-Updates 2021 - FX6, FX9 bekommen 4Kp120 RAW-Ausgabe, XDCAM-Camcorder besseren HDR-Workflow




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash