Tja, ein weiteres cooles Betätigungsfeld für KI-Algorithmen in der Bildbearbeitung scheint die RAW-Entwicklung von Low-Light-Aufnahmen zu werden. Schon bisher gab es funk... Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten: Neuronale Netze verbessern Low-Light-Aufnahmen signifikant
Forschung. Standbilder. Erst eine Langzeitbelichtung machen (10-30 Sekunden!), dann in gleicher Position mit 1/30 aufnehmen. Rechenzeit etwa 0,6 Sekunden dafür, die Langzeitbelichtung zu analysieren und die 1/30-Aufnahme daraus herzurichten. Geht nicht mit Menschen, geht nicht mit bewegten Objekten (immer zuerst das Fazit des Papers lesen - die “Discussion“ - nicht nur Bildchen gucken). Für Video geht das natürlich schon gleich gar nicht.
Also bitte nicht schon wieder verschwörerisch und allwissend so tun, als würde das in unseren Video-/Filmkameras so werkeln. Das ist „nur“ Grundlagenforschung. Interessante natürlich.
Auf den ersten Blick sieht das beeindruckend aus. Auf den zweiten, sieht es aber dann so aus, als ob sich das neuronale Netzwerk Dinge dazu denken würde. Jedenfalls ist das nicht länger ein Foto im eigentlichen Sinne. Also etwas, worauf man vertrauen kann, sondern eine Interpretation eines Moments seitens eines talentierten Malers. Ich würde gerne damit experimentieren. Würde ich es aber immer verwenden? Ich denke nicht.
eben und was hat das mit einer realen wiedergabe zu tun, die zukunft nur noch schön gerechnet, ein verlust an abbildender realität, das was film/video eigentlich sein sollte...
... aber genau diesen Anspruch haben Einige hier im Forum bereits nicht mehr, wenn es ihnen nicht mal darauf ankommt, ob die (pseudo) 4K auch die 4K sind, die das Auge sieht oder nur die rechnerische Pixelauffüllung einer Matrix mit irgendwelchen Ähnlichkeiten. Hauptsache ... scharf.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.