Frage von iasi:Die vielen ks heutiger Kameras verlangen nach Objektiven, mit denen man auch diese hohe Auflösung nutzen kann.
Und viele wollen dabei schlicht eine Abbildung, die clean ist.
https://www.youtube.com/watch?v=kml2b7N__zE
Es gilt dabei verschiedene Aspekte zu beachten:
Screenshot 2024-08-20 at 11-19-39 Why do cinematographers (sometimes) use clean lenses - YouTube.png
"Look" kann man auch in der Post erzeugen, also lassen wir den doch mal beiseite.
Ich tendiere zu Bildern mit hoher Schärfentiefe, wobei der Hintergrund durch normale und lange Brennweite stärker miteinbezogen wird - sofern die Handlung/Aussage nicht anderes erfordert.
So einfach ist es mit dem Abblenden jedoch auch nicht:
https://www.cambridgeincolour.com/tutor ... graphy.htm
Dabei die die Pixelgröße einfach umzurechnen, greift hier dann auch zu kurz.
Leider wird meist auf die Offenblendeleistung von Objektiven geschaut - bei optimaler Blende seien sie eh gleich gut.
Ist das so?
Und welches ist denn die optimale Blende?
Dann die Frage, wie weit abgeblendet werden kann - dies unterscheidet sich durchaus bei Objektiven und ist nicht nur von der Pixelgröße abhängig.
Dann noch die Frage nach der Fokusierung.
Wenn der Fokus nicht sitzt, nutzt auch das beste Objektiv nichts.
Für mich sind moderne AF dabei mittlerweile so weit, dass sie oft sicherer sind, als ein Focus Puller.
https://www.youtube.com/watch?v=AnFysxUu4_I
Antwort von Frank Glencairn:
Ich finde die Bezeichnung "Charakter" (für das was eigentlich Abbildungsfehler sind) in dem Zusammenhang sowieso immer ein bisschen schräg.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Ich finde die Bezeichnung "Charakter" (für das was eigentlich Abbildungsfehler sind) in dem Zusammenhang sowieso immer ein bisschen schräg.
Das sehe ich auch so. Schwächen als "Charakter" schön oder gar wegzureden, ist ja leider in Mode.
Cooke bietet jedoch Objektive, die speziell auf einen "Charakter" hin entwickelt wurden. Diese zeichnen sich dann dadurch aus, dass das gesamte Set diesen "Charakter" hat.
Antwort von cantsin:
Bin mir ziemlich sicher, dass wir mit mehr KI-gestützter Software in der Postproduktion in Zukunft folgenden Workflow haben werden:
Objektiv -> KI-Rausrechnung von Objektivfehlern -> sauberes Bild -> KI-Reinrechnung von "Charakter"
Für Color Grading haben wir ja bereits äquivalente Workflows (Raw/Log -> Linearisierung & Neutralisierung -> Grading/Look), und so, wie man sich heute z.B. schon eine Kodachrome 64-Emulation bauen kann, wird man sich in der Zukunft wahrscheinlich auch eine Cooke S4-Emulation bauen können.
Antwort von iasi:
Was ich vermisse, sind Vergleichsmöglichkeiten/Vergleichstests zwischen Foto- und Cine-Objektive.
Die Abbildungsqualität, die Foto-Objektive bieten, sind schließlich auch sehr gut.
https://www.youtube.com/watch?v=v_zEQzddAOw
Und wenn die Linsen teuerer sein dürfen, sind sie sogar hervorragend:
https://www.youtube.com/watch?v=FCb-AIQQjkQ
Ein Zeiss Supreme Prime 50 mm T/1.5 kostet mehr als doppelt so viel, wiegt weit mehr und bietet "nur" t1.5, während Nikons 58mm mit t1.1 punktet.
Dafür schlägt das Supreme das Nikon 58 klar, wenn es darum geht:
https://youtu.be/wb87kdR2D7E?t=27
Antwort von iasi:
cantsin hat geschrieben:
Bin mir ziemlich sicher, dass wir mit mehr KI-gestützter Software in der Postproduktion in Zukunft folgenden Workflow haben werden:
Objektiv -> KI-Rausrechnung von Objektivfehlern -> sauberes Bild -> KI-Reinrechnung von "Charakter"
Für Color Grading haben wir ja bereits äquivalente Workflows (Raw/Log -> Linearisierung & Neutralisierung -> Grading/Look), und so, wie man sich heute z.B. schon eine Kodachrome 64-Emulation bauen kann, wird man sich in der Zukunft wahrscheinlich auch eine Cooke S4-Emulation bauen können.
Es wäre aber wohl schon gut, wenn das Ausgangsmaterial für die KI möglichst gut wäre.
Randabschattung kann man rausrechnen - was aber letztlich das Rauschen in den Ecken verstärkt.
Verzeichnung kann man rausrechnen - ...
Focus Breathing kann man rausrechnen - ...
Wenn Details nicht abgebildet sind, wird es aber auch für die KI schwer, diese zu "erfinden".
Wenn Flares hineinstrahlen, bekommt man sie auch mit KI nicht mehr aus dem Bild.
...
Antwort von cantsin:
iasi hat geschrieben:
Wenn Details nicht abgebildet sind, wird es aber auch für die KI schwer, diese zu "erfinden".
Genau das ist aber, was generative KI tut und worin sie über klassische (Denoising-, Entzerrungs- etc.) Algorithmen hinausgeht...
Antwort von pillepalle:
Zu dem Thema gibt es, wie immer, ganz unterschiedliche Meinungen :)
Da wo die KI einem sinnvoll Arbeit abnehmen bzw. ersparen kann nutze ich sie gerne. Wenn es um kreative Entscheidungen und welche die das Bild betreffen geht, dann fälle ich die gerne selber. Wenn ich den Ausschnitt versehentlich zu eng gewählt habe, dann kann mir eine KI auch gerne mal den fehlenden Hintergund dazu erfinden. Bei den wesentlichen Dingen brauche ich aber keine KI die für mich entscheidet und irgendwas dazudichtet. Fertige Looks werden auch schnell langweiig, wenn man sie ständig nutzt.
Bei Objektiven und deren Bildfehlern kann man deren 'Fehler' eben auch gezielt einsetzen, den Zufall mitspielen lassen und alles passend zur eigenen Vorstellung. Das letzte was ich möchte wenn ich künstlerisch arbeite ist ein scharfes und cleanes Bild. Das brauche ich für ein Repro, oder vielleicht eine Dokumentation von irgendetwas. Aber eigentlch finde ich es ja gerade gut, wenn es abstrakt ist. Und um das zu erreichen möchte ich vielleicht auch keine Klimmzüge in der Post machen müssen. In meinen Augen ist ein gutes Fertiges Bild aus der Kamera viel besser als eines, an dem ich noch ewig herumschrauben muss um dahin zu kommen. So hat jeder eben seine vorlieben. Irgendwie ist niemand mehr in der Lage selber Entscheidungen zu treffen. Und so macht man alles möglichst beliebig, um es sich später noch anders überlegen zu können. Sicher ist sicher :)
VG
Antwort von cantsin:
pillepalle hat geschrieben:
Bei Objektiven und deren Bildfehlern kann man deren 'Fehler' eben auch gezielt einsetzen, den Zufall mitspielen lassen und alles passend zur eigenen Vorstellung.
Es spricht aber prinzipiell nichts dagegen, Dir die Bildfehler bzw. Objektivcharakteristiken auch per generativer KI nachträglich als Filter einzubauen (genauso, wie z.B. eine KI-basierte analoge Filmsimulation).
Die Idee wäre dann, dass Du dann prinzipiell nur noch ein generisches, modernes, cleanes Objektiv bräuchtest und Dir dann Vintage-Objektivcharakteristiken per Software-Simulation in der Post reinrechnen lässt.
Mit herkömmlichen algorithmischen Mitteln ging so etwas bisher eher schlecht bzw. unbefriedigend (ditto bei Filmsimulationen), aber genau für solche Anwendungen ist machine learning gemacht & auch sinnvoll einsetzbar.
Antwort von iasi:
cantsin hat geschrieben:
iasi hat geschrieben:
Wenn Details nicht abgebildet sind, wird es aber auch für die KI schwer, diese zu "erfinden".
Genau das ist aber, was generative KI tut und worin sie über klassische (Denoising-, Entzerrungs- etc.) Algorithmen hinausgeht...
zum Bild
3301485-flimmernde-menschenmenge-in-der-ferne-bei-ebbe-im-wattenmeer-photocase-stock-foto-gross2.jpg
Ich erwarte von einer KI keine Wunder und denke, dass sie aus dem unscharfen und verrauschten Bild auch nichts zaubern könnte.
Antwort von pillepalle:
@ cantsin
Nur weißt du dann wöhrend der Aufnahme immer noch nicht wie es aussehen wird. Wenn ich etwas mache, habe ich im Idealfall vorher schon eine Vision davon was ich möchte und wie es aussehen soll. Das entscheide ich nicht erst in der Post, bzw. überlasse es dann der KI.
VG
Antwort von iasi:
pillepalle hat geschrieben:
Zu dem Thema gibt es, wie immer, ganz unterschiedliche Meinungen :)
Da wo die KI einem sinnvoll Arbeit abnehmen bzw. ersparen kann nutze ich sie gerne. Wenn es um kreative Entscheidungen und welche die das Bild betreffen geht, dann fälle ich die gerne selber. Wenn ich den Ausschnitt versehentlich zu eng gewählt habe, dann kann mir eine KI auch gerne mal den fehlenden Hintergund dazu erfinden. Bei den wesentlichen Dingen brauche ich aber keine KI die für mich entscheidet und irgendwas dazudichtet. Fertige Looks werden auch schnell langweiig, wenn man sie ständig nutzt.
Bei Objektiven und deren Bildfehlern kann man deren 'Fehler' eben auch gezielt einsetzen, den Zufall mitspielen lassen und alles passend zur eigenen Vorstellung. Das letzte was ich möchte wenn ich künstlerisch arbeite ist ein scharfes und cleanes Bild. Das brauche ich für ein Repro, oder vielleicht eine Dokumentation von irgendetwas. Aber eigentlch finde ich es ja gerade gut, wenn es abstrakt ist. Und um das zu erreichen möchte ich vielleicht auch keine Klimmzüge in der Post machen müssen. In meinen Augen ist ein gutes Fertiges Bild aus der Kamera viel besser als eines, an dem ich noch ewig herumschrauben muss um dahin zu kommen. So hat jeder eben seine vorlieben. Irgendwie ist niemand mehr in der Lage selber Entscheidungen zu treffen. Und so macht man alles möglichst beliebig, um es sich später noch anders überlegen zu können. Sicher ist sicher :)
VG
Ein cleanes Bild bekommt man weich, unscharf etc.
Ein Bild mit Abbildungsfehlern bekommt man hingegen auch mit KI nur schwerlich wieder clean.
Focus Breathing oder Verzeichnung lässt sich korregieren - nur kostet es etwas vom Bildausschnitt.
Randabschattung kann man aufhellen - nur erhöht dies das Rauschen und Zeichnung in den Schatten ist vielleicht verloren.
Ich würde sagen, dass die Beseitigung von Abbildungsfehlern des Objektivs "fix-it-in-post" ist, während das Hinzufügen von "Bildfehlern" in ein cleanes Bild Gesaltung ist.
Daher gilt für mich das Ziel: Ein möglichst cleanes Bild bei der Aufnahme zu erzielen.
Antwort von pillepalle:
@ iasi
Aber vielleicht möchte man genau diese Abbildungsfehler haben. Deshalb hat man sich ja für die Optik entschieden. Dann muss man sie auch nicht später wieder entfernen ;) So wie für dich das cleane Bild das Maß aller Dinge ist, ist es für mich super, wenn ich meiner Vorstellung schon in der Produktion möglichst nahe kommen kann.
VG
Antwort von cantsin:
iasi hat geschrieben:
Ich erwarte von einer KI keine Wunder und denke, dass sie aus dem unscharfen und verrauschten Bild auch nichts zaubern könnte.
Wunder nicht. Hier aber mal ein Praxisbeispiel, was machine learning-gestützte Debayering-Verfahren leisten können.
1:1-Ausschnitt eines Fotos, das ich vor ein paar Wochen mit einer alten Nikon 1 J1 und deren Kitzoom gemacht habe, konventionell von Raw nach JPEG gewandelt:
Screenshot from 2024-08-20 14-16-43.png
Dasselbe Foto, diesmal mit DxO Photolab und dessen KI-basiertem Deep Prime XR-Debayering/Entrauschungsverfahren nach JPEG gewandelt:
Screenshot from 2024-08-20 14-16-39.png
Die zusätzlichen Details, die man z.B. im Gesicht des Mannes sieht, sind von der Software auf der Basis ihres Trainingssets heuristisch rekonstruiert bzw. hinzuerfunden.
Antwort von cantsin:
pillepalle hat geschrieben:
@ cantsin
Nur weißt du dann wöhrend der Aufnahme immer noch nicht wie es aussehen wird. Wenn ich etwas mache, habe ich im Idealfall vorher schon eine Vision davon was ich möchte und wie es aussehen soll. Das entscheide ich nicht erst in der Post, bzw. überlasse es dann der KI.
Ja, aber früher oder später kriegst Du das auch direkt in der Kamera (und, wahrscheinlich ein paar Jahre früher, im Smartphone). So, wie man jetzt bei einer Fuji-Kamera eine Filmsimulation wählen kann, kannst Du dann für Dein Objektiv eine Objektivsimulation wählen und z.B. aus Deinem ultramodernen und cleanen Nikkor Z 50mm f/1.8s Dir ein Cooke-Triplet oder Vorkriegs-Zeiss Sonnar filtern lassen.
Das sind IMHO die realistischen Praxisanwendungen von generativer KI (während ein großer Teil dessen, was OpenAI & Co. für die Technologie versprechen, Hype bzw. Luftblase ist).
Antwort von iasi:
cantsin hat geschrieben:
iasi hat geschrieben:
Ich erwarte von einer KI keine Wunder und denke, dass sie aus dem unscharfen und verrauschten Bild auch nichts zaubern könnte.
Wunder nicht. Hier aber mal ein Praxisbeispiel, was machine learning-gestützte Debayering-Verfahren leisten können.
1:1-Ausschnitt eines Fotos, das ich vor ein paar Wochen mit einer alten Nikon 1 J1 und deren Kitzoom gemacht habe, konventionell von Raw nach JPEG gewandelt:
Screenshot from 2024-08-20 14-16-43.png
Dasselbe Foto, diesmal mit DxO Photolab und dessen KI-basiertem Deep Prime XR-Debayering/Entrauschungsverfahren nach JPEG gewandelt:
Screenshot from 2024-08-20 14-16-39.png
Die zusätzlichen Details, die man z.B. im Gesicht des Mannes sieht, sind von der Software auf der Basis ihres Trainingssets heuristisch rekonstruiert bzw. hinzuerfunden.
Ich bestreite nicht, dass - eben auch durch die heutige Rechenpower - die Software beeindruckende Ergebnisse liefert. Jedoch nur auf Basis von brauchbaren Bildern. Bei deinem Bildbespiel wurde viel verfeinert - aber hinzuerfunden eher nicht.
Ich bin auch ein Fan z.B. von Relight und heutigen AF.
Aber auch Relight verlangt nach ordentlichem Ausgangsmaterial.
Ich belichte technisch möglichst optimal und kümmere mich nicht um das Vorschaubild beim Dreh. Genauso strebe ich ein möglichst cleanes Bild an.
Keine KI rechnet Schärfentiefe in ein Bild, das bei Offenblende gemacht wurde.
Wenn ich mein Zoom-Objektiv auf f32 abblende, macht doch keine KI die Beugungsunschärfe ungeschehen.
Mir scheint es wichtig, die Schwächen und Stärken eines Objektives genau zu kennen.
Wenn ein T/S-Objektiv von Canon offen eine bessere Bildqualität liefert, als das entsprechende Samyang, ist das noch nicht das Ende der Geschichte.
Das Samyang lässt sich ein wenig stärker abblenden ohne unbrauchbare Beugungsunschärfe zu liefern.
Natürlich kann man von einem schweren großen Cine-Objektiv für 20k€ mehr erwarten, als von einem AF-Fotoobjektiv.
Aber das Fotoobjektiv ist leichter, kompakter und bietet einen AF-Motor.
Stärken und Schwächen.
Antwort von TheBubble:
cantsin hat geschrieben:
Die zusätzlichen Details, die man z.B. im Gesicht des Mannes sieht, sind von der Software auf der Basis ihres Trainingssets heuristisch rekonstruiert bzw. hinzuerfunden.
Da ist doch kein erkennbarer oder gar praxisrelevanter Unterschied. Etwas rauschärmer, andere Farben und im Gesicht der Frau ist der graue Fleck weg, aber sonst ist es doch auch nicht grundsätzlich besser sondern einfach nur etwas anders.
Antwort von cantsin:
TheBubble hat geschrieben:
cantsin hat geschrieben:
Die zusätzlichen Details, die man z.B. im Gesicht des Mannes sieht, sind von der Software auf der Basis ihres Trainingssets heuristisch rekonstruiert bzw. hinzuerfunden.
Da ist doch kein erkennbarer oder gar praxisrelevanter Unterschied. Etwas rauschärmer, andere Farben und im Gesicht der Frau ist der graue Fleck weg, aber sonst ist es doch auch nicht grundsätzlich besser sondern einfach nur etwas anders.
Sieh mal genau hin, und achte mal nur auf die Augen/Brillenpartie:
debayering-vergleich.png
Noch drei weitere Ausschnitte aus demselben Foto:
debayering-vergleich-2.png
debayering-vergleich-3.png
debayering-vergleich-4.png
An der Mauer unten sieht man gut, wie der KI-machine learning-Debayering-Algorithmus Texturen hinzuerfindet, die die Optik der Kamera nicht mehr aufgelöst hat.
Die Bilder rechts sehen so aus, als ob sie mit einem höherauflösenden Objektiv aufgenommen worden wären - wobei der KI-Debayerings-Algorithmus keine simple Kantenaufsteilung macht (wie klassische Nachschärfungsalgorithmen), sondern Texturrekonstruktion.
EDIT:
Und hier noch ein besonders deutliches Beispiel, aus demselben Foto:
debayering-vergleich-5.png
Das ist sozusagen KI-gepimpte Zeiss-Optik-Simulation bei einem der anspruchslosesten Kitzooms aller Spiegelloskameras...
Hier noch die vollständigen Bilder:
DSC_6775-dt.jpg
klassisch debayert
DSC_6775-dxo-lq.jpg
DxO Deep Prime XD
Antwort von TheBubble:
cantsin hat geschrieben:
Sieh mal genau hin, und achte mal nur auf die Augen/Brillenpartie:
debayering-vergleich.png
Noch drei weitere Ausschnitte aus demselben Foto:
debayering-vergleich-2.png
debayering-vergleich-3.png
debayering-vergleich-4.png
Ich habe mir die Beispiele noch einmal genau angesehen und leider bleibt es bei meinem Eindruck, dass die Unterschiede gering sind. Die zweite Variante verwendet offensichtlich an anderes Interpolationsverfahren, welches Kanten besser erhält und weniger Farbsäume produziert - wobei es natürlich auch möglich ist, dass das zweite Verfahren die Farbränder unterdrückt oder es sich sogar um tatsächlich vorhandene CA handelt, die eigentlich nach der Rekonstruktion da sein sollten.
Auch scheint etwas künstliche Schärfe spendiert worden zu sein, was man u.a. am Übergang der Backe zum Hintergrund sieht, und der Kontrast ist ein klein wenig höher.
Ja, man kann sagen, das Ergebnis ist für die gezeigten Beispiele besser. Der Unterschied ist aber gering.
cantsin hat geschrieben:
An der Mauer unten sieht man gut, wie der KI-machine learning-Debayering-Algorithmus Texturen hinzuerfindet, die die Optik der Kamera nicht mehr aufgelöst hat.
Ich sehe wenig (nichts?), was nicht auch in der ersten Variante prinzipiell da ist. Die Mauer ist auch wie die Treppe nur etwas besser aus dem Bayer-Muster hervorgeholt worden und wird kontrastreicher (schärfer) wiedergegeben. Beim Verkehrsschild sind die Farbsäume weg und die Mauer im Hintergrund ist weniger Verrauscht.
Wir dürfen beim Vergleich auch nicht vergessen, dass die erste Variante vielleicht auch nur ein Debayeringverfahren verwendet, welches die leichte Unschärfe erst erzeugt. Für ganz einfache Verfahren ist das z.B. typisch, während bessere Verfahren aus den gleichen Rohdaten deutlich schärfere Kanten produzieren können.
cantsin hat geschrieben:
Die Bilder rechts sehen so aus, als ob sie mit einem höherauflösenden Objektiv aufgenommen worden wären - wobei der KI-Debayerings-Algorithmus keine simple Kantenaufsteilung macht (wie klassische Nachschärfungsalgorithmen), sondern Texturrekonstruktion.
Spannend wird es, wenn man auf 200% vergrößern kann, ohne das 95% der Betrachter dies merken. Von neu eingefügten Details kann ich in den Beispielen leider noch nicht viel merken - wobei das auch durchaus etwas gutes ist, denn wer will nur noch Fotos, die nicht mehr die tatsächlichen Gegebenheiten abbilden?
Wenn Du keine Ausschnitte sondern die vollständigen Fotos nebeneinander ansiehst, vielleicht sogar verkleinert, um sie auf dem Monitor darstellen zu können, ist dann immer noch ein merklicher Unterschied vorhanden?
Rein subjektiv empfinde ich beim Vergleich der vollständigen Fotos das Ergebnis des ersten klassischen Verfahrens sogar als angenehmer. Das kann aber auch an der anderen (kühleren) Farbgebung liegen.
Was ich sagen will: Die Unterschiede müssten einfach stärker ausgeprägt sein, um wirklich jedem positiv aufzufallen.
Du schaust im Detail hin, viele hier im Forum tun es, ich tue es auch gerne. Vielen sind diese Kleinigkeiten aber offenbar völlig egal.
Sonst ist es unerklärlich, warum in Geschäften noch immer haufenweise DVDs, auch von aktuellen Filmen, angeboten und Internet-Fotos und -Videos am Telefon geschaut werden.
Antwort von Frank Glencairn:
TheBubble hat geschrieben:
.. denn wer will nur noch Fotos, die nicht mehr die tatsächlichen Gegebenheiten abbilden?
Die "Realität der tatsächlichen Gegebenheiten" ist sowieso nur relativ ;-)
Ich hatte kürzlich ne ganz interessante Diskussion, wo sich jemand über die Algorithmen in Handys beschwert hatte, und das da ja nicht mehr die Realität abgebildet wurde.
Auf meine Frage, wie es denn in Wirklichkeit ausgesehen hat, wurde ihm dann allerdings irgendwann mal klar, daß es in Wirklichkeit seine geliebten analogen Fotos waren, welche die erlebte Realität nicht abbilden konnten, und die verschmähten AI Fotos viel näher an dem dran waren, was er vor Ort mit seinen Augen gesehen hat.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
TheBubble hat geschrieben:
.. denn wer will nur noch Fotos, die nicht mehr die tatsächlichen Gegebenheiten abbilden?
Die "Realität der tatsächlichen Gegebenheiten" ist sowieso nur relativ ;-)
Ich hatte kürzlich ne ganz interessante Diskussion, wo sich jemand über die Algorithmen in Handys beschwert hatte, und das da ja nicht mehr die Realität abgebildet wurde.
Auf meine Frage, wie es denn in Wirklichkeit ausgesehen hat, wurde ihm dann allerdings irgendwann mal klar, daß es in Wirklichkeit seine geliebten analogen Fotos waren, welche die erlebte Realität nicht abbilden konnten, und die verschmähten AI Fotos viel näher an dem dran waren, was er vor Ort mit seinen Augen gesehen hat.
Es kommt darauf an, was man anstrebt.
Ist es der Blick aus dem Fenster oder der gelenkte Blick auf ein Detail?
Es braucht ja keine KI, um einen Bildeindruck und eine Bildwirkung zu erzeugen.
Brennweite, Blende, Kameraposition, Belichtungszeit, ... da gibt es reichlich Gestaltungsmöglichkeiten.
Und dann ist da noch die Kamerabewegung und die Kombinantion von Bildern beim Film.
Die Treppe erscheint nochmal steiler, wenn sie aus größerer Entfernung und höherer Position mit langer Brennweite fotografiert würde.
Tiefer und weitwinkliger von näher und tiefer ...
Dann ein langer Schwenk hinauf ...
T/S ...
Schärfeverlagerung bei tiefer Kamera mit Blick hinauf ...
Unzählige Variationsmöglichkeiten.
Dazu kommen dann noch die Objektiveigenschaften, die man gestalterisch einsetzen könnte.
Schließlich noch Post und KI.
Vor lauter KI-Diskussion sollte man nur nicht die anderen Gestaltungsmöglichkeiten vergessen.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Es kommt darauf an, was man anstrebt.
Ist es der Blick aus dem Fenster oder der gelenkte Blick auf ein Detail?
Darum ging's ja gar nicht, sondern ob die AI Algorithmen in Handys die Realität besser abbilden als analoge Fotos.
Antwort von soulbrother:
"Frank Glencairn" hat geschrieben:
... ob die AI Algorithmen in Handys die Realität besser abbilden ...
Bei dem Auszugstext musste ich echt schmunzeln... ;-)
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Es kommt darauf an, was man anstrebt.
Ist es der Blick aus dem Fenster oder der gelenkte Blick auf ein Detail?
Darum ging's ja gar nicht, sondern ob die AI Algorithmen in Handys die Realität besser abbilden als analoge Fotos.
Besser?
Es geht doch eher um den Unterschied, ob KI nun die Realität abändert - wie es jeder Kameramann auch tut - oder ob die KI eine neue Realität erschafft.
Wenn du eine Person aus 2m Entfernung mit 75mm bei t1,5 aufnimmst und den Fokus auf unendlich stellst, bringt dir keine KI die reale Person scharf zurück ins Bild.
Überstrahlen die Lensflares das Bild und verwaschen es vollkommen, macht keine KI daraus ein klares Abbild der Realität.
Es gibt nun einmal Abbildungsfehler, die irreversibel sind.
Umgekehrt jedoch eröffnen KI sehr viele Gestaltungsmöglichkeiten bei gutem Ausgangsmaterial.
Ist die Abbildung clean, neutral und bestmöglich belichtet, hat man die besten Voraussetungen für die Gestaltung in der Post.
Wenn ein Objektiv zu den Rändern hin 1 bis 2 Stops abdunkelt, belichtet man dort mit umgerechnet ISO 1600 oder gar ISO 3200, während man eigentlich ISO 800 für geringes Rauschen eingestellt hatte.
Auch eine noch so schlaue NR beseitigt dann das Problem nicht.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Besser?
Es geht doch eher um den Unterschied, ob KI nun die Realität abändert - wie es jeder Kameramann auch tut - oder ob die KI eine neue Realität erschafft.
Wer von uns beiden hat die Diskussion geführt?
Ich oder du? Ich sollte doch wissen um was es gegangen ist.
Nochmal, es ging darum ob ein Foto mit AI (Handy) oder mit Film die Realität besser abbildet.
Und da hat die AI nunmal eindeutig gewonnen.
Antwort von Bildlauf:
Ich neige dazu zu sagen, daß Vintage Objektive mehr Charakter haben als neue Objektive, aber eigentlich haben Vintage objektive nur einen anderen Charakter als neue Objektive.
Das Samyang 50mm 1.4 II hat zb einen "analogen" Charakter als ein modernes objektiv, während die Sigmas etwas straight wirken, aber das von den Sigmas ist auch ein Charakter irgendwie.
iasi hat geschrieben:
Für mich sind moderne AF dabei mittlerweile so weit, dass sie oft sicherer sind, als ein Focus Puller.
Also die AF´s sind wirklich gut. Die kriegen ziemlich viel hin.
Vielleicht könnte der zukünftige Job eins Fokuspullers auch werden, einen guten Autofokus/Lidar zu bedienen, durch Toucheingaben, Einstellungen vornehmen was zb Übergangsgeschwindigkeiten betrifft, dauernde Kontrolle, daß der Fokus sitzt und im Falle des Falles auch mal manuell fokussieren.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Besser?
Es geht doch eher um den Unterschied, ob KI nun die Realität abändert - wie es jeder Kameramann auch tut - oder ob die KI eine neue Realität erschafft.
Wer von uns beiden hat die Diskussion geführt?
Ich oder du? Ich sollte doch wissen um was es gegangen ist.
Nochmal, es ging darum ob ein Foto mit AI (Handy) oder mit Film die Realität besser abbildet.
Und da hat die AI nunmal eindeutig gewonnen.
Nein - hat sie nicht.
Du wirfst mal wieder nur deine Sprüche hin - Behauptungen wie "besser abbilden" ohne dass du irgendetwas begründest und belegst.
In einer Diskussion geht es nicht immer nur um deine hingeworfenen Floskeln. ;)
Antwort von iasi:
Bildlauf hat geschrieben:
Ich neige dazu zu sagen, daß Vintage Objektive mehr Charakter haben als neue Objektive, aber eigentlich haben Vintage objektive nur einen anderen Charakter als neue Objektive.
Das Samyang 50mm 1.4 II hat zb einen "analogen" Charakter als ein modernes objektiv, während die Sigmas etwas straight wirken, aber das von den Sigmas ist auch ein Charakter irgendwie.
Es gibt Objektive, die auf eine Abbildung abzielen, die möglichst clean ist.
Dann gibt es Objektive, die auf einen bestimmten Look abzielen - was sich daran zeigt, dass ein ganzes Set diesen Look liefert.
Dann gibt es Objektive, die sich durch Abbildungsschwächen auszeichnen. Ich hatte mal bei Snyders Rebel Moon reingesehen und sofort wieder sein altes 50mm erkannt, das er gerne einsetzt.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Nein - hat sie nicht.
Du wirfst mal wieder nur deine Sprüche hin - Behauptungen wie "besser abbilden" ohne dass du irgendetwas begründest und belegst.
Was gibt es denn da zu begründen - das ist doch völlig offensichtlich.
Jeder der schon mal fotografiert hat weiß, das Film kaum in der Lage ist die Realität - auch nur ansatzweise - so abzubilden, wie wir sie sehen.
Müssen wir dir hier jetzt allen ernstes den Unterschied zwischen dem DR von Film, und dem des menschlichen Sehens erklären?
Antwort von Bildlauf:
iasi hat geschrieben:
Es gibt Objektive, die auf eine Abbildung abzielen, die möglichst clean ist.
Dann wären in der günstigen Preislage (Prosumer Objektive) die Sigmas ganz gut, die halte ich für recht clean und am "normalsten" vom Look her.
Wiederum weiß ich nicht wie man den Look eines Vintageobjektivs auf ein Sigma adaptieren will.
Genauso wie cinematch, daß macht ja vielleicht nur angenähert die Farben zb einer Canon, cinematch ist für mich eher eine spezialisierte Lut, macht aber keine Lookveränderung in dem Sinne.
Also angenommen ich filme mit S5II und einem Sigma, aber ich will in Post Canon Farben und den Look eines alten Pentax M oder nFD oder was auch immer, wie soll man das bewerkstelligen, daß es wirklich so kommt?
Kann es mir nur schwer vorstellen.
Weil Objektiv Look ist irgendwie ewas eingebranntes, sehr individuelles, denke nicht reproduzierbar (zum jetzigen Zeitpunkt, Frage KI, was die irgendwann mal kann).
nFD Vergleich zu einem Sigma als Beispiel, sieht halt total anders aus vom Bildeindruck her, was Plastizität, Beschaffenheit, Bildeindruck und eben "Look" etc. betrifft.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Nein - hat sie nicht.
Du wirfst mal wieder nur deine Sprüche hin - Behauptungen wie "besser abbilden" ohne dass du irgendetwas begründest und belegst.
Was gibt es denn da zu begründen - das ist doch völlig offensichtlich.
Jeder der schon mal fotografiert hat weiß, das Film kaum in der Lage ist die Realität - auch nur ansatzweise - so abzubilden, wie wir sie sehen.
Müssen wir dir hier jetzt allen ernstes den Unterschied zwischen dem DR von Film, und dem des menschlichen Sehens erklären?
Ich habe dazu oben schon Begründungen geliefert.
Zudem soll Film nicht das menschliche Sehen imitieren, sondern den Blick aus dem Fenster bieten.
Allein schon deshalb kann keine KI die Realität wirklich "besser abbilden".
Hinzu kommt, dass das, was vor der Kamera ist, in sehr vielen unterschiedlichen Variationen von der Kamera abgebildet werden kann.
Da können z.B. dann alle Beteiligten ganz stolz auf ihren ausgeleuteten Garten schauen, doch am Ende sieht man so gut wie nichts davon im Bild, denn die Kamera fängt den Garten nicht so ein, wie die Crew ihn sieht.
Da gibt sich die Ausstattung so viel Mühe und baut im Hintergrund kleinste Details ins Set ein -
und die Kamera rückt den Hintergrund und die Details mit WW in weite Ferne
oder alles verschwimmt in der Unschärfe
oder durch lange Brennweite verengt sich der Hintergrund auf einen Bereich, in dem sich die schönen Details nicht befinden
oder eine extrem Tiefe Kameraposition zeigt im Hintergrund nur den Himmel :)
...
Antwort von iasi:
Bildlauf hat geschrieben:
iasi hat geschrieben:
Es gibt Objektive, die auf eine Abbildung abzielen, die möglichst clean ist.
Dann wären in der günstigen Preislage (Prosumer Objektive) die Sigmas ganz gut, die halte ich für recht clean und am "normalsten" vom Look her.
Wiederum weiß ich nicht wie man den Look eines Vintageobjektivs auf ein Sigma adaptieren will.
Genauso wie cinematch, daß macht ja vielleicht nur angenähert die Farben zb einer Canon, cinematch ist für mich eher eine spezialisierte Lut, macht aber keine Lookveränderung in dem Sinne.
Also angenommen ich filme mit S5II und einem Sigma, aber ich will in Post Canon Farben und den Look eines alten Pentax M oder nFD oder was auch immer, wie soll man das bewerkstelligen, daß es wirklich so kommt?
Kann es mir nur schwer vorstellen.
Weil Objektiv Look ist irgendwie ewas eingebranntes, sehr individuelles, denke nicht reproduzierbar (zum jetzigen Zeitpunkt, Frage KI, was die irgendwann mal kann).
nFD Vergleich zu einem Sigma als Beispiel, sieht halt total anders aus vom Bildeindruck her, was Plastizität, Beschaffenheit, Bildeindruck und eben "Look" etc. betrifft.
Ich hab gestern eine Low Light Test mit meinem Sigma 50 Art gemacht und festgestellt, dass durch die Scheinwerfer eines entgegenkommenden Autos Flares am Nachhimmel entstanden - nur geringe, denn das Sigma besser als so manche andere Linse, aber die Flares sind im Bild. Vielleicht ließe es sich fixen.
Aber lieber wäre mir ein Bild ohne diese Flares, denn in der Post kann ich ganz gezielt und kontrolliert Flares und so ziemlich jeden gewünschten Look erzeugen. Das Sigma aber erzeugt diese Flares für mich unkontrollierbar - wenn auch nur geringe.
Nehmen wir mal das Beispiel Randabschattung:
Kein Problem das cleane Bild beim Grading zu den Ecken dunkler auslaufen zu lassen.
Umgekehrt erzeugt ein Aufhellen einer Aufnahme mit starkem Randabfall ein verstärktes Rauschen.
Antwort von Bildlauf:
iasi hat geschrieben:
Ich hab gestern eine Low Light Test mit meinem Sigma 50 Art gemacht und festgestellt, dass durch die Scheinwerfer eines entgegenkommenden Autos Flares am Nachhimmel entstanden - nur geringe, denn das Sigma besser als so manche andere Linse, aber die Flares sind im Bild. Vielleicht ließe es sich fixen.
Aber lieber wäre mir ein Bild ohne diese Flares, denn in der Post kann ich ganz gezielt und kontrolliert Flares und so ziemlich jeden gewünschten Look erzeugen. Das Sigma aber erzeugt diese Flares für mich unkontrollierbar - wenn auch nur geringe.
Nehmen wir mal das Beispiel Randabschattung:
Kein Problem das cleane Bild beim Grading zu den Ecken dunkler auslaufen zu lassen.
Umgekehrt erzeugt ein Aufhellen einer Aufnahme mit starkem Randabfall ein verstärktes Rauschen.
Einmal den Ansatz technisch betrachtet das sauberste Bild zu haben (geringste Flares, geringste Vignette, geringste horizontale Krümmung etc.) und diese Eigenschaften dann gezielt gesteuert in Post hinzuzufügen.
Aber einen Look im Sinne von Look (zb eines Vintage Objektivs oder eines Cooke Objektives), Look als was nicht richtig greifbares/bescheibbares kann man nachträglich glaube ich nicht erzeugen, da ja auch der gewisse eigene Look des Objektivs mit dem gefilmt wurde schon eingebrannt ist.
Deshalb wäre es dann wohl eher angesagt mit dem Objektiv zu filmen, daß den Look (zb Cooke, Vintage etc.) macht, den man will und dann eben zum Beispiel stärkere Lensflares in Kauf zunehmen oder zu reduzieren (Perspektive, Mattebox) beim Drehen.
Oder man entscheidet sich für technisch sauber, muss dann aber auf "Look" verzichten, den man wollte.
Antwort von Bildlauf:
iasi hat geschrieben:
Ich hab gestern eine Low Light Test mit meinem Sigma 50 Art gemacht und festgestellt, dass durch die Scheinwerfer eines entgegenkommenden Autos Flares am Nachhimmel entstanden
Bei dem Sigma 50mm, waren das Flares oder eher Ghosting?
Flares können ja hübsch sein, sieht man ja auch in Filmen (legitimes Mittel denke ich), Ghosting hingegen etwas nervig, so tanzende Punkte.
Ich hatte damals bei der GH5 zb beim 42,5mm 1.2 Summilux starkes Gosting, unbrauchbar bei Lichtquellen (nachts).
Serienschwankung womöglich als Grund.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Zudem soll Film nicht das menschliche Sehen imitieren, sondern den Blick aus dem Fenster bieten.
Das ist mit Abstand der lächerlichste Satz den ich seit langem von dir gehört habe.
Hast du überhaupt ne Ahnung wovon wir hier reden?
Antwort von iasi:
Bildlauf hat geschrieben:
iasi hat geschrieben:
Ich hab gestern eine Low Light Test mit meinem Sigma 50 Art gemacht und festgestellt, dass durch die Scheinwerfer eines entgegenkommenden Autos Flares am Nachhimmel entstanden - nur geringe, denn das Sigma besser als so manche andere Linse, aber die Flares sind im Bild. Vielleicht ließe es sich fixen.
Aber lieber wäre mir ein Bild ohne diese Flares, denn in der Post kann ich ganz gezielt und kontrolliert Flares und so ziemlich jeden gewünschten Look erzeugen. Das Sigma aber erzeugt diese Flares für mich unkontrollierbar - wenn auch nur geringe.
Nehmen wir mal das Beispiel Randabschattung:
Kein Problem das cleane Bild beim Grading zu den Ecken dunkler auslaufen zu lassen.
Umgekehrt erzeugt ein Aufhellen einer Aufnahme mit starkem Randabfall ein verstärktes Rauschen.
Einmal den Ansatz technisch betrachtet das sauberste Bild zu haben (geringste Flares, geringste Vignette, geringste horizontale Krümmung etc.) und diese Eigenschaften dann gezielt gesteuert in Post hinzuzufügen.
Aber einen Look im Sinne von Look (zb eines Vintage Objektivs oder eines Cooke Objektives), Look als was nicht richtig greifbares/bescheibbares kann man nachträglich glaube ich nicht erzeugen, da ja auch der gewisse eigene Look des Objektivs mit dem gefilmt wurde schon eingebrannt ist.
Deshalb wäre es dann wohl eher angesagt mit dem Objektiv zu filmen, daß den Look (zb Cooke, Vintage etc.) macht, den man will und dann eben zum Beispiel stärkere Lensflares in Kauf zunehmen oder zu reduzieren (Perspektive, Mattebox) beim Drehen.
Oder man entscheidet sich für technisch sauber, muss dann aber auf "Look" verzichten, den man wollte.
Ja - das ist dann eine Frage der Entscheidung:
Gelingt es in der Post das gewünschte Ergebnis zu erzielen oder möchte man das spezielle Bild, das ein bestimmtes Objektiv liefert.
Ich hab eine 135mm/f2-Scherbe, deren Bild man nur schwerlich in der Post nachahmen könnte - jedenfalls kann ich das nicht. Braucht es genau diese Unruhe, die das Objektiv in der Unschärfe erzeugt, ist es der direkteste Weg, es einzusetzen.
Ich bevorzuge die Kontrolle und die Ruhe der Post. Auf das Vorschaubild der Kamera will ich mich nicht verlassen.
Antwort von iasi:
Bildlauf hat geschrieben:
iasi hat geschrieben:
Ich hab gestern eine Low Light Test mit meinem Sigma 50 Art gemacht und festgestellt, dass durch die Scheinwerfer eines entgegenkommenden Autos Flares am Nachhimmel entstanden
Bei dem Sigma 50mm, waren das Flares oder eher Ghosting?
Flares können ja hübsch sein, sieht man ja auch in Filmen (legitimes Mittel denke ich), Ghosting hingegen etwas nervig, so tanzende Punkte.
Ich hatte damals bei der GH5 zb beim 42,5mm 1.2 Summilux starkes Gosting, unbrauchbar bei Lichtquellen (nachts).
Serienschwankung womöglich als Grund.
Ghosting gehört für mein Begriffsverständnis auch zu den Flares - aber das sind nur Begrifflichkeiten.
Sie waren beim Sigma jedoch so minimal, dass nur aufgrund der Bewegung des Autos/Lichtquellen sie auf dem dunklen Himmel wahrnehmbar waren.
Wobei ich mal mit meinem alten Klassiker Pentax Takumar 50/1.4 bei Offenblende alles aus der Kamera holen musste, da das Licht - anders als zugesagt - eigentlich nicht vorhanden war. Eine Glühbirne für einen Hof. Licht und Kamera bewegten sich nicht - ich hatte 360°eingestellt. Keine Flares - und anders als erwartet, konnte man sogar etwas auf den Bildern erkennen. :)
Wenn ich bedenke, dass es heute Kameras mit Dual-ISO gibt, die mehr als 3 Blendenstufen empfindlicher sind, und dazu noch Objektive, die selbst bei t1.1 sehr gute Abbildungsleistung bieten ...
Eine Zigarette leuchtete auf wie eine Taschenlampe, wenn daran gezogen wurde - bei f1.4 und nativen ISO320. Heute wäre das Bild 20mal heller.
Antwort von Darth Schneider:
Ich persönlich finde der Charakter von Objektiven wird vielfach voll überbewertet.
Das interessante passiert ja eh vor dem Objektiv und der Charakter entsteht vor allem mit Licht/Stimmung, Location, (mit interessanten menschlichen Charakteren) coolen Dialogen, Kostümen, Props, und den passenden Farben im Frame….
Aber wenn ich mir das leisten könnte und einen Fokus Puller hätte, ;)))
würde ich natürlich schöne Anamorphoten mit sehr viel Charakter immer bevorzugen….
Gruss Boris
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Zudem soll Film nicht das menschliche Sehen imitieren, sondern den Blick aus dem Fenster bieten.
Das ist mit Abstand der lächerlichste Satz den ich seit langem von dir gehört habe.
Hast du überhaupt ne Ahnung wovon wir hier reden?
Oh je - da ist einem offensichtlich nicht bewußt, dass die Zuschauer auf ein Bild auf einer Leinwand blicken.
Und dabei erfassen sie nie das komplette Bild sondern tasten - wie beim Blick durch ein Fenster - dieses Bild ab.
Geh mal in ein Museum und betrachte ein Gemälde - vielleicht kommst du dann dahinter, wenn du dich dabei mal selbst reflektierst.
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Ich persönlich finde der Charakter von Objektiven wird vielfach voll überbewertet.
Das interessante passiert ja eh vor dem Objektiv und der Charakter entsteht vor allem mit Licht/Stimmung, Location, (mit interessanten menschlichen Charakteren) coolen Dialogen, Kostümen, Props, und den passenden Farben im Frame….
Nein. Das stimmt so schlicht und einfach nicht.
Wie die Kamera das Motiv abbildet, ist entscheidend.
Location? Kostüme? Props? Ausstattung?
Wo ist das alles hier?
zum Bild
"Darth Schneider" hat geschrieben:
Aber wenn ich mir das leisten könnte und einen Fokus Puller hätte, ;)))
würde ich natürlich schöne Anamorphoten mit sehr viel Charakter immer bevorzugen….
Gruss Boris
Was hat denn ein Fokus Puller mit Anamorphoten zu tun?
Du kannst auch einfach so weit abblenden, dass alles Bildwichtige im Schärfentiefenbereich ist.
Antwort von Darth Schneider:
@iasi
Klar ein schönes Model ganz alleine, beziehungsweise ein Mensch mit Ausstrahlung kann auf einem Foto so einiges bewirken…
Aber so ganz ohne motivierte Bewegung , ohne Motivation, Dialog, Story, auch ohne sichtbare Location mit passenden Props, und so weiter. Ist es gar kein Film….Nicht mal ein Frame…
Beziehungsweise auch das Foto, sagt nicht viel…
Und ihre Nase lenkt mich etwas ab, Pickel, roter Fleck, auch die Haut, und die Fältchen.
KI generiert? Das sieht für mich so aus….
Oder liegt der Fehler tatsächlich bei der Maske oder beim Licht/beim Fotografen…?
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Und ihre Nase lenkt mich etwas ab, Pickel, roter Fleck, oder was ?…;)))
KI generiert ?
Oder liegt der Fehler bei der Maske oder beim Licht/beim Fotografen…?
Bei den Betrachter.... so manche Professoren können sich da schon einiges einbilden.
Antwort von Darth Schneider:
Die Frau sieht gar nicht echt aus für mich.
Entweder KI, oder jemand hat es mit Fotoshop/Lightroom masslos übertrieben…
Punkt !
Wenn das Foto/das Model für dich echt beziehungsweise nur annähernd natürlich ausschaut kauf dir eine Brille..D
Und roki, deine langsam peinlichen Professor Sprüche habe ich echt so was von satt…
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Wenn das Foto für dich echt ausschaut kauf dir eine Brille..D
Nö, wieso? Als Ganzes betrachtet, ein schönes Foto.
Antwort von Darth Schneider:
@roki
Kannst du eigentlich wirklich lesen ?
Ich schrieb doch gar nicht vom Foto ansich, und schon gar nicht davon ob es schön ist oder nicht…
Einfach zu vieles was unnatürlich wirkt an der Frau..
Davon schrieb ich.
Schau mal genau…
Falls es überhaupt ein Foto aus einer Kamera ist.:)
Was ich nicht glaube.
Und wenn doch, in Post für mich verhunzt.
Ende der Debatte, gar keine Lust mit dir zu diskutieren…
Gruss Boris
Antwort von Bildlauf:
@iasi
Ich würde ungern komplett in Post das Bild entstehen lassen, aber ist wohl eine Frage der Arbeitsweise oder wie man es mag.
Gosting und Flares sind ähnliche Sparte, aber ein Unterschied doch.
Ghostings sind diese grünen Punkte wie Laserpointer die rumhuschen und die finde ich nervig bzw. unprofessionell.
Flares haben eine gewisse Ästhetik, wenn auch man dort nicht übertreiben sollte.
Wegen Abblenden ist so eine Sache, man braucht insgesamt viel mehr an Licht, wenn man es denn nicht über die ISO regelt. Also entweder hat man mehr Rauschen oder mehr Kosten/Aufwand für Licht.
Und bisschen Hintergrund unscharf wäre doch schon nett. Bin wirklich kein Hintergrund-mega-unscharf-Fanatiker, im Gegenteil, aber zumindest ein bisschen ist schon wichtig finde ich (Natürlich je nach Motiv).
Zwar mag ich 1.4er Objektive, aber mehr, damit ich einfach die Option habe für Offenblende, entweder für mehr Licht oder zum Rumspielen mit klitzekleinen Schärfebereichen. Ansonsten blende ich auch gerne (etwas) ab.
Antwort von Bildlauf:
"Darth Schneider" hat geschrieben:
Ich persönlich finde der Charakter von Objektiven wird vielfach voll überbewertet.
Anderes Objektiv macht aber schon was aus.
Keins gleicht dem anderen.
Antwort von Darth Schneider:
Klar, und keine Kamera gleicht der anderen,
aber für mich macht das zumindest was die Gläser betrifft keinen nennenswerten Unterschied…
Hauptsache die Gläser bilden gut und schön ab und sind haptisch gut zu bedienen…
Ich mach das aber auch nicht professionell.
Und mal ehrlich, Charakter bei Objektiven, wird öfters, gerade bei der Consumer Zielgruppe mit Bildfehlern verwechselt.
Dessen sind sich die Objektiv Hersteller sehr wahrscheinlich bewusst…
Gruss Boris
Antwort von iasi:
Bildlauf hat geschrieben:
@iasi
Ich würde ungern komplett in Post das Bild entstehen lassen, aber ist wohl eine Frage der Arbeitsweise oder wie man es mag.
Gosting und Flares sind ähnliche Sparte, aber ein Unterschied doch.
Ghostings sind diese grünen Punkte wie Laserpointer die rumhuschen und die finde ich nervig bzw. unprofessionell.
Flares haben eine gewisse Ästhetik, wenn auch man dort nicht übertreiben sollte.
Wegen Abblenden ist so eine Sache, man braucht insgesamt viel mehr an Licht, wenn man es denn nicht über die ISO regelt. Also entweder hat man mehr Rauschen oder mehr Kosten/Aufwand für Licht.
Und bisschen Hintergrund unscharf wäre doch schon nett. Bin wirklich kein Hintergrund-mega-unscharf-Fanatiker, im Gegenteil, aber zumindest ein bisschen ist schon wichtig finde ich (Natürlich je nach Motiv).
Zwar mag ich 1.4er Objektive, aber mehr, damit ich einfach die Option habe für Offenblende, entweder für mehr Licht oder zum Rumspielen mit klitzekleinen Schärfebereichen. Ansonsten blende ich auch gerne (etwas) ab.
Nahaufnahmen bei t1.5 mit Dollyranfahrt sind die Hölle, wenn sich die Darsteller auch noch fleißig bewegen. :)
Dual-ISO ist eine enorme Verbesserung, was das von dir beschriebene Problem mit dem Abblenden betrifft.
Wenn man statt Offenblende 2 oder gar 3 stops abblenden kann, nehme ich gerne ein wenig mehr Rauschen und etwas weniger DR in Kauf, denn wenn der Focus auch nur kurz nicht sitzt, stört mich das weit mehr.
Zudem verbessert sich die Bildqualität - inkl. Randabschattung, deren Ausgleich zu verstärktem Rauschen führt.
Selbst eine sehr gute Fotolinse wie das Nikon 58/0.95 zeigt
Vignetting -2 EV
Das Sigma 50/1.4 kommt auf
Vignetting -1.6 EV
Ab f2.8 ist das Problem verschwunden.
Antwort von Frank Glencairn:
iasi hat geschrieben:
"Frank Glencairn" hat geschrieben:
Hast du überhaupt ne Ahnung wovon wir hier reden?
Oh je - da ist einem offensichtlich nicht bewußt, dass die Zuschauer auf ein Bild auf einer Leinwand blicken.
Und dabei erfassen sie nie das komplette Bild sondern tasten - wie beim Blick durch ein Fenster - dieses Bild ab.
Geh mal in ein Museum und betrachte ein Gemälde - vielleicht kommst du dann dahinter, wenn du dich dabei mal selbst reflektierst.
Okay, du hast also keine Ahnung wovon wir hier reden, und faselst weiter von Leinwänden und Fenstern - dachte ich mit schon.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Oh je - da ist einem offensichtlich nicht bewußt, dass die Zuschauer auf ein Bild auf einer Leinwand blicken.
Und dabei erfassen sie nie das komplette Bild sondern tasten - wie beim Blick durch ein Fenster - dieses Bild ab.
Geh mal in ein Museum und betrachte ein Gemälde - vielleicht kommst du dann dahinter, wenn du dich dabei mal selbst reflektierst.
Okay, du hast also keine Ahnung wovon wir hier reden, und faselst weiter von Leinwänden und Fenstern - dachte ich mit schon.
Dass dir so etwas grundlegendes nicht klar ist, gibt schon zu denken.
Es erklärt natürlich auch deine ständigen Floskeln und deine Bemerkungen darüber, wovon andere "Ahnung" haben.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Dass dir so etwas grundlegendes nicht klar ist, gibt schon zu denken.
Es ist mir klar, aber halt einfach nicht das Thema.
Zum dritten mal: es geht um Handys mit AI vs. Film.
Du redest die ganze Zeit ständig an diesem Thema vorbei, und kommst stattdessen ständig mit Fenstern, Brennweite, Kameraposition, Kamerabewegung etc.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Dass dir so etwas grundlegendes nicht klar ist, gibt schon zu denken.
Es ist mir klar, aber halt einfach nicht das Thema.
Zum dritten mal: es geht um Handys mit AI vs. Film.
Du redest die ganze Zeit ständig an diesem Thema vorbei, und kommst stattdessen ständig mit Fenstern, Brennweite, Kameraposition, Kamerabewegung etc.
Es geht hier um
Linsen (clean lenses und Technik).
Daraus entwickelte sich dann die Diskussion über Bildverbesserungen durch KI.
Nur weil du mit Handys angefangen hast, bedeutet es noch lange nicht, dass das nun das Thema ist - weil´s auch schlicht am Thema vorbei geht.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Es geht hier um Linsen (clean lenses und Technik).
Daraus entwickelte sich dann die Diskussion über Bildverbesserungen durch KI.
Nur weil du mit Handys angefangen hast, bedeutet es noch lange nicht, dass das nun das Thema ist - weil´s auch schlicht am Thema vorbei geht.
Quatsch.
Es ging über zig Posts (Pille/Cantsin) schon um AI, und als Bubble dann wissen wollte
.. wer will nur noch Fotos, die nicht mehr die tatsächlichen Gegebenheiten abbilden?
hab ich darauf die Frage gestellt (und gleichzeitig beantwortet) ob AI das nicht sowieso besser kann.
Und als Antwort auf meinen Beitrag zum Thema AI vs. analog Film
Die "Realität der tatsächlichen Gegebenheiten" ist sowieso nur relativ ;-)
Ich hatte kürzlich ne ganz interessante Diskussion, wo sich jemand über die Algorithmen in Handys beschwert hatte, und das da ja nicht mehr die Realität abgebildet wurde.
Auf meine Frage, wie es denn in Wirklichkeit ausgesehen hat, wurde ihm dann allerdings irgendwann mal klar, daß es in Wirklichkeit seine geliebten analogen Fotos waren, welche die erlebte Realität nicht abbilden konnten, und die verschmähten AI Fotos viel näher an dem dran waren, was er vor Ort mit seinen Augen gesehen hat.
... hast du dann mit deinem Fenster, Treppen, Kameraposition etc Blödsinn auf meine Post geantwortet.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Es geht hier um Linsen (clean lenses und Technik).
Daraus entwickelte sich dann die Diskussion über Bildverbesserungen durch KI.
Nur weil du mit Handys angefangen hast, bedeutet es noch lange nicht, dass das nun das Thema ist - weil´s auch schlicht am Thema vorbei geht.
Quatsch.
Es ging über zig Posts (Pille/Cantsin) schon um AI, und als Bubble dann wissen wollte
Es ging nicht um "Handy AI", auf dem nur du ständig herumreitest und am eigentlichen Thema schlicht vorbeigeht.
"Frank Glencairn" hat geschrieben:
.. wer will nur noch Fotos, die nicht mehr die tatsächlichen Gegebenheiten abbilden?
hab ich darauf die Frage gestellt (und gleichzeitig beantwortet) ob AI das nicht sowieso besser kann.
Und als Antwort auf meinen Beitrag zum Thema AI vs. analog Film
Die "Realität der tatsächlichen Gegebenheiten" ist sowieso nur relativ ;-)
Ich hatte kürzlich ne ganz interessante Diskussion, wo sich jemand über die Algorithmen in Handys beschwert hatte, und das da ja nicht mehr die Realität abgebildet wurde.
Es geht und ging hier um Objektive und die Frage, ob KI in der Lage ist, Objektiv-Charakter nachzubilden und daher Objektive mit Charakter obsolet werden.
"Frank Glencairn" hat geschrieben:
Auf meine Frage, wie es denn in Wirklichkeit ausgesehen hat, wurde ihm dann allerdings irgendwann mal klar, daß es in Wirklichkeit seine geliebten analogen Fotos waren, welche die erlebte Realität nicht abbilden konnten, und die verschmähten AI Fotos viel näher an dem dran waren, was er vor Ort mit seinen Augen gesehen hat.
... hast du dann mit deinem Fenster, Treppen, Kameraposition etc Blödsinn auf meine Post geantwortet.
Zunächst hatte ich auf deine "Realität abbilden" geantwortet.
Dann kam dein Nachahmen von menschlichem Sehen.
Beides ist Blödsinn.
Kein Maler, Fotograf oder Kameramann bildet die Realität ab.
Es gibt natürlich Leute, die den Quatsch glauben, das Bild würde vor der Kamera entstehen.
Der Begriff "Subjektive" ist ja auch so eine Sache. Mancher denkt, er käme dem menschlichen Sehen dadurch näher, dass er ein handgeschütteltes Bild abliefert. :)
Dabei setzen wir dem Zuschauer nur Bilder vor, die er betrachtet.
Jemand der den nach deinen Worten "Blödsinn" über den Blick aus dem Fenster verbreitet und daher clean lenses bevorzugt, ist übrigens Roger Deakins. Aber was weiß der denn schon. ;)
Antwort von Frank Glencairn:
iasi hat geschrieben:
Zunächst hatte ich auf deine "Realität abbilden" geantwortet.
Dann kam dein Nachahmen von menschlichem Sehen.
Beides ist Blödsinn.
Kein Maler, Fotograf oder Kameramann bildet die Realität ab.
Es gibt natürlich Leute, die den Quatsch glauben, das Bild würde vor der Kamera entstehen.
Der Begriff "Subjektive" ist ja auch so eine Sache. Mancher denkt, er käme dem menschlichen Sehen dadurch näher, dass er ein handgeschütteltes Bild abliefert. :)
Dabei setzen wir dem Zuschauer nur Bilder vor, die er betrachtet.
Jemand der den nach deinen Worten "Blödsinn" über den Blick aus dem Fenster verbreitet und daher clean lenses bevorzugt, ist übrigens Roger Deakins. Aber was weiß der denn schon. ;)
Okay, du schnallst es offensichtlich einfach nicht - is ja auch egal.
Und was Deakins bevorzugt oder nicht ist mir völlig schnuppe - ich bin nicht an Zeugs interessiert, das jemand seinem Idol nachplappert, nur weil er denkt er könne seine Argumentation dadurch irgendwie aufbessern.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Zunächst hatte ich auf deine "Realität abbilden" geantwortet.
Dann kam dein Nachahmen von menschlichem Sehen.
Beides ist Blödsinn.
Kein Maler, Fotograf oder Kameramann bildet die Realität ab.
Es gibt natürlich Leute, die den Quatsch glauben, das Bild würde vor der Kamera entstehen.
Der Begriff "Subjektive" ist ja auch so eine Sache. Mancher denkt, er käme dem menschlichen Sehen dadurch näher, dass er ein handgeschütteltes Bild abliefert. :)
Dabei setzen wir dem Zuschauer nur Bilder vor, die er betrachtet.
Jemand der den nach deinen Worten "Blödsinn" über den Blick aus dem Fenster verbreitet und daher clean lenses bevorzugt, ist übrigens Roger Deakins. Aber was weiß der denn schon. ;)
Okay, du schnallst es offensichtlich einfach nicht - is ja auch egal.
Und was Deakins bevorzugt oder nicht ist mir völlig schnuppe - ich bin nicht an Zeugs interessiert, das jemand seinem Idol nachplappert, nur weil er denkt er könne seine Argumentation dadurch irgendwie aufbessern.
Natürlich - alles was andere sagen, ist Quatsch sobald es dir nicht ins Konzept passt.
Und außer dir schnallt es eh niemand und selbst jemand wie Deakins hat keine Ahnung. :)
Man muss einfach an die Sprüche glauben, die du von dir gibst, denn jemand wie du lässt sich nicht mehr zu Argumenten herab. ;)
|
Antwort von Frank Glencairn:
iasi hat geschrieben:
.. alles was andere sagen, ist Quatsch sobald es dir nicht ins Konzept passt.
Man muss einfach an die Sprüche glauben, die du von dir gibst, denn jemand wie du lässt sich nicht mehr zu Argumenten herab. ;)
Wie wir hier alle wissen, ist das mit dir auch ziemlich aussichtslos weil:
.. alles was andere sagen, ist Quatsch sobald es dir nicht ins Konzept passt.
;D