Das sehe ich auch so. Schwächen als "Charakter" schön oder gar wegzureden, ist ja leider in Mode.Frank Glencairn hat geschrieben: ↑Di 20 Aug, 2024 12:11 Ich finde die Bezeichnung "Charakter" (für das was eigentlich Abbildungsfehler sind) in dem Zusammenhang sowieso immer ein bisschen schräg.
Es wäre aber wohl schon gut, wenn das Ausgangsmaterial für die KI möglichst gut wäre.cantsin hat geschrieben: ↑Di 20 Aug, 2024 12:53 Bin mir ziemlich sicher, dass wir mit mehr KI-gestützter Software in der Postproduktion in Zukunft folgenden Workflow haben werden:
Objektiv -> KI-Rausrechnung von Objektivfehlern -> sauberes Bild -> KI-Reinrechnung von "Charakter"
Für Color Grading haben wir ja bereits äquivalente Workflows (Raw/Log -> Linearisierung & Neutralisierung -> Grading/Look), und so, wie man sich heute z.B. schon eine Kodachrome 64-Emulation bauen kann, wird man sich in der Zukunft wahrscheinlich auch eine Cooke S4-Emulation bauen können.
Genau das ist aber, was generative KI tut und worin sie über klassische (Denoising-, Entzerrungs- etc.) Algorithmen hinausgeht...
Es spricht aber prinzipiell nichts dagegen, Dir die Bildfehler bzw. Objektivcharakteristiken auch per generativer KI nachträglich als Filter einzubauen (genauso, wie z.B. eine KI-basierte analoge Filmsimulation).pillepalle hat geschrieben: ↑Di 20 Aug, 2024 13:54 Bei Objektiven und deren Bildfehlern kann man deren 'Fehler' eben auch gezielt einsetzen, den Zufall mitspielen lassen und alles passend zur eigenen Vorstellung.
Ein cleanes Bild bekommt man weich, unscharf etc.pillepalle hat geschrieben: ↑Di 20 Aug, 2024 13:54 Zu dem Thema gibt es, wie immer, ganz unterschiedliche Meinungen :)
Da wo die KI einem sinnvoll Arbeit abnehmen bzw. ersparen kann nutze ich sie gerne. Wenn es um kreative Entscheidungen und welche die das Bild betreffen geht, dann fälle ich die gerne selber. Wenn ich den Ausschnitt versehentlich zu eng gewählt habe, dann kann mir eine KI auch gerne mal den fehlenden Hintergund dazu erfinden. Bei den wesentlichen Dingen brauche ich aber keine KI die für mich entscheidet und irgendwas dazudichtet. Fertige Looks werden auch schnell langweiig, wenn man sie ständig nutzt.
Bei Objektiven und deren Bildfehlern kann man deren 'Fehler' eben auch gezielt einsetzen, den Zufall mitspielen lassen und alles passend zur eigenen Vorstellung. Das letzte was ich möchte wenn ich künstlerisch arbeite ist ein scharfes und cleanes Bild. Das brauche ich für ein Repro, oder vielleicht eine Dokumentation von irgendetwas. Aber eigentlch finde ich es ja gerade gut, wenn es abstrakt ist. Und um das zu erreichen möchte ich vielleicht auch keine Klimmzüge in der Post machen müssen. In meinen Augen ist ein gutes Fertiges Bild aus der Kamera viel besser als eines, an dem ich noch ewig herumschrauben muss um dahin zu kommen. So hat jeder eben seine vorlieben. Irgendwie ist niemand mehr in der Lage selber Entscheidungen zu treffen. Und so macht man alles möglichst beliebig, um es sich später noch anders überlegen zu können. Sicher ist sicher :)
VG
Wunder nicht. Hier aber mal ein Praxisbeispiel, was machine learning-gestützte Debayering-Verfahren leisten können.
Ja, aber früher oder später kriegst Du das auch direkt in der Kamera (und, wahrscheinlich ein paar Jahre früher, im Smartphone). So, wie man jetzt bei einer Fuji-Kamera eine Filmsimulation wählen kann, kannst Du dann für Dein Objektiv eine Objektivsimulation wählen und z.B. aus Deinem ultramodernen und cleanen Nikkor Z 50mm f/1.8s Dir ein Cooke-Triplet oder Vorkriegs-Zeiss Sonnar filtern lassen.pillepalle hat geschrieben: ↑Di 20 Aug, 2024 14:05 @ cantsin
Nur weißt du dann wöhrend der Aufnahme immer noch nicht wie es aussehen wird. Wenn ich etwas mache, habe ich im Idealfall vorher schon eine Vision davon was ich möchte und wie es aussehen soll. Das entscheide ich nicht erst in der Post, bzw. überlasse es dann der KI.
Ich bestreite nicht, dass - eben auch durch die heutige Rechenpower - die Software beeindruckende Ergebnisse liefert. Jedoch nur auf Basis von brauchbaren Bildern. Bei deinem Bildbespiel wurde viel verfeinert - aber hinzuerfunden eher nicht.cantsin hat geschrieben: ↑Di 20 Aug, 2024 14:23Wunder nicht. Hier aber mal ein Praxisbeispiel, was machine learning-gestützte Debayering-Verfahren leisten können.
1:1-Ausschnitt eines Fotos, das ich vor ein paar Wochen mit einer alten Nikon 1 J1 und deren Kitzoom gemacht habe, konventionell von Raw nach JPEG gewandelt:
Screenshot from 2024-08-20 14-16-43.png
Dasselbe Foto, diesmal mit DxO Photolab und dessen KI-basiertem Deep Prime XR-Debayering/Entrauschungsverfahren nach JPEG gewandelt:
Screenshot from 2024-08-20 14-16-39.png
Die zusätzlichen Details, die man z.B. im Gesicht des Mannes sieht, sind von der Software auf der Basis ihres Trainingssets heuristisch rekonstruiert bzw. hinzuerfunden.
Da ist doch kein erkennbarer oder gar praxisrelevanter Unterschied. Etwas rauschärmer, andere Farben und im Gesicht der Frau ist der graue Fleck weg, aber sonst ist es doch auch nicht grundsätzlich besser sondern einfach nur etwas anders.
Ich habe mir die Beispiele noch einmal genau angesehen und leider bleibt es bei meinem Eindruck, dass die Unterschiede gering sind. Die zweite Variante verwendet offensichtlich an anderes Interpolationsverfahren, welches Kanten besser erhält und weniger Farbsäume produziert - wobei es natürlich auch möglich ist, dass das zweite Verfahren die Farbränder unterdrückt oder es sich sogar um tatsächlich vorhandene CA handelt, die eigentlich nach der Rekonstruktion da sein sollten.
Ich sehe wenig (nichts?), was nicht auch in der ersten Variante prinzipiell da ist. Die Mauer ist auch wie die Treppe nur etwas besser aus dem Bayer-Muster hervorgeholt worden und wird kontrastreicher (schärfer) wiedergegeben. Beim Verkehrsschild sind die Farbsäume weg und die Mauer im Hintergrund ist weniger Verrauscht.
Spannend wird es, wenn man auf 200% vergrößern kann, ohne das 95% der Betrachter dies merken. Von neu eingefügten Details kann ich in den Beispielen leider noch nicht viel merken - wobei das auch durchaus etwas gutes ist, denn wer will nur noch Fotos, die nicht mehr die tatsächlichen Gegebenheiten abbilden?cantsin hat geschrieben: ↑Di 20 Aug, 2024 19:51 Die Bilder rechts sehen so aus, als ob sie mit einem höherauflösenden Objektiv aufgenommen worden wären - wobei der KI-Debayerings-Algorithmus keine simple Kantenaufsteilung macht (wie klassische Nachschärfungsalgorithmen), sondern Texturrekonstruktion.
Die "Realität der tatsächlichen Gegebenheiten" ist sowieso nur relativ ;-)
Es kommt darauf an, was man anstrebt.Frank Glencairn hat geschrieben: ↑Mi 21 Aug, 2024 06:37Die "Realität der tatsächlichen Gegebenheiten" ist sowieso nur relativ ;-)
Ich hatte kürzlich ne ganz interessante Diskussion, wo sich jemand über die Algorithmen in Handys beschwert hatte, und das da ja nicht mehr die Realität abgebildet wurde.
Auf meine Frage, wie es denn in Wirklichkeit ausgesehen hat, wurde ihm dann allerdings irgendwann mal klar, daß es in Wirklichkeit seine geliebten analogen Fotos waren, welche die erlebte Realität nicht abbilden konnten, und die verschmähten AI Fotos viel näher an dem dran waren, was er vor Ort mit seinen Augen gesehen hat.
Darum ging's ja gar nicht, sondern ob die AI Algorithmen in Handys die Realität besser abbilden als analoge Fotos.
Bei dem Auszugstext musste ich echt schmunzeln... ;-)Frank Glencairn hat geschrieben: ↑Mi 21 Aug, 2024 09:18 ... ob die AI Algorithmen in Handys die Realität besser abbilden ...
Besser?Frank Glencairn hat geschrieben: ↑Mi 21 Aug, 2024 09:18Darum ging's ja gar nicht, sondern ob die AI Algorithmen in Handys die Realität besser abbilden als analoge Fotos.
Wer von uns beiden hat die Diskussion geführt?
Nein - hat sie nicht.Frank Glencairn hat geschrieben: ↑Mi 21 Aug, 2024 12:59Wer von uns beiden hat die Diskussion geführt?
Ich oder du? Ich sollte doch wissen um was es gegangen ist.
Nochmal, es ging darum ob ein Foto mit AI (Handy) oder mit Film die Realität besser abbildet.
Und da hat die AI nunmal eindeutig gewonnen.
Es gibt Objektive, die auf eine Abbildung abzielen, die möglichst clean ist.Bildlauf hat geschrieben: ↑Mi 21 Aug, 2024 13:21 Ich neige dazu zu sagen, daß Vintage Objektive mehr Charakter haben als neue Objektive, aber eigentlich haben Vintage objektive nur einen anderen Charakter als neue Objektive.
Das Samyang 50mm 1.4 II hat zb einen "analogen" Charakter als ein modernes objektiv, während die Sigmas etwas straight wirken, aber das von den Sigmas ist auch ein Charakter irgendwie.
Was gibt es denn da zu begründen - das ist doch völlig offensichtlich.
Ich habe dazu oben schon Begründungen geliefert.Frank Glencairn hat geschrieben: ↑Mi 21 Aug, 2024 14:25Was gibt es denn da zu begründen - das ist doch völlig offensichtlich.
Jeder der schon mal fotografiert hat weiß, das Film kaum in der Lage ist die Realität - auch nur ansatzweise - so abzubilden, wie wir sie sehen.
Müssen wir dir hier jetzt allen ernstes den Unterschied zwischen dem DR von Film, und dem des menschlichen Sehens erklären?
Ich hab gestern eine Low Light Test mit meinem Sigma 50 Art gemacht und festgestellt, dass durch die Scheinwerfer eines entgegenkommenden Autos Flares am Nachhimmel entstanden - nur geringe, denn das Sigma besser als so manche andere Linse, aber die Flares sind im Bild. Vielleicht ließe es sich fixen.Bildlauf hat geschrieben: ↑Mi 21 Aug, 2024 16:54
Dann wären in der günstigen Preislage (Prosumer Objektive) die Sigmas ganz gut, die halte ich für recht clean und am "normalsten" vom Look her.
Wiederum weiß ich nicht wie man den Look eines Vintageobjektivs auf ein Sigma adaptieren will.
Genauso wie cinematch, daß macht ja vielleicht nur angenähert die Farben zb einer Canon, cinematch ist für mich eher eine spezialisierte Lut, macht aber keine Lookveränderung in dem Sinne.
Also angenommen ich filme mit S5II und einem Sigma, aber ich will in Post Canon Farben und den Look eines alten Pentax M oder nFD oder was auch immer, wie soll man das bewerkstelligen, daß es wirklich so kommt?
Kann es mir nur schwer vorstellen.
Weil Objektiv Look ist irgendwie ewas eingebranntes, sehr individuelles, denke nicht reproduzierbar (zum jetzigen Zeitpunkt, Frage KI, was die irgendwann mal kann).
nFD Vergleich zu einem Sigma als Beispiel, sieht halt total anders aus vom Bildeindruck her, was Plastizität, Beschaffenheit, Bildeindruck und eben "Look" etc. betrifft.
iasi hat geschrieben: ↑Mi 21 Aug, 2024 17:26 Ich hab gestern eine Low Light Test mit meinem Sigma 50 Art gemacht und festgestellt, dass durch die Scheinwerfer eines entgegenkommenden Autos Flares am Nachhimmel entstanden - nur geringe, denn das Sigma besser als so manche andere Linse, aber die Flares sind im Bild. Vielleicht ließe es sich fixen.
Aber lieber wäre mir ein Bild ohne diese Flares, denn in der Post kann ich ganz gezielt und kontrolliert Flares und so ziemlich jeden gewünschten Look erzeugen. Das Sigma aber erzeugt diese Flares für mich unkontrollierbar - wenn auch nur geringe.
Nehmen wir mal das Beispiel Randabschattung:
Kein Problem das cleane Bild beim Grading zu den Ecken dunkler auslaufen zu lassen.
Umgekehrt erzeugt ein Aufhellen einer Aufnahme mit starkem Randabfall ein verstärktes Rauschen.
Das ist mit Abstand der lächerlichste Satz den ich seit langem von dir gehört habe.