cantsin hat geschrieben: ↑Mo 27 Mär, 2023 11:40
Ich hatte ja nicht von den Sensoren, sondern von den ASICs geschrieben (falls das nicht deutlich ist: den Signalverarbeitungschips der Kameras, also z.B. den DIGIC-Chips von Canon, den Expeed-Chips von Nikon, den Bionz-Chips von Sony etc.).
- Übrigens gibt es Hersteller, die für jeden Sensor ein eigenes bzw. maßgeschneidertes Log-Profil bauen, wie z.B. Blackmagic.
EDIT: Dein Posting bringt mich auf eine Idee. Könnte es sein, dass Log-Profile in Hybridkameras eine komplexe Fallstrick-Angelegenheit sind, weil sie ursprünglich nur in Cinekameras mit FPGAs (also frei programmierbaren, Minicomputer-Signalverarbeitungschips) steckten, und es schwieriger ist, sie in ASICs (=fest programmierten Massenmarkt-Kamerachips) zu implementieren? Denn ASICs können ja nicht nur für eine spezifische Kamera entwickelt und programmiert werden, sondern müssen ganze Kamerafamilien und -generationen eines Herstellers mit verschiedenen Sensoren abdecken. Und es wird ja nicht einfacher, wenn für Log im Chip eine eigene Signalverarbeitungs-Pipeline implementiert (und im Fall von ASICs: fest in die Chip-Hardware eingegossen) werden muss.
Zumindest dürften Blackmagics sensormaßgeschneiderten Log-Profile nur dank der FPGA-Architektur seiner Kameras möglich sein.
Theoretisch sind angepasste ASICs natürlich möglich, aber vermutlich sinnlos teuer. Aber Du bist da sicher was auf der Spur, folgendermaßen:
Ich glaube nicht, dass sich die "Fotohersteller" bisher nennenswert Gedanken über Gamma-Kurven gemacht haben oder wo in der Pipeline diese passieren. Letztendlich sind da eigentlich immer nur lineare Raw-Daten ein Thema gewesen. Die Vorgehensweise, lineare Raw Daten aus dem A/D-Konverter schon bei der Speicherung in Log zu konvertieren und schlussendlich Log-Raw zu speichern ließe sich fix auch in einem ASIC realisieren. Das Problem dabei: Das interessiert 90% der Nutzer, die nur Fotos machen wollen nicht und die Hersteller haben damit eben auch keine Erfahrung. Abgesehen davon, dass es vmtl mehrere ASICs bräuchte um so etwas zu realisieren. Am Ende will jeder in Lightroom/Photoshop aus diesen Kameras ein normalisiertes Foto sehen.
Und warum macht man das ganze eigentlich? Letztendlich hat die Argumentation mit "Dynamik" sehr viel mit "Ich dreh im Profil den Kontrast raus" zu tun. Arri nutzt LogC in erster Linie zur besseren = effizienteren Speicherung des 16-Bit Linear Signals, das die 14-Bit A/D-Konverter errechnen. Was im Linear-Signal nicht da ist, wird es im Log-Signal auch nicht sein, Vorteile bei der Tonwertverteilung ergeben sich schon, nicht aber an der absoluten Dynamik. Die Dynamik bleibt nur trotz geringerer Bittiefe in ähnlichem Maß erhalten, was Vorteile für den Speicherverbrauch bringt, eine bessere Tonwertverteilung und wenig Nachteile.
Ich vermute, dass die meisten Fotohersteller die Log-Konvertierung nicht viel anders behandeln als "Kreativ-Filter", die es immer schon für Preview-Zwecke vom Raw gab (S/W, Portrait, Landschaft, Gesättigt), nur dass diese bei der Speicherung eingebrannt werden. Was ja auch legitim wäre, wenn sie das Know-How wirklich hätten(?) und man das Gefühl hat, das funktioniert ähnlich gut wie bei den Bewegtbildherstellern.
Ist schwer das zu vergleichen, so gesehen beginnt jede Bildinformation am Sensor Linear, selbst bei Arri beginnt die Reise von Analog zu Digital erst in 16-Bit Linear (aus 2x 14 Bit-Linear-Streams), Arri kommt an Kompression vorbei, indem sie die 16-Bit dann statt linear zu speichern in 12-Bit logarithmisch speichern. Das bringt halt in erster Linie etwas, wenn Du wirklich effektiv genutzte 16-Bit Linear als Startpunkt hast. Wie man drauf kommt ist nicht das Thema, Arri hat die 2x 14-Bit DGA auch nur verwendet, weil 16-Bit DGAs zu der Zeit einfach schwierig waren. Aber, sie landen bei 16-Bit Linear (die auch Sinn machen, verglichen mit dem "Externen 16-Bit-Raw" aus einem 12-Bit A/D-Konverter) und kommen um die Komprimierung dessen herum, in dem sie das einfach als 12-Bit Log Speichern, was gut funktioniert. Das hat aber eigentlich nichts mehr mit der Dynamik zu tun, denn was im 16-Bit Linear nicht drin ist - oder davor in den 2x 14-Bit Linear wird es auch im 12-Bit-Log-Raw nicht sein, da geht's nur mehr um die Datenspeicherung.
Aber worauf ich hinauswill: Auch Cine-Kameras sehen eigentlich zuerst Linear, trotzdem glaube ich dass sonst ALLES daran auf die Speicherung von Log-Material ausgelegt ist. Bei den höherpreisigen Modellen mit vielen Möglichkeiten, sieht man das auch ganz gut anhand der Einschränkungen: Die Venice kann zur Preview Normalisierung nicht nur LUTs nutzen, sondern .ART-Files. Damit behaupten sie, das habe ich auch nachvollziehen können - dass es die Output-Darstellung verbessern kann, indem - statt die LUTs nach dem BildProcessing schon währenddessen Implementiert werden:

Das macht jetzt nicht viel für die Diskussion FGPA vs. ASIC, allerdings ist es halt scheinbar eine Wissenschaft, wo selbst High-End-Kameras bestimmte Restriktionen haben wenn nur LUTs am Ende der Pipeline genommen werden. Das sagt jetzt für sich genommen mehr über die Unzulänglichen von LUTs und Venice-Processing aus, nicht aber über Consumer-Fotokameras? Das stimmt schon, aber wieso sollte Sony die Lösung in Consumer-Fotokameras bauen, wenn sie bei Venice das große Feature ist und tatsächlich reproduzierbare Vorteile bringt?
Was es aber auch zeigt: Die Cine-Kameras verarbeiten eigentlich trotz des Linearen-Raw-Anfangs ab einem gewissen Punkt eigentlich Log intern. Die ganze Zeit von der Log-Konvertierung bis zur Speicherung. Previews sind halt dann mit LUTs oder ARTs möglich, allerdings eigentlich nur für Preview-Zwecke. Die können auch gespeichert werden, aber das macht kaum jemand.
Bei Consumerkameras äußert sich Sony (die es besser wüssten, siehe Venice) meines Wissens nicht über solche Details. Die Picture Profiles für Video-Gammas sind zwar von den Foto-Effektfiltern getrennt, weist allerdings bei den ersten PPs undefinierte "Movie Gamma" und "Stills Gamma" aus. Die Log-Profile folgen dann. Das ist jetzt auch nur eine Mutmaßung, aber ich kann mir beim besten Willen nicht vorstellen, dass das, was Sony dann in einer A7XYZ mit Slog macht, viel mit einer Venice zu tun hat, die - das weiß ich auch nicht - aber da ist von einem 16-Bit A/D auszugehen - die ganze Signalverarbeitung hin auf Slog hin macht.
Bei A7XYZ ist das mit an Sicherheit grenzender Wahrscheinlichkeit nicht der Fall. Bei einer FX3 wird man streiten können, aber sonst hat die lineare Foto-Raw-Verarbeitung im ASIC einfach Vorrang. Das wird auch bei einer Z9 nicht viel anders sein und bei einer XH2-S auch nicht. Über die wirkliche Implementierung von Log-Modi schweigen die Hersteller da leider, verglichen mit den Cine-Herstellern (Arri, Sony Pro, etc.). Aber es wird einfach nicht möglich sein, zwei Pipelines gleichrangig prozessierbar zu machen und letztendlich bräuchten sie da wohl 2:
- Eine für die linearen Foto Raws
- Eine für die bald auf so nahe an nativ wie möglich Log-Umgstellte Video-Signalverarbeitung
Da die allerdings beide Endprodukte in einer Kamera realisieren müssen und viel mehr Erfahrung im Fotobereich vorhanden ist und obwohl die Kameras vermehrt für Videos gekauft werden Foto immer noch priorität hat. Und im Endeffekt wird da nicht viel mehr passieren, als den linearen Sensordaten nach der internen Bildverarbeitung noch ein Log-Profil zu verpassen statt währenddessen.