Logo Logo
/// 

V-Log für die GH4 als kostenpflichtiges Add-on?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Im Oktober wird mit der heiß ersehnten V-Log Funktion für die GH4 gerechnet (obwohl der entsprechende Panasonic-Tweet anscheinend wieder gelöscht wurde -- laut neuesten Gerüchten wird Panasonic für dieses professionelle Upgrade Geld verlangen; dies war im Vorfeld ja bereits als Möglichkeit thematisiert worden. Ob es am Ende stimmt und wenn ja, wieviel, bleibt dennoch erstmal abzuwarten.

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
V-Log für die GH4 als kostenpflichtiges Add-on?




Antwort von surfag:

Na, das wird dann wohl der Hauptgrund für die Verzögerung sein.... ;-)
(außer es gibt noch technische und/oder Stabilitäts-Gründe)

Denn bis man ein Prozedere für die Abrechnung (macht das dann Pana selbst oder ein Dienstleister?) aufgesetzt bekommt, dauert es halt - zumindest wenn man so etwas nicht ständig macht. OK, den Broadcast Bereich von Pana kenn ich nicht, da wird so etwas wohl eher üblich sein.

Für den Consumer Bereich würden sie sich damit eher einen Bärendienst erweisen - könnt gut sein, dass sich einige verärgert abwenden werden.

VG, Andi



Antwort von klusterdegenerierung:

Ich schätze die haben dort eine Firmware rumliegen, die man per PayPal kaufen kann und die via Seriennummer aktiviert und gleichzeitig so vor Missbrauch geschützt werden kann!





Antwort von -paleface-:

Wenn es fürn hunderter ist. OK.

Solange die nciht mit nem 500€ Update kommen.

Dann bleibe ich bei meinen jetzigen Settings.
Die auch super aussehen!



Antwort von acrossthewire:

Was kostete nochmal das 50p/60p Upgrade der AF101? Um die 200 Ocken.
Ich denke alles was beim V-Log für die GH4 darüber geht wird die Leute schwer verärgern.
Und die Frage ist bringen neu gekaufte Geräte ab Oktober das Update automatisch kostenfrei mit?



Antwort von iasi:

Was kostete nochmal das 50p/60p Upgrade der AF101? Um die 200 Ocken.
Ich denke alles was beim V-Log für die GH4 darüber geht wird die Leute schwer verärgern.
Und die Frage ist bringen neu gekaufte Geräte ab Oktober das Update automatisch kostenfrei mit?

da lob ich mir doch BMD, Red ... - die kassieren für Firmware-Funktionen nicht zusätzlich ab ...



Antwort von TaoTao:

Bis das Ding erscheint hat Sony inzwischen noch 7 Kameras rausgebracht, natürlich mit S-log.



Antwort von Angry_C:

Was kostete nochmal das 50p/60p Upgrade der AF101? Um die 200 Ocken.
Ich denke alles was beim V-Log für die GH4 darüber geht wird die Leute schwer verärgern.
Und die Frage ist bringen neu gekaufte Geräte ab Oktober das Update automatisch kostenfrei mit?

da lob ich mir doch BMD, Red ... - die kassieren für Firmware-Funktionen nicht zusätzlich ab ...

Wäre aber auch frech von BMD, schließlich bringen sie Kameras auf dem Markt, wo bei Release gerade mal der Einschaltknopf und der Aufnahmeknopf eine Funktion besitzt.



Antwort von Angry_C:

Was kostete nochmal das 50p/60p Upgrade der AF101? Um die 200 Ocken.
Ich denke alles was beim V-Log für die GH4 darüber geht wird die Leute schwer verärgern.
Und die Frage ist bringen neu gekaufte Geräte ab Oktober das Update automatisch kostenfrei mit?

Klar eine 10 bit Großchip Kamera mit vlog darf natürlich nicht mehr als 1000 Euro kosten, sonst sind die Leute schwer verärgert.

Wer sein Geld damit verdienen möchte, wird mit Sicherheit nicht verärgert sein, selbst wenn er einen 4-stelligen Betrag für das Update berappen muss.

Für Tante Ernas Geburtstagsparty oder für Katzenvideos benötigt man vlog doch eher weniger.



Antwort von ARCRECORDS:

Mich verärgert es generell wenn V-Log bei der Gh4 etwas kosten soll. Und das sage ich obwohl ich seit der GH1 ein absoluter Fan der Lumix Kameras bin. Wenn man sich auf die Mitbewerber konzentriert sollte auch Panasonic das V Log kostenlos anbieten. Sony macht das vor...



Antwort von klusterdegenerierung:

selbst wenn er einen 4-stelligen Betrag für das Update berappen muss.

Hoho, was erhoffst Du Dir den von dieser Makulatur, das es Dir sogar einen 4 stelligen Betrag wert wäre?

Ändert doch eh nix an der Gesamtdynamik, ausser das es dann noch ein flacheres Profil gibt!



Antwort von acrossthewire:

Es hat halt ein Geschmäckle wenn die Features eigentlich da waren (wie bei der AF101 per Overcrank dann allerdings ohne Ton) oder wie jetzt bei der GH4 ebenfalls ohne Hardwareveränderung kostenpflichtig nachgereicht werden. Was anderes ist es wenn es vorher klar angekündigt wird.



Antwort von Angry_C:

Mich verärgert es generell wenn V-Log bei der Gh4 etwas kosten soll. Und das sage ich obwohl ich seit der GH1 ein absoluter Fan der Lumix Kameras bin. Wenn man sich auf die Mitbewerber konzentriert sollte auch Panasonic das V Log kostenlos anbieten. Sony macht das vor...

Wo macht Sony denn was vor?

Sony slog bei den 8 bit Konsumerknipsen kannste für Spielereien mal benutzen, professionelle Resultate bekommst du damit im Gegensatz zum v-log bei der GH4 und externer 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt Aufzeichnung nicht realisiert.

Panasonic muss auch ihre Profiprodukte schützen.

Was Sony allerdings vormacht, dass ist im Falle der X70 für ein halbgares 4K Update mal eben über 500€ zu verlangen.



Antwort von Gooerkfish:

Der letze Claim bevor man von 8 bit einfach nur noch auf
10 bit geht und jedes GERÄT mit INTERN 10 bit verkauft?
bei normalem CodecCodec im Glossar erklärt doch keine Gefahr für ( RAW/ etz..)??
wie lange wird diese VER A RSCHE noch rennen?
irgend ein schön verpacktes Märchen erzählen und die User
( den Schaum vor dem Kaufmündchen..) der hupft.

2016...?



Antwort von Angry_C:

Der letze Claim bevor man von 8 bit einfach nur noch auf
10 bit geht und jedes GERÄT mit INTERN 10 bit verkauft?
bei normalem CodecCodec im Glossar erklärt doch keine Gefahr für ( RAW/ etz..)??
wie lange wird diese VER A RSCHE noch rennen?
irgend ein schön verpacktes Märchen erzählen und die User
( den Schaum vor dem Kaufmündchen..) der hupft.

2016...?

Sag mal, verstehst du eigentlich selbst, was du da immer schreibst?



Antwort von Rick SSon:

Mich verärgert es generell wenn V-Log bei der Gh4 etwas kosten soll. Und das sage ich obwohl ich seit der GH1 ein absoluter Fan der Lumix Kameras bin. Wenn man sich auf die Mitbewerber konzentriert sollte auch Panasonic das V Log kostenlos anbieten. Sony macht das vor...

Wo macht Sony denn was vor?

Sony slog bei den 8 bit Konsumerknipsen kannste für Spielereien mal benutzen, professionelle Resultate bekommst du damit im Gegensatz zum v-log bei der GH4 und externer 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt Aufzeichnung nicht realisiert.

Panasonic muss auch ihre Profiprodukte schützen.

Was Sony allerdings vormacht, dass ist im Falle der X70 für ein halbgares 4K Update mal eben über 500€ zu verlangen.

Geil. Dann hast du ein rauschiges, flaches panasonicfarbenes Videobild in 10 bit 422.

Gratulation! :D

Professionelle Resultate sind außerdem erstmal bloss welche, für die jemand bezahlt. Das sagt über die Qualität nichts aus.

Die FS700 zeichnet beispielsweise nur in 4:2:04:2:0 im Glossar erklärt 8 bit auf und trotzdem erreichen Menschen damit geile Ergebnisse. Genauso wie mit der überalterten 5D.

Die Qualität eines Bildes an der Farbabtastung und der Bitttiefe festzumachen finde ich sehr ... theoretisch.



Antwort von Angry_C:

Mich verärgert es generell wenn V-Log bei der Gh4 etwas kosten soll. Und das sage ich obwohl ich seit der GH1 ein absoluter Fan der Lumix Kameras bin. Wenn man sich auf die Mitbewerber konzentriert sollte auch Panasonic das V Log kostenlos anbieten. Sony macht das vor...

Wo macht Sony denn was vor?

Sony slog bei den 8 bit Konsumerknipsen kannste für Spielereien mal benutzen, professionelle Resultate bekommst du damit im Gegensatz zum v-log bei der GH4 und externer 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt Aufzeichnung nicht realisiert.

Panasonic muss auch ihre Profiprodukte schützen.

Was Sony allerdings vormacht, dass ist im Falle der X70 für ein halbgares 4K Update mal eben über 500€ zu verlangen.

Geil. Dann hast du ein rauschiges, flaches panasonicfarbenes Videobild in 10 bit 422.

Gratulation! :D

Ich habe gar nichts, weil ich schon lange keine Gh4 mehr besitze.

Aber was sind denn Panasonicfarben?



Antwort von Uwe:


Die FS700 zeichnet beispielsweise nur in 4:2:04:2:0 im Glossar erklärt 8 bit auf und trotzdem erreichen Menschen damit geile Ergebnisse. Genauso wie mit der überalterten 5D.

Die Qualität eines Bildes an der Farbabtastung und der Bitttiefe festzumachen finde ich sehr ... theoretisch.

Eine ganze Menge von Leuten glaubt offenbar, dass sie plötzlich bessere Videos drehen werden, wenn sie mit V-log L filmen. Ich gehe jede Wette ein, dass viele von denen zwischen einem gegradeten Vlog-Video und einem z.B. in Standard gedrehten und leichtem Grading gar keinen merklichen Unterschied sehen werden...



Antwort von Angry_C:


Die FS700 zeichnet beispielsweise nur in 4:2:04:2:0 im Glossar erklärt 8 bit auf und trotzdem erreichen Menschen damit geile Ergebnisse. Genauso wie mit der überalterten 5D.

Die Qualität eines Bildes an der Farbabtastung und der Bitttiefe festzumachen finde ich sehr ... theoretisch.

Eine ganze Menge von Leuten glaubt offenbar, dass sie plötzlich bessere Videos drehen werden, wenn sie mit V-log L filmen. Ich gehe jede Wette ein, dass viele von denen zwischen einem gegradeten Vlog-Video und einem z.B. in Standard gedrehten und leichtem Grading gar keinen merklichen Unterschied sehen werden...

Naja, mit Standard GammaGamma im Glossar erklärt ist, einmal nicht penibel genau belichtet, weg, was nicht unbedingt weg sein muss. Log-Gamma bewahrt einem vor ausgebrannten Lichtern und abgesoffenem schwarz. Und man kann hinterher entscheiden, was man daraus macht.



Antwort von Uwe:

Log-Gamma bewahrt einem vor ausgebrannten Lichtern

Bist Du sicher? Es handelt sich um V-log "l"(Lite). Ich vermute, dass wir nur einen Gewinn von 1 BlendeBlende im Glossar erklärt bekommen werden, und das wird sich in etwas mehr Zeichnung in den Schatten abspielen. Und das wiederum wird mit einem Grading meistens wieder zugeschüttet. Aber mal abwarten...



Antwort von Zac:

"Nur 1 Blende"... 12,8 Blenden, gutes Grading, in einem 1500 Euro-Gerät, ohne die Datenmengen von RAW, ProRes... Wer jammert hier...



Antwort von Uwe:

"Nur 1 Blende"... Wer jammert hier...

Jammert ja keiner, aber man sollte der Realität schon in"s Auge schauen. Schön, wenn es kommt. Aber dafür vielleicht 100,- oder noch mehr Tocken hinzulegen... nee, Danke!



Antwort von CameraRick:

"Nur 1 Blende"... 12,8 Blenden, gutes Grading, in einem 1500 Euro-Gerät, ohne die Datenmengen von RAW, ProRes... Wer jammert hier...
Wenn du das Prozeß umgehst hast du diese 12.8 Blenden in 8bit. Herrlich, was könnte schief gehen :)



Antwort von Zac:

nichts, oder :-)



Antwort von Angry_C:

Log-Gamma bewahrt einem vor ausgebrannten Lichtern

Bist Du sicher? Es handelt sich um V-log "l"(Lite). Ich vermute, dass wir nur einen Gewinn von 1 BlendeBlende im Glossar erklärt bekommen werden, und das wird sich in etwas mehr Zeichnung in den Schatten abspielen. Und das wiederum wird mit einem Grading meistens wieder zugeschüttet. Aber mal abwarten...

Selbst wenn es eine BlendeBlende im Glossar erklärt ist.

Bei den Sony Knipsen ist der maximale Dynamikumfang von angeblich 14 Blenden (hab ich nicht gemessen) überhaupt erst mit slog und ISO800/1600 möglich.

Der Vorteil ist, dass z.B. eine Landschaft bei Sonne laut Waveform von ca. 30-70% aufgezeichnet wird.

Anschließend kann ich in der Post entscheiden, wohin ich die Informationen drücken möchte.

Das funktioniert leider mit 8 bit 4:2:04:2:0 im Glossar erklärt nicht so berauschend, bei 10bit 4:2:24:2:2 im Glossar erklärt schon besser.

Man hat auf jeden Fall eine Menge Spielraum, das Material nicht typisch wie Video aussehen zu lassen.







Antwort von Rudolf Max:

@: Man hat auf jeden Fall eine Menge Spielraum, das Material nicht typisch wie Video aussehen zu lassen.

Warum sollte ein Video nicht wie ein Video aussehen... verstehe ich jetzt nicht... was ist denn daran so schlimm... schliesslich ist es ja eine Videokamera, die die Aufnahmen macht, also darf es doch auch so aussehen...

Ja, ich weiss, Video ist irgendwie verschissen, dafür muss man sich schämen, nur richtiger Film aus einer richtigen Filmkamera kann richtigen Film machen...

Mal ganz fies grinse...



Antwort von WoWu:

Der Vorteil ist, dass z.B. eine Landschaft bei Sonne laut Waveform von ca. 30-70% aufgezeichnet wird.

Damit hast Du in 10 BitBit im Glossar erklärt 409 Werte belegt, die Du Dir in der Post spreizt.
Es bleiben aber 409 Werte.
Du solltest Dir vielleicht mal anschauen, wie Videotechnik funktioniert.



Antwort von Angry_C:


Damit hast Du in 10 BitBit im Glossar erklärt 409 Werte belegt, die Du Dir in der Post spreizt.
Es bleiben aber 409 Werte.
Du solltest Dir vielleicht mal anschauen, wie Videotechnik funktioniert.

dito alter Mann:-)



Antwort von wolfgang:

Spannend. Überwiegt der Nutzen weil man besser vor clipping geschützt ist? Selbst wenn flach und mit weniger Werten aufgenommen wird? Und hat man eine strikte waveform bei der Aufnahme zur Verfügung, reicht das nicht?



Antwort von WoWu:

Du bist ja nicht besser vor Clipping geschützt, weil das am Sensor stattfindet, wo noch gar keine Übertragungsfunktion wirkt.

Die waveform kann man natürlich benutzen und wenn sw auch aufliegt und ws die Spitze erreicht hat, sind auch alle Werte bedient.
Eine 30/70 Belichtung führt dazu, dass man seine Dynamik auf wenige Benden reduziert hat.
Bei einer LOG Übertragung ist es sogar deutlich wichtiger, dass bei ws exakter belichtet wird, weil in der Übertragungsfunktion anteilig nur weniger Werte aus der lin.Blende in die Übertragungsfunktion genommen werden sodass sich im Ergebnis aus der LOG Kurve an der Stelle eine größere Reduktion ergibt.
Mit andern Worten, aus einer halben BlendeBlende im Glossar erklärt Unterbelichtung werden in der LOG Übertragung 2-3 Blenden Unterbelichtung.
Vom Blendenverlust bei sw gar nicht zu reden.
Solche Unterbelichtungen können in der Summe dazu führen, dass Du bei 10 BitBit im Glossar erklärt dynamisch nicht viel besser als bei 8bit Link bist und nach dem Übergang auf ein 8 BitBit im Glossar erklärt Zielformate dann deutlich schlechter, als hättest Du gleich 8Bit Link gemacht.



Antwort von wolfgang:

Eben. Also reize ich nach Möglichkeit mit dem Waveform Monitor des Shoguns den Dynamikumfang gleich bei der Aufnahme im Hinblick auf rec 709 aus. Allerdings bei v-log-l unterVerwendung des Vorschau-LUTs. Heisst, das nicht transformierte Material wird wohl flacher aufgenommen sein, der Dynamikumfang im v-logl wird wohl kleiner sein.

Nutzt man aber die gute Kontrolle, die ein vernünftiger waveform Monitor bietet, und berücksichtigt dann das der Dynamikumfang eh nicht tatsächlich grösser wird, erkennt man eigentlich keinen großen Vorteil mehr von v-logl. Bis auf den wohl grösseren Spielraum in der Nachbearbeitung.



Antwort von WoWu:

Das LOG Mapping macht es deutlich schwieriger, richtig zu belichten und die Messung hinter einer LUT zeigt Dir einen gewaltigen Messfehler an, weil Du den Abstand der Werte nicht siehst, der aber ein Faktor Deiner Bilddynamik ist.
Wenn schon WF, dann hinter der LOG Kurve und (also nicht das LUT anschauen sondern die LOG Kurve).
Dann so ausleuchten, dass alle Werte bedient werden. Denn die LOG Kurve überträgt ALLE WERTE bis WEISS, nur dass sie unten ein Offset hat.
Die Grafik zeigt, was beim um-mappen mit einem unterbelichteten Anteil passiert.
Du verlierst bei einem gleichmässigen Mapptable bei weniger als einer BlendeBlende im Glossar erklärt Unterbelichtung knapp 4 Blenden deiner Dynamik.
Das ziehst Du Dir hinterher in der Post durch Spreizung wieder hoch, aber die Dynamik ist weg, weil die Werte fehlen.



Antwort von Rick SSon:

Das LOG Mapping macht es deutlich schwieriger, richtig zu belichten und die Messung hinter einer LUT zeigt Dir einen gewaltigen Messfehler an, weil Du den Abstand der Werte nicht siehst, der aber ein Faktor Deiner Bilddynamik ist.
Wenn schon WF, dann hinter der LOG Kurve und (also nicht das LUT anschauen sondern die LOG Kurve).
Dann so ausleuchten, dass alle Werte bedient werden. Denn die LOG Kurve überträgt ALLE WERTE bis WEISS, nur dass sie unten ein Offset hat.
Die Grafik zeigt, was beim um-mappen mit einem unterbelichteten Anteil passiert.
Du verlierst bei einem gleichmässigen Mapptable bei weniger als einer BlendeBlende im Glossar erklärt Unterbelichtung knapp 4 Blenden deiner Dynamik.
Das ziehst Du Dir hinterher in der Post durch Spreizung wieder hoch, aber die Dynamik ist weg, weil die Werte fehlen.

Kommt das nicht drauf an, mit wieviel bit der Sensor ausgelesen wird? Wenn die Sensorauslesung in 10 bit stattfindet und ich bei einer 8 bit Aufzeichnungen einen geringeren Bereich dieser 10 bit "festhalte" habe ich doch in diesem Bereich trotzdem mehr "Zwischenwerte" aufgezeichnet, oder?



Antwort von mash_gh4:

Bei einer LOG Übertragung ist es sogar deutlich wichtiger, dass bei ws exakter belichtet wird, weil in der Übertragungsfunktion anteilig nur weniger Werte aus der lin.Blende in die Übertragungsfunktion genommen werden sodass sich im Ergebnis aus der LOG Kurve an der Stelle eine größere Reduktion ergibt.
Mit andern Worten, aus einer halben BlendeBlende im Glossar erklärt Unterbelichtung werden in der LOG Übertragung 2-3 Blenden Unterbelichtung.

es gibt leute, die erzählen immer wieder einen derartigen blödsinn, und präsentieren das trotzdem in einer weise, dass ihnen manche tatsächlich noch immer glauben schenken könnten :(



Antwort von WoWu:

@mash_gh4
Du kloppst nur dumme Sprüche.
Falsifizier doch einfach und sag uns, wie es -nach Deiner Meinung- richtig funktioniert.

@Rick SSon
Ja klar, wenn er nach 10 BitBit im Glossar erklärt mappeed, komprimiert er die Wertemengen auf die Zielmenge.
Nur die Übertragungsfunktion legt fest, aus welchem Bereich er welche Mengen nimmt und der Hersteller legt fest, nach welchen Algorithmen er die KompressionKompression im Glossar erklärt vornimmt, ob er also alle Werte entsprechend mittelt oder ob er andere Kompressionen anwendet.
Aber daran, dass das Zielformat sich auch der oberen linearen Werte des Sensors bedient, daran besteht kein Zweifel und wenn unterbelichtet wurde, stehen da keine Werte zur Verfügung.

Übrigens ist das nur ein Beispiel, für eine Übertragungsfunktion, in der eine gleichmässige Verteilung vorliegt.
Andere LOG Kurven haben nach oben hin eine abfallende Wertemenge.
Nur das Prinzip ist im Grunde das gleiche.
Aber die V-LOG hat, wie die Kurve zeigt, an den tiefen Mitten eine gleichmäßige Verteilung, nur unten wird die Kurve flacher.
Das ist aber im Hinblick auf eine Unterbelichtung von wenig Relevanz.

So, "mash_gh4"
Nun pack mal Butter bei die Fische und zeig uns mal, ob Du noch was anderes als Sprüche drauf hast.



Antwort von wolfgang:

Also mir leuchtet ein, dass - wenn ich log Material nur so aufzeichne dass ich in Wirklichkeit nur einen geringen Teil des verfügbaren Wertebereiches nutze - ich einfach Werte verschenke. Und wer will das? Ok, also das v-log Signal nach Möglichkeit so einstellen dass der waveform-Bereich möglichst umfassend genutzt wird - das wäre die Konsequenz. Spannend wird sein ob das so gehen wird.

Mich würde schon interessieren was an dem hier gesagten nach deiner Meinung falsch ist. Erleuchte uns mal, mash_gh4.



Antwort von Angry_C:

Bei einer LOG Übertragung ist es sogar deutlich wichtiger, dass bei ws exakter belichtet wird, weil in der Übertragungsfunktion anteilig nur weniger Werte aus der lin.Blende in die Übertragungsfunktion genommen werden sodass sich im Ergebnis aus der LOG Kurve an der Stelle eine größere Reduktion ergibt.
Mit andern Worten, aus einer halben BlendeBlende im Glossar erklärt Unterbelichtung werden in der LOG Übertragung 2-3 Blenden Unterbelichtung.

es gibt leute, die erzählen immer wieder einen derartigen blödsinn, und präsentieren das trotzdem in einer weise, dass ihnen manche tatsächlich noch immer glauben schenken könnten :(

So ist es. Man muss triviale Dinge nur besonders wichtig klingend und kaum nachvollziehbar formulieren und schon hinterfragt es keiner mehr.



Antwort von srone:

es gibt leute, die erzählen immer wieder einen derartigen blödsinn, und präsentieren das trotzdem in einer weise, dass ihnen manche tatsächlich noch immer glauben schenken könnten :(

und es gibt leute, deren fachwissen, leider, einen gewissen horizont nicht übersteigt, welche jeden x-log blödsinn glauben und nicht annähernd in der lage sind die wahren technischen sachverhalte zu überprüfen, aber wenn es schön macht ;-)))

in einer "fashion"-nomenklatur formuliert: "x-log is the new raw".

lg

srone



Antwort von WoWu:

und kaum nachvollziehbar formulieren
Nachvollziebarkeit ist ja eine Frage des Intellektes dessen, der es nachvollziehen soll und nicht nur dessen, der es schreibt.
Glücklicherweise könnte ich in diesem Forum nur 4 Leute benennen, für die man alles aufbereiten muss, wie für Klippschüler.
Das spricht für das Niveau des Forums.

Aber mash_gh4 wird das ja gleich in einer Sprache erklären, die selbst Du verstehst.
Allein das wäre (in sich) ja schon ein Fortschritt.



Antwort von Angry_C:

und kaum nachvollziehbar formulieren
Nachvollziebarkeit ist ja eine Frage des Intellektes dessen, der es nachvollziehen soll und nicht nur dessen, der es schreibt.

Ach was, ich würde es nicht als intelligent bezeichnen, zusammenhangslos wirres Zeug zu schreiben, was du wahrscheinlich selbst beim erneuten Durchlesen nicht mehr deuten kannst.

Sollen wir nochmal mit dem Thema Rekonstruktion und generierte unendliche Tiefenschärfe durch videoprocessing heutiger Konsumerkameras anfangen?

Ach lassen wird das. Nicht, dass du dann wieder untertauchst, wenn"s ungemütlich wird;-)



Antwort von WoWu:

Du musst es ja wissen, wo Du doch (nach Deinen eigenen Angaben) in einem Entwicklungsteam für Videokameras arbeitest.
Aber Angaben sind je manchmal zweideutig.



Antwort von iasi:

Ich finde dieses Demo ziemlich interessant (war oben schon verlinkt):



Es zeigt doch recht gut, wo die Probleme liegen:
Vergleicht man die Mädchen bei der anfänglichen Belichtung auf die Personen, mit den gegradeten S-Log-Aufnahmen am Ende, dann wird deutlich, dass log eben wohl doch nicht ein Allheilmittel ist.



Antwort von srone:

Ich finde dieses Demo ziemlich interessant (war oben schon verlinkt):



Es zeigt doch recht gut, wo die Probleme liegen:
Vergleicht man die Mädchen bei der anfänglichen Belichtung auf die Personen, mit den gegradeten S-Log-Aufnahmen am Ende, dann wird deutlich, dass log eben wohl doch nicht ein Allheilmittel ist.

dh: was?

es gibt für mich eine intention ein bild zu generieren, die des kontextes, ob s-log oder rec 709, who cares? s-log ist ein werkzeug im gesamtkontext, mehr nicht.

lg

srone



Antwort von iasi:

Ich finde dieses Demo ziemlich interessant (war oben schon verlinkt):



Es zeigt doch recht gut, wo die Probleme liegen:
Vergleicht man die Mädchen bei der anfänglichen Belichtung auf die Personen, mit den gegradeten S-Log-Aufnahmen am Ende, dann wird deutlich, dass log eben wohl doch nicht ein Allheilmittel ist.

dh: was?

es gibt für mich eine intention ein bild zu generieren, die des kontextes, ob s-log oder rec 709, who cares? s-log ist ein werkzeug im gesamtkontext, mehr nicht.

lg

srone

na - aber man sollte sich eben schon darüber im klaren sein, dass die Verwendung dieses Werkzeuges zuerst einmal auch "Unterbelichtung" bedeutet.
Das sieht man im Video recht gut, wenn man die Gesichter der Mädchen betrachtet.



Antwort von Axel:

Vor allem, "bei Licht" betrachtet, ist der Versuch, hohe Dynamik in ein 8-bit-Bild (Youtube) zu quetschen, selten von Erfolg gekrönt. Keine der Aufnahmen in dem Beispielclip überzeugt wirklich. Aber geht es mir alleine so? Hätte man in der ersten Version noch ein bisschen mehr "auf das Subjekt" belichtet (der Himmel war eh geclippt) und einen Highlight-Blur (FCP X-TKY) bzw. "soft clip" angewendet (es gibt auch Low-Contrast-und Diffusions-Filter, obwohl ich mir nicht sicher bin, ob und wenn worin der Vorteil bestünde), wäre das Bild am besten gewesen. Der blaue Himmel im letzten Beispiel sieht nach Wachskreide aus, finde ich katastrophal.

Mit Raw kann man sowas machen (muss man aber nicht zwingend), bei allem anderen ist ein HDR-Ansatz technisch kontraindiziert. Also vergesst V-Log.



Antwort von wolfgang:

Ja der Himmel wirkt in dem Beispiel dort seltsam unecht, und die Damen sind in allen Fällen zu dunkel (was in Wirklichkeit eben Licht setzen heißt). Wunder kann man sich keine erwarten.

Aber das Beispiel zeigt auch, dass diese log-Kurve es offenbar schafft, die Informationen der hellen und der dunklen Bereiche doch besser aufzuzeichnen. Präzisser formuliert, die Tonwerte werden anders gewichtet und linearer auf die Blendenbereiche aufgeteilt. Das ist mit der von WoWu gezeigten Grafik recht stimmig - weil die einzelnen Blendenbereiche eben gleich viele Werte zugewiesen haben.

Dass dies mit 8bit in der Aufnahme keinen Sinn macht, einfach weil die Anzahl der Werte pro BlendeBlende im Glossar erklärt eher zu klein wird, wurde oft gesagt. Das relativiiert vermutlich den Nutzen von slog in den ganzen 8bit Sony Kameras. Mit 10bit schaut das aber gleich besser aus. Und mit raw sowieso. Das ist aber primär für die Nachbearbeitung notwendig. Bei der Ausgabe zu 8bit kann das durchaus erhalten bleiben.

Warum sollte man also mit 10bit v-log vergessen?



Antwort von Axel:

Warum sollte man also mit 10bit v-log vergessen?

"Vergessen" ist etwas krass formuliert. Man kann sich zum Beispiel (wie ich mit BMPCC Log, flat-as-it-gets) an lavendelblasse Bilder gewöhnen. Sehr ansprechend für Landschaften (wenn man im Nachhinein etwas Kontrast aus einem im Landschaften-Profil aufgenommenen Bild nimmt, hat man dasselbe).

Leider gibt es keine Beispiele im Netz, wo jemand aus einem Log-Bild durch Grading ästhetisch überzeugendere Hauttöne generiert hat als dies ein entsprechendes ("Portrait"-)Profil in-camera macht. Vielleicht ein, zwei Prozent erreichen das. Und diese Leute betreiben dann einen alchemistischen Aufwand, dem größter Respekt zu zollen ist.



Antwort von wolfgang:

Vielleicht ist das so, ich persönlich traue mir nicht zu zu beurteilen ob es sowas im Netz gibt denn ich habe danach auch nicht gesucht. Aber gehts dir bei den Hauttönen nicht primär darum, die richtigen Erinnerungsfarben zu haben, feine Abstufungen der Tonwerte zu bekommen und ausreichend viele Tonwerte zu haben? Um vom Videolook weg zu kommen? Aber hat das wirklich was mit einer log-Kurve/Übertragungsfunktion zu tun?



Antwort von iasi:

Warum sollte man also mit 10bit v-log vergessen?

"Vergessen" ist etwas krass formuliert. Man kann sich zum Beispiel (wie ich mit BMPCC Log, flat-as-it-gets) an lavendelblasse Bilder gewöhnen. Sehr ansprechend für Landschaften (wenn man im Nachhinein etwas Kontrast aus einem im Landschaften-Profil aufgenommenen Bild nimmt, hat man dasselbe).

Leider gibt es keine Beispiele im Netz, wo jemand aus einem Log-Bild durch Grading ästhetisch überzeugendere Hauttöne generiert hat als dies ein entsprechendes ("Portrait"-)Profil in-camera macht. Vielleicht ein, zwei Prozent erreichen das. Und diese Leute betreiben dann einen alchemistischen Aufwand, dem größter Respekt zu zollen ist.

man kann eben auch nicht alles haben.

Wenn der Kontrast derart hoch ist, dass man mit den Hauttönen bei der Belichtung weit nach unten muss, um die Lichter noch durchgezeichnet zu bekommen, wird es immer kritsch - selbst bei Raw.
10bit-Aufnahmen haben mit Ziel auf 8-bit immerhin noch Spielraum - da macht S-log sicherlich Sinn.

Bei 8bit-Aufnahmen scheint es mir aber so, dass man sich mit der log-Verwendung wohl besser auf ganz bestimmte Aufnahmesituationen beschränkt.
Aufnahmen, bei denen der maximale DR des Sensors gefragt ist und die bildwichtigen Teile (Hauttöne) im Licht sind bzw. aufgehellt werden können.



Antwort von Axel:

Es gibt drei Faktoren, die "ausreichend viele Farbwerte" beeinflussen:
1. Die richtigen Farben bei der Aufnahme, WB, korrekte Belichtung
2. Die Farbtiefe, sprich, die Zahl der gespeicherten Farben, 8-bit als Limit des theoretisch Sichtbaren
3. Die Farbauflösung (4:2:0 schlechter als 4:2:04:2:0 im Glossar erklärt schlechter als 4:4:4)

Faktor 1 wird stark unterschätzt. Hast du 10-bit 422, aber bist sowohl in Belichtung als auch in den Farben völlig daneben, kannst du das Ganze vergessen. Ich gebe also iasi Recht, wenn er sagt, Log ist kein Allheilmittel.



Antwort von iasi:

ja - mit ETTR ist es eben nicht getan



Antwort von Zac:

hm, ich verstehe vom ganzen eher wenig, und dass die rx10 ii keine Cinema-Camera ist, ist ja keine Frage. Trotzdem finde ich, dass die aufnahmen mit S-Log, oder auch v-log, deutlich besser aussehen, als ohne, die extra Dynamik sieht man eben, auch wenn RAW natürlich viel besser ist. Und ich finde es doch ziemlich toll, dass ich mit einer unauffälligen RX 10 ii auch an Orte hinkomme, wo ich die Ursa schon längst vergessen könnte, und doch recht schöne Ergebnisse erreichen kann. Wenn ich bedenke, das vor 2 Jahren noch eine Canon 600d als gut, und eine 5D als super galt, dann sehe ich keinen Grund zum jammern, alch wenn natürlich immer Luft nach oben ist... Und eine a7s oder so sieht ja noch schöner aus...



Antwort von wolfgang:

Ja es ist doch völlig klar dass 4:4:44:4:4 im Glossar erklärt besser ist als 4:2:24:2:2 im Glossar erklärt und das besser ist als 4:2:0. Und natürlich wird man sich unendlich leichter tun wenn man gleich richtig belichtet hat, und mit 12bit besser als 10bit besser als 8bit arbeitet.

Nur das ist ja tatsächlich der Punkt: weder ist eine Übertragungskurve ein Allheilmittel, noch kann es die korrekte Vorgehensweise in der Postpro ersparen. Wenn man sich für Porträtaufnahmen einfach leichter tut, wenn man mit entsprechenden Porträtprofilen arbeitet - und das vor allem noch bei 8bit - dann ist das ja auch völlig ok.

Also ich glaube man muss die Kirche im Dorf lassen. Ja log-Kurven können helfen die Tonwerte besser zu verteilen, und ja - das kann man in der Postpro entsprechend benutzen. Und ja, man wird sich mit 10 oder 12bit leichter tun - 8bit ist wohl mal wieder die abgespeckte Consumerversion, ähnlich wie uns die liebe Industrie auch DV, HDVHDV im Glossar erklärt oder AVCHDAVCHD im Glossar erklärt mit 420 "geschenkt" hat. s-log oder c-log oder v-log kann da schon noch was bringen - aber man wird vermutlich gerade bei 8bit an Grenzen stossen. Trotzdem wird es Bereiche geben wo das sinnvoll nutzbar ist - auch mit 8bit. Siehe das Testvideo hier - finde ich durchaus mal einen ersten interessanten Versuch:
http://forum.slashcam.de/testvideo-rx10 ... 4e6#804230



Antwort von iasi:

hm, ich verstehe vom ganzen eher wenig, und dass die rx10 ii keine Cinema-Camera ist, ist ja keine Frage. Trotzdem finde ich, dass die aufnahmen mit S-Log, oder auch v-log, deutlich besser aussehen, als ohne, die extra Dynamik sieht man eben, auch wenn RAW natürlich viel besser ist. Und ich finde es doch ziemlich toll, dass ich mit einer unauffälligen RX 10 ii auch an Orte hinkomme, wo ich die Ursa schon längst vergessen könnte, und doch recht schöne Ergebnisse erreichen kann. Wenn ich bedenke, das vor 2 Jahren noch eine Canon 600d als gut, und eine 5D als super galt, dann sehe ich keinen Grund zum jammern, alch wenn natürlich immer Luft nach oben ist... Und eine a7s oder so sieht ja noch schöner aus...

die Zeichnung in den Lichtern und den Schatten erkauft man sich aber eben ... umsonst gibt"s nicht"s ...
Im Beispiel mit den Mädchen sind es die Gesichter.

Bei deinem verlinkten Video sind es ganz allgemein die Mitten, die nach unten gehen. Man muss sie wieder aus dem Keller ziehen, was dann bei 8bit nicht unkritisch ist und eben auch Rauschen mit sich bringt.
Wenn es um den Himmel geht, mag"s ja gut sein, aber wenn"s z.B. auf die Fußballspieler ankommt, dann ...



Antwort von Axel:

Wenn es um den Himmel geht, (...) dann ...

Es geht zu oft um den Himmel. Wir wissen, wie der Himmel aussieht. Für verfilmte Kalenderbilder okay, aber in Wirklichkeit sagt ein nicht geclippter Himmel: Huhu, artifizielles HDR ohne informativen Mehrwert. Und im verlinkten slashCAM A7s-Test gefällt mir das profillose Bild am Schluss besser.

Und dabei bin ich ein kleiner Purist. Kartoffelbrei aus der Tüte kommt für mich nicht in Frage. Jedem das Seine.



Antwort von wolfgang:

Na die Himmelsfarbe ist genauso eine Erinnerungsfarbe wie Hauttöne oder Gras. Nur nochmals - ob das mit einer Übertragungsfunktion wie v-log wirklich so verknüpft ist, das ist für mich ein Fragezeichen.



Antwort von WoWu:

@ Iasi
na - aber man sollte sich eben schon darüber im klaren sein, dass die Verwendung dieses Werkzeuges zuerst einmal auch "Unterbelichtung" bedeutet.
Das sieht man im Video recht gut, wenn man die Gesichter der Mädchen betrachtet.
Das sieht man am Bild eben NICHT, denn das Video ist in allen Teilen (technisch) korrekt beleuchtet, was nicht heisst, das es ausgeleuchtet ist.
Die Unterbelichtung eines 12 BitBit im Glossar erklärt Sensors über die Strecke nach 8Bit 709 bringt einen Verlust von rd. 5 Blenden und führt zu einem Dynamikverlust von rd. 67% gegenüber der Originaldynamik.
Du hast aber auch nur noch rd. 18 Grauwerte pro Blende.
(Banding lässt grüssen)
So eine Unterbelichtung liegt aber in dem Beispiel nicht vor.

Unter dem Strich hast Du also mit einer Unterbelichtung von nicht mal einer BlendeBlende im Glossar erklärt eines 12 BitBit im Glossar erklärt Sensors und LOG Verarbeitung effektiv weniger Dynamik als in einem 8Bit linear Signal (8 Blenden).
Nur die Gewichtung führt eben zu einem andern Bildeindruck.



Antwort von mash_gh4:

um jedes mögliche gegenüber mit besonders aussagekräftigen grafilken weiter zu erschlagen, hier zwei zusätzliche simple plots. es möge die die hiesige kurvendiskussion beflügeln...

wie es musikern lange zeit gelungen ist, in lächerlichen sieben dafür genutzen bits des midi-protokolls ganze notenskalen unterzubringen, auch wenn dabei natürlich pro oktave nur reichlich wenig zwischentöne möglich waren , wird mir immer mehr ein rätsel.
aber gut, laut WoWo dürften höregeräte mit 8bit "dynamik" ohnehin nur ganzzahlige frequenzen bis 255Hz wiedergeben. ;)



Antwort von WoWu:

tja es ist schon traurig.
Nach Deiner Hypothese , dass die Physik nicht stimmt, würde man in 10 BitBit im Glossar erklärt also nicht 255 (bzw. in 10bit 1024 usw) Grauabstufungen, sondern eine Vielzalh davon -die Menge lässt sich weder aus den Kurven, noch aus der fehlenden Funktion ersehen)
Merkst Du eigentlich, das Du das mal den Herstellern vermitteln solltest, dann bräuchten wir nämlich nur noch 2 BitBit im Glossar erklärt Equipment und könnten uns den ganzen Quatsch mit RAW / 16/14/12/10 BitBit im Glossar erklärt usw nämlich schenken.
Und für Dich wäre ein Nobelpreis drin.

Und wenn Du Dir -wie Du selbst sagst-Vorgänge in der Audioübertragung nicht erklären kannst, dann empfehle ich die passende Literatur statt Blogpostings und vielleicht auch mal einen Blick darauf zu werfen, wie bandbegrenzte Signale entstehen.
Aber mit ein paar Basiskenntnissen würde ich, an Deiner Stelle, erst einmal anfangen.



Antwort von cantsin:


wie es musikern lange zeit gelungen ist, in lächerlichen sieben dafür genutzen bits des midi-protokolls ganze notenskalen unterzubringen, auch wenn dabei natürlich pro oktave nur reichlich wenig zwischentöne möglich waren , wird mir immer mehr ein rätsel. . ;)

Auch mit Smiley funktioniert Ironie nicht gut in Netzforen. Daher: Dass MIDI kein Tonaufzeichnungsprotokoll ist (und daher in seinen 7 BitBit im Glossar erklärt keine Kurven überträgt), war Dir hoffentlich klar? Ansonsten ist der Vergleich nämlich so sinnvoll wie der, ob man mit den wenigen BitBit im Glossar erklärt einer LANC-Steuerung auch Raw-Video aufnehmen lassen kann oder nicht.



Antwort von mash_gh4:

Nach Deiner Hypothese , dass die Physik nicht stimmt, würde man in BitBit im Glossar erklärt also nicht 255 (bzw. in 10bit 1024 usw) Grauabstufungen, sondern eine Vielzalh davon -die Menge lässt sich weder aus den Kurven, noch aus der fehlenden Funktion ersehen)

natürlich geht es nicht ohne verluste, aber mit geeigneter quantisierung lassen sich durchaus größere mengen an ausgangswerte auf kleiner skalen sinvoll abbilden. wenn man sich dabei an der menschlichen wahrnehmung orientiert und geeignete methoden wählt, kann das ergebnis recht befriedigend ausfallen und auch große kontraste effizient fassen.

natürlich ist das ausgesprochen trivial -- sollte also normalerweise gar keiner besonderen erwähnung bedürfen, weil es ohnehin fast überall praktiziert wird...

trotzdem kann man dem natürlich weiterhin strikt entgegen treten und etwas über die theoretisch begründeten einschänkungen linearer 8bit verarbeitung zum besten geben, auch wenn letztere ja in der praxis gar keine rolle spiet ist bzw. entsprechernde einschränkungen nirgendwo praktisch zum tragen kommen.



Antwort von wolfgang:

trotzdem kann man dem natürlich weiterhin strikt entgegen treten und etwas über die theoretisch begründeten einschänkungen linearer 8bit verarbeitung zum besten geben, auch wenn letztere ja in der praxis gar keine rolle spiet ist bzw. entsprechernde einschränkungen nirgendwo praktisch zum tragen kommen.

NBoch nie Probleme mit banding gehabt? Noch nie die Limits von 8bit 420 gesehen (keying, bestimmte Farboperationen)? Also ich sehe da schon Praxisprobleme, die sehr wohl praktisch zum tragen kommen.

Und wenn hier wenigstens von 8bit Lieferformat die Rede wäre - aber hier wird ja explizit von der 8bit Verarbeitung gesprochen.



Antwort von mash_gh4:

Dass MIDI kein Tonaufzeichnungsprotokoll ist (und daher in seinen 7 BitBit im Glossar erklärt keine Kurven überträgt), war Dir hoffentlich klar? Ansonsten ist der Vergleich nämlich so sinnvoll wie der, ob man mit den wenigen BitBit im Glossar erklärt einer LANC-Steuerung auch Raw-Video aufnehmen lassen kann oder nicht.

ja -- du hast es erfasst! :)

technisch gesehen wäre natürlich a-law und u-law codierung deutlich treffender...

aber auch dabei geht's in wahrheit nur darum, dass log-codierung von gemessenen werten der menschlichen wahrnehmung in vielen bereichen besser gerecht wird und mit einfachen mitteln eine optimalere ausnutzung beschränkter übertragungswege ermöglicht.

ich hab ganz bewusst so untreffend/daneben argumentiert, weil mir das recht charakteristisch für die hiesige diskussion erscheint. ;)



Antwort von mash_gh4:

Und wenn hier wenigstens von 8bit Lieferformat die Rede wäre - aber hier wird ja explizit von der 8bit Verarbeitung gesprochen.

ja -- ich sprech ganz bewusst von der absurdität einer 8-bit verarbeitung, den intern werden in den nachbearbeitungsprogrammen die betreffenden werte normalerweise wieder mittels 32bit fließkommzahlen bearbeitet. darum können bei entsprechender kodierung auch wesentlich größere kontraste (=dynamik) trotz 8bit auflösung übermittelt werden, auch wenn dabei unheimlich viele zwischenwerte der rundung/quantisierung zum opfer fallen.

Noch nie Probleme mit banding gehabt? Noch nie die Limits von 8bit 420 gesehen (keying, bestimmte Farboperationen)? Also ich sehe da schon Praxisprobleme, die sehr wohl praktisch zum tragen kommen.

farbunterabtatstung hab ich persönlich bisher noch nie als wirkliche einschänkung in der praxis erlebt. gut -- ich bin notfalls in der lage die betreffenden unterschiede in den konturen mit entsprechenden hilfmitteln zu erkennen, aber in der praxis hat es für mich bisher noch nie eine wirklich bedeutsame rolle gespielt. allerdings nehm ich ja praktisch alles in 4k auf und nutze ich es doch nur für 1080p1080p im Glossar erklärt timelines -- im wesentlichen nur deshalb, weil die skalierung außerhalb der kamera saubere resulate bringt -- damit fällt natürlich auch die ursprüngliche einbuße durch unterabtastung weg, die allerdings meinem gefühl nach ohnehin ganz gut zu den tatsächlichen fabauflösungsbeschränkungen beim debayering bzw. der tatsächlichen pixelanzahl am sensor passt...

banding bzw. ähnliche einschränkungen in der nachbearbeitung kenne ich allerdings sehr wohl. hier sehe ich allerdings das problem eher darin, dass bei traditionellem rec709 und den dort gebräuchlichen gamma-kurven in den äußeren bereichen nicht mehr genügend werte zur verfgügung stehen, um der tatsächlichen abbildungsdynamik heutiger sensoren gerecht zu werden.

um aus der praxis zu sprechen: als vor ein paar jahren die ersten CHDK-hacks plötzlich ein direktes auslesen der raw-daten aus billigen canon kameras ermöglicht haben, war das ziemlich ernüchternd, weil die entsprechenden sensoren und analog-digital wandler in wahrheit auch auf diese weise gar nicht so viel mehr daten zu liefern vermochten, um eine spürbare verbesserung in der nachbearbeitung und den resultaten erkennen zu können. das hat sich mittlerweile wirklich ganz massiv geändert. wenn du heute die raw-daten direkt aus dem GH4 sensor -- bspw. in zeitraffersequenzen -- mit dem vergleichst, was du im fertig gebackenen videosignal vorfindest, ist das wie tag und nacht!

ich hab keinen shogun -- kann also nicht wirklich sagen, wie sehr man auf diesem umweg den entsprechenden einschränkungen entgegen treten kann --, trotzdem ist mir auf grund praktischer messreihen bekannt, wie eng die lichter in den gebräuchlichen aufnahmeprofilen tatsächlich gestaucht werden. das ist leider so wild, dass sich der 10bit-8bit-vorsprung geradezu lächerlich ausnimmt im vergleich zur behandlung zentraler blendenwerte gegenüber blendenstufen in den randbereichen.

ich bin wirklich weit davon entfernt, irgendwelche speziellen aufnahme-profile als ein generelles wundermittel zu erhoffen! man kann sich nur bemühen, das problem klar zu erkennen und möglichst optimale kompromisse für die jeweilige aufnahmesituation zu finden.
wobei ich ohnehin bereits fallen gelassen habe, dass die wunderbarsten einstellmöglichkeiten, kamera spezifischen profile und persönlich modifizierten übertragungskurven mir nur bedingt sinnvoll erscheinen, wenn man sie in der nachbearbeitung nur sehr umständlich und grob wieder in einheitliche abbildungsräume zurückübertragen kann.



Antwort von WoWu:

Nach Deiner Hypothese , dass die Physik nicht stimmt, würde man in BitBit im Glossar erklärt also nicht 255 (bzw. in 10bit 1024 usw) Grauabstufungen, sondern eine Vielzalh davon -die Menge lässt sich weder aus den Kurven, noch aus der fehlenden Funktion ersehen)

natürlich geht es nicht ohne verluste, aber mit geeigneter quantisierung lassen sich durchaus größere mengen an ausgangswerte auf kleiner skalen sinvoll abbilden. wenn man sich dabei an der menschlichen wahrnehmung orientiert und geeignete methoden wählt, kann das ergebnis recht befriedigend ausfallen und auch große kontraste effizient fassen.

natürlich ist das ausgesprochen trivial -- sollte also normalerweise gar keiner besonderen erwähnung bedürfen, weil es ohnehin fast überall praktiziert wird...

trotzdem kann man dem natürlich weiterhin strikt entgegen treten und etwas über die theoretisch begründeten einschänkungen linearer 8bit verarbeitung zum besten geben, auch wenn letztere ja in der praxis gar keine rolle spiet ist bzw. entsprechernde einschränkungen nirgendwo praktisch zum tragen kommen.

Das ist derartig allgemein gehaltener ***, den Du da erzählst, dass es aus jeder beliebigen Marketingabteilung stammen könnte.
Dein Kenntnisstand in Sachen Vodeotechnik ist NULL und mit dem *** kannst du bestenfalls ein paar Spinner in irgendwelchen Blogs hinter dem Ofen vorlocken.
Komm wieder, wenn Du Falkten hast denn die Vodeotechnik funktioniert nicht mit schlauen Sprüchen sondern mit nachvollziehbarer Physik.



Antwort von mash_gh4:

Das ist derartig allgemein gehaltener Bullshit, den Du da erzählst, dass es aus jeder beliebigen Marketingabteilung stammen könnte.
Dein Kenntnisstand in Sachen Vodeotechnik ist NULL und mit dem Gesülze kannst du bestenfalls ein paar Spinner in irgendwelchen Blogs hinter dem Ofen vorlocken.
Komm wieder, wenn Du Falkten hast denn die Vodeotechnik funktioniert nicht mit schlauen Sprüchen sondern mit nachvollziehbarer Physik.

ich hab kein problem damit, wenn du das so siehst.
in wahrheit erlebe ich ja deine ausführungen bzw. die relvanz, die ich ihnen zuschreiben würde, leider ganz ähnlich.

aber, was soll's!

in einem form wie diesem, wo es einfach auch darum gehen muss, dass nicht immer nur der schwachsinn der lautesten den ton angeben soll, soll auch das platz haben...

kann gut sein, dass ich mich letztlich auch nur irre.



Antwort von WoWu:

Ja das stimmt für "Herrmann Löns" ist selbst in einem Videoforum Platz.



Antwort von iasi:

@ Iasi
na - aber man sollte sich eben schon darüber im klaren sein, dass die Verwendung dieses Werkzeuges zuerst einmal auch "Unterbelichtung" bedeutet.
Das sieht man im Video recht gut, wenn man die Gesichter der Mädchen betrachtet.
Das sieht man am Bild eben NICHT, denn das Video ist in allen Teilen (technisch) korrekt beleuchtet, was nicht heisst, das es ausgeleuchtet ist.
Die Unterbelichtung eines 12 BitBit im Glossar erklärt Sensors über die Strecke nach 8Bit 709 bringt einen Verlust von rd. 5 Blenden und führt zu einem Dynamikverlust von rd. 67% gegenüber der Originaldynamik.
Du hast aber auch nur noch rd. 18 Grauwerte pro Blende.
(Banding lässt grüssen)
So eine Unterbelichtung liegt aber in dem Beispiel nicht vor.

Unter dem Strich hast Du also mit einer Unterbelichtung von nicht mal einer BlendeBlende im Glossar erklärt eines 12 BitBit im Glossar erklärt Sensors und LOG Verarbeitung effektiv weniger Dynamik als in einem 8Bit linear Signal (8 Blenden).
Nur die Gewichtung führt eben zu einem andern Bildeindruck.

Die Hauttöne sind eindeutig knapper belichtet, um eben die Lichter zu erhalten.
Und natürlich sieht man das.
Man erhält zwar die Zeichnung in den Lichtern und in den Schatten, drückt aber die Mitten zusammen - sieht man doch auch am Histogramm.
Und daher werden ja auch so hohe ISO-Werte bei S-log von Sony vorgegeben, was zu Unterbelichtung (geringere Lichtmenge) führt.

Dein "Verlust von rd. 5 Blenden" stimmt ganz offensichtlich nicht, wenn man sich Lichter und Schatten der S-log-Aufnahme betrachtet. Das Problem ist doch eher, dass der Mittenbereich gestaucht und nach unten verschoben wird.



Antwort von WoWu:

Schau dir die Kurvenfunktion einfach mal an und weil Funktionen nicht für jeden so einfach zu interpretieren sind, veröffentlichen die Firmen die entsprechenden Graphen
Daran siehst Du, was die Funktion in welchen Bereichen macht.

Das, was Du betreibt sind Vermutungen, die Du aus dem fertigen Bild interpretierst und einfach nur behauptest, dass die Kurve so arbeitet.
Vergiss es.
Die Kurve arbeitet so, wie die Funktion von Sony veröffentlicht ist.
Danach richtet sich jeder vernünftige Kameramann der Welt und richtet sein Licht entsprechend ein.
Das scheint aber bis auf den Amateurlevel noch nicht so richtig vorgedrungen zu sein.
Die zuvor genannten 5 blenden sind auf das oben genannte Beispiel bezogen.
Andere Funktionen führen zu ändern Ergebnissen, die allerdings auch ungünstiger sein können, je nachdem, wo der Cliplevel der Kamera liegt und wie sich die Funktion über den Gesamtbereich verhält.
Grössenordnungsmässig stimmt die KompressionKompression im Glossar erklärt allerdings.
Und überhaupt .... Wie willst du aus einer "Bildberichterstattern" sagen, ob es 4 oder 5 Blenden im mittleren Bereich sind, wo der Mensch schon 18% als 50% lichtveränderung ansieht.
Das wäre was für Hellseher.

Edit
Die s-Funktionen haben noch dazu verschobene 18% Werte, sodass Mittelgrau auch unterschiedlich hell erscheint, was Deine Betrachtung der Hauttöne zusätzlich beeinflusst.



Antwort von Zac:

Hey filmt Ihr auch, oder diskutiert Ihr nur???



Antwort von WoWu:

Ja, schon seit 40 Jahren.



Antwort von Zac:

...seit 40 Jahren, wenn ich nicht etwas wichtigeres zu tun habe... z. B. zu beweisen, dass s-log schlechter ist als RAW...



Antwort von WoWu:

Hab ich gar nicht vor, so einen Schwachsinn zu beweisen, weil es gänzlich verschiedene Dinge sind und man mit RAW völlig andere Ergebnisse erhalten kann, als mit einer Videoübertragung.
Wer sowas miteinander vergleicht, hat nichts von Beidem verstanden und wer glaubt, dass dies Gegenstand dieser Diskussion ist, kann offenbar nicht mal richtig lesen.



Antwort von srone:

nochmal, für all die, welche der diskussion offensichtlich nichtmal ansatzweise mehr folgen können, es geht um den gesamten ansatz, vom dreh zum finalen master, dazwischen habe ich diverse möglichkeiten zu agieren, die frage ist, wie stimme ich diese möglichkeiten aufeinander ab, um das bestmöglichste ergebnis zu erzielen?

und hier führen, eben wie immer, mehrere wege nach rom, es gibt hier nicht den "heiligen Gral", jedoch führt ein kompetentes abarbeiten, einzelner bereiche, weit überschaubarer zum ziel, als solche aussagen wie "log ist ein allheilmittel", nein, es ist eine möglichkeit von vielen und ich fordere hier die kompetenz des kameramannes ein, beurteilen zu können welcher weg der "beste" für die jeweilige produktion ist, denn dann darf man sich auch "dop" nennen, alles andere ist kalter kaffee.

lg

srone



Antwort von iasi:

Schau dir die Kurvenfunktion einfach mal an und weil Funktionen nicht für jeden so einfach zu interpretieren sind, veröffentlichen die Firmen die entsprechenden Graphen
Daran siehst Du, was die Funktion in welchen Bereichen macht.

Das, was Du betreibt sind Vermutungen, die Du aus dem fertigen Bild interpretierst und einfach nur behauptest, dass die Kurve so arbeitet.
Vergiss es.
Die Kurve arbeitet so, wie die Funktion von Sony veröffentlicht ist.
Danach richtet sich jeder vernünftige Kameramann der Welt und richtet sein Licht entsprechend ein.
Das scheint aber bis auf den Amateurlevel noch nicht so richtig vorgedrungen zu sein.
Die zuvor genannten 5 blenden sind auf das oben genannte Beispiel bezogen.
Andere Funktionen führen zu ändern Ergebnissen, die allerdings auch ungünstiger sein können, je nachdem, wo der Cliplevel der Kamera liegt und wie sich die Funktion über den Gesamtbereich verhält.
Grössenordnungsmässig stimmt die KompressionKompression im Glossar erklärt allerdings.
Und überhaupt .... Wie willst du aus einer "Bildberichterstattern" sagen, ob es 4 oder 5 Blenden im mittleren Bereich sind, wo der Mensch schon 18% als 50% lichtveränderung ansieht.
Das wäre was für Hellseher.

Edit
Die s-Funktionen haben noch dazu verschobene 18% Werte, sodass Mittelgrau auch unterschiedlich hell erscheint, was Deine Betrachtung der Hauttöne zusätzlich beeinflusst.

na siehst du - in deinem Edit sagst du doch genau das, was ich oben geschrieben hatte.

Übrigens:
http://blog.abelcine.com/2013/01/18/son ... rcentages/

http://www.xdcam-user.com/2014/08/expos ... -exposure/

Und:
Mehr Zeichnung in den Lichtern und in den Schatten nenne ich einen erweiterten DR. Und eben dies kann man anhand des Bildmaterials feststellen, während deine Behauptung mit den 5 Stufen Verlust eben nur eine Behauptung bleibt. Mir ist noch nicht mal klar, von welcher Bezugsgröße du bei deinem Verlust ausgehst.



Antwort von iasi:

nochmal, für all die, welche der diskussion offensichtlich nichtmal ansatzweise mehr folgen können, es geht um den gesamten ansatz, vom dreh zum finalen master, dazwischen habe ich diverse möglichkeiten zu agieren, die frage ist, wie stimme ich diese möglichkeiten aufeinander ab, um das bestmöglichste ergebnis zu erzielen?

und hier führen, eben wie immer, mehrere wege nach rom, es gibt hier nicht den "heiligen Gral", jedoch führt ein kompetentes abarbeiten, einzelner bereiche, weit überschaubarer zum ziel, als solche aussagen wie "log ist ein allheilmittel", nein, es ist eine möglichkeit von vielen und ich fordere hier die kompetenz des kameramannes ein, beurteilen zu können welcher weg der "beste" für die jeweilige produktion ist, denn dann darf man sich auch "dop" nennen, alles andere ist kalter kaffee.

lg

srone

nette Predigt

aber nun werdet eben auch mal konkret.

Beschreibe doch mal dein kompetentes Abarbeiten anhand eines konkreten Beispiels.

Wir reden hier über Kameras, aber WoWu schiebt Bildbeispiele beiseite, da sie nichts aussagen würden, verweist aber auf Grafiken - da denke ich mir: Da hat jemand das aus den Augen verloren, um was es eigentlich geht.

Und natürlich betrachte ich Videos aus dem Internet, denn dies ist eines der Zielformate, auf die es letztlich ankommt.



Antwort von srone:

Beschreibe doch mal dein kompetentes Abarbeiten anhand eines konkreten Beispiels.

1. bestimmung des gesamten dynamic ranges des sets, via externen belichtungsmessers (zb pentax analog).

2. entweder licht setzen oder je nach gewünschter stimmung, aufruf eines flachen profils (log) oder eben beides. (kameramans choice in bezug auf das gewünschte, sprich gekonntes und gewolltes belichten, auch in bezug auf das verwendete kamera-modell, mit all seinen eigenschaften).

3. finale farb/kontrast-korrektur in der post, eher marginal, da vorher (siehe pkt 2 ausgeleuchtet/abgeglichen)

4. ein noch marginalerer hauch von "finishing"

et voila, alles kein stress, sondern die gekonnte und gewollte kombination von möglichkeiten anhand von grundwissen.

lg

srone



Antwort von TaoTao:

Meister Srone hat gesprochen, schweigt still und lauscht seinen edlen und erleuchtenden Worten.



Antwort von WoWu:

na siehst du - in deinem Edit sagst du doch genau das, was ich oben geschrieben hatte.

Na siehst Du IASI: Du hast es inhaltlich wieder nicht verstanden.
Oben redest Du von Hauttönen, siehst aber nicht, dass allein die LOG Kurven von Sony völlig andere Grauwerte für 18% abliefern und schon das allein Dir deine "Sichtkontrolle" um die Ohren haut.
Du erkennst offenbar die Zusammenhänge nicht, schaust Dir bunte Bilder an, die dir entweder gefallen, oder auch nicht, dann schaust Du darauf, welche LOG Kurve der Anwender benutzt hat und verlierst völlig aus den Augen, dass es noch andere "Stellschrauben" gibt, um gute Bilder zu machen.
(Eine Stellschraube im Hinblick auf Dynamik ist auch die Belichtung).

Dann gehst Du einerseits her und sagst, Dynamik ist für mich das, was ich für Dynamik halte, auf der andern Seite hechelst Du, wenn irgendein Kamerahersteller sagt, er könne eine BlendeBlende im Glossar erklärt mehr verarbeiten, ohne überhaupt zu merken, dass die BlendeBlende im Glossar erklärt in der LOG Kurve lediglich durch eine andere Zählweise entstanden ist.

Lassen wir dabei, dass Du die Kamera auf Automatik stellst und Dich dann auch nicht mehr irgendwelche Einstellungen kümmern musst, deren Wirkungen Dir ohnehin nicht klar sind.

Da bist Du dann auch in bester Gesellschaft mit ein paar Anderen hier, für die Dynamik auch das ist, "was ans Herz geht" und schön grau aussieht.



Antwort von iasi:

Beschreibe doch mal dein kompetentes Abarbeiten anhand eines konkreten Beispiels.

1. bestimmung des gesamten dynamic ranges des sets, via externen belichtungsmessers (zb pentax analog).

2. entweder licht setzen oder je nach gewünschter stimmung, aufruf eines flachen profils (log) oder eben beides. (kameramans choice in bezug auf das gewünschte, sprich gekonntes und gewolltes belichten, auch in bezug auf das verwendete kamera-modell, mit all seinen eigenschaften).

3. finale farb/kontrast-korrektur in der post, eher marginal, da vorher (siehe pkt 2 ausgeleuchtet/abgeglichen)

4. ein noch marginalerer hauch von "finishing"

et voila, alles kein stress, sondern die gekonnte und gewollte kombination von möglichkeiten anhand von grundwissen.

lg

srone

Punkt 2 ist der Knackpunkt.
Die Frage bleibt: Wie wird belichtet?



Antwort von WoWu:

Na so, dass Du nicht die ganze Dynamik in die Tonne trittst.

Und wenn du in einem niedrigeren Weissbereich arbeiten willst, dann nimmt man eine Übertragungskurve, die einen tiefen Weisspunkt unterstützt, z.B.die Cineon Funktion.
Dann behältst Du für die Spizlicher den vollen Dynamikumfang und arbeitest mit Weiß in einem tieferen Bereich.
Das funktioniert aber nur bei den Kameraleuten, die die unterschiedlichen LOG Kurven auch kennen und wissen, wie man sie einsetzt.
Denen stellen sich solche Fragen, wie man belichten soll nämlich nicht.



Antwort von domain:


1. bestimmung des gesamten dynamic ranges des sets, via externen belichtungsmessers (zb pentax analog).

Externe gewöhnliche Belichtungsmesser taugen aber für Log-Belichtungen nur nach entsprechender Justierung, weil sie von der bisher üblichen Tatsache ausgehen, dass 18% Licht bereits bei 50% im WaveformmonitorWaveformmonitor im Glossar erklärt liegen. Und genau das ist eben nicht mehr der Fall. Also kommt es bei ihnen (konventionell angewandt) immer zu einer kapitalen Überbelichtung. Der Witz bei Log ist ja gerade, dass auf die Lichter gemessen wird und damit ergeben sich natürlich locker 800 bis 1600 ISO als scheinbar native Empfindlichkeit von Sensoren.



Antwort von klusterdegenerierung:

Man man man, hier geht es aber wieder heiß her und dann auch noch zu den ewig gleichen Themen, die doch hier schon immer mehr ein Gefühlssache waren!

Erinnert mich ans damalige Sound machen mit meinen Jungs, wir waren alle Steinbreit und haben grundsätzlich aneinander vorbei gespielt! ;-)
Jeder hat was anderes gehört, aber irgendwie hatten wir alle das diffuse Gefühl
das es geil ist!

Vielleicht sollten wir es hier auch dabei belassen? :-))



Antwort von Zac:

no way, dafür langweilen sich hier einige zu sehr...



Antwort von WoWu:

Oder fassen sich -aus den unterschiedlichsten Gründen-an den Kopf.



Antwort von iasi:

na siehst du - in deinem Edit sagst du doch genau das, was ich oben geschrieben hatte.

Na siehst Du IASI: Du hast es inhaltlich wieder nicht verstanden.
Oben redest Du von Hauttönen, siehst aber nicht, dass allein die LOG Kurven von Sony völlig andere Grauwerte für 18% abliefern und schon das allein Dir deine "Sichtkontrolle" um die Ohren haut.
Du erkennst offenbar die Zusammenhänge nicht, schaust Dir bunte Bilder an, die dir entweder gefallen, oder auch nicht, dann schaust Du darauf, welche LOG Kurve der Anwender benutzt hat und verlierst völlig aus den Augen, dass es noch andere "Stellschrauben" gibt, um gute Bilder zu machen.
(Eine Stellschraube im Hinblick auf Dynamik ist auch die Belichtung).

Dann gehst Du einerseits her und sagst, Dynamik ist für mich das, was ich für Dynamik halte, auf der andern Seite hechelst Du, wenn irgendein Kamerahersteller sagt, er könne eine BlendeBlende im Glossar erklärt mehr verarbeiten, ohne überhaupt zu merken, dass die BlendeBlende im Glossar erklärt in der LOG Kurve lediglich durch eine andere Zählweise entstanden ist.

Lassen wir dabei, dass Du die Kamera auf Automatik stellst und Dich dann auch nicht mehr irgendwelche Einstellungen kümmern musst, deren Wirkungen Dir ohnehin nicht klar sind.

Da bist Du dann auch in bester Gesellschaft mit ein paar Anderen hier, für die Dynamik auch das ist, "was ans Herz geht" und schön grau aussieht.

Redest du nun eigentlich nur noch, damit geredet wird?

Deine Behauptung hast du damit jedenfalls 0,00x untermauert.



Antwort von WoWu:

Da bin ich aber froh, dass das einer sagt, der das auch beurteilen kann.



Antwort von iasi:

Da bin ich aber froh, dass das einer sagt, der das auch beurteilen kann.

ja - kann er - und dabei muss er das noch nicht mal ständig groß herausstellen ...

Vor allem tut er nicht so, als ob er schlau und die anderen nur dumm wären - nur damit er das Gefühl hat, Recht zu behalten ...



Antwort von srone:


1. bestimmung des gesamten dynamic ranges des sets, via externen belichtungsmessers (zb pentax analog).

Externe gewöhnliche Belichtungsmesser taugen aber für Log-Belichtungen nur nach entsprechender Justierung, weil sie von der bisher üblichen Tatsache ausgehen, dass 18% Licht bereits bei 50% im WaveformmonitorWaveformmonitor im Glossar erklärt liegen. Und genau das ist eben nicht mehr der Fall. Also kommt es bei ihnen (konventionell angewandt) immer zu einer kapitalen Überbelichtung. Der Witz bei Log ist ja gerade, dass auf die Lichter gemessen wird und damit ergeben sich natürlich locker 800 bis 1600 ISO als scheinbar native Empfindlichkeit von Sensoren.

moment domain, es geht um das bestimmen des dunkelstens und hellstens punktes, damit interessiert mich 18% grau gar nicht, es geht um den dynamic range, wie ich selbigen einordne, ist eine kreative entscheidung meinerseits, in bezug auf das benutzte kameramodell, sowie seine verfügbaren eigenschaften (raw/log/etc).

lg

srone



Antwort von WoWu:

Domain
Die ISO ergibt sich auch nicht aus der LOG Kurve sondern aus den Werten des Störabstandes.



Antwort von srone:

Meister Srone hat gesprochen, schweigt still und lauscht seinen edlen und erleuchtenden Worten.

ne bessere idee?

lg

srone



Antwort von Starshine Pictures:

Kann sich einer von den Ingenieuren hier im Forum mal ein Herz fassen und das Ganze für den Nicht-Physiker praktisch darstellen? Dann hätte eure zerfleischende Diskussion am Ende vielleicht doch noch einen Sinn für uns Dilettanten.

Das was ich mir bis jetzt mal so ins Doofen-Deutsch übersetzt habe:
Ich filme mittags bei hellstem Sonnenschein, oder abends gegen die Sonne oder nachts zwischen hellen Werbetafeln und dunklen Ecken -> Unterschiede zwischen dem hellsten und dem dunkelsten Punkt im Bild sind riesig -> LOG oder jeweils ein flaches Bildprofil um möglichst alles an Licht (von wenig bis viel) ins Bild zu bekommen

Ich filme in einem dunklen Raum mit schummrigen Licht, oder draussen bei starker Bewölkung -> unterschied zwischen dem hellsten und dem dunkelsten Punkt im Bild ist relativ gering -> Bildprofil mit höherem Kontrast (kein LOG) um der geringen Dynamik mehr "Raum" zu geben als in einem flachen Profil.

Hab ich das so einigermassen kapiert?



Antwort von srone:

Kann sich einer von den Ingenieuren hier im Forum mal ein Herz fassen und das Ganze für den Nicht-Physiker praktisch darstellen? Dann hätte eure zerfleischende Diskussion am Ende vielleicht doch noch einen Sinn für uns Dilettanten.

Das was ich mir bis jetzt mal so ins Doofen-Deutsch übersetzt habe:
Ich filme mittags bei hellstem Sonnenschein, oder abends gegen die Sonne oder nachts zwischen hellen Werbetafeln und dunklen Ecken -> Unterschiede zwischen dem hellsten und dem dunkelsten Punkt im Bild sind riesig -> LOG oder jeweils ein flaches Bildprofil um möglichst alles an Licht (von wenig bis viel) ins Bild zu bekommen

Ich filme in einem dunklen Raum mit schummrigen Licht, oder draussen bei starker Bewölkung -> unterschied zwischen dem hellsten und dem dunkelsten Punkt im Bild ist relativ gering -> Bildprofil mit höherem Kontrast (kein LOG) um der geringen Dynamik mehr "Raum" zu geben als in einem flachen Profil.

Hab ich das so einigermassen kapiert?

ja, do it. ;-)

darum geht es, gegebenheiten in ein passendes profil zu packen, um ein maximum an editierbaren werten für die post, selbst in 8bit zu erzeugen.

lg

srone



Antwort von Starshine Pictures:

BÄM!

Und nun noch mal zur Belichtung.
Wenn ich also unter sehr kontrastreichen Bedingungen mit Log oder einem anderen flachen Bilprofil filme versuche ich so hell wie möglich zu sein, gerade so dass mir die hellsten Lichter noch nicht clippen? Sollte das aber nicht ausreichen um ein Motiv im dunkleren Bereich ausreichend erkennbar zu belichten, zum Beispiel eine wunderschöne Prinzessin die aus dem Fenster eines finsteren Kerkers in die sonnige Landschaft hinaus schaut, muss ich in den sauren Apfel beissen und mich für eins entscheiden. Landschaft oder Prinzessin. Richtig?

Und wie ist es dann mit einem hohen Kontrastprofil bei geringen Beleuchtungsunterschieden? Gibt es da ebenfalls eine Faustregel wie ich belichte? Oder ist das dann irgendwie nach Gefühl und frei Schnauze, hauptsache es sieht gut aus aufm Monitor?



Antwort von WoWu:

Wenn du darauf achtest, dass das HistogrammHistogramm im Glossar erklärt den Punkt erfasst, den Du als Licht identifiziert hast, das den Klippunkt erreicht, dann bist du schon auf der dynamischen Seite.
Wenn du Weiss weicher auslaufen lassen willst, nimmst Du eine Kurve mit einem niedrig definierten Weisspunkt, sodass oberhalb vom Weisspunkt noch Dynamik benutzt werden kann, die mit relativ vielen Stufen noch ausläuft.
Wenn Du dunkle Szenen hast, in denen kein Spitzlicht oder weiße Flächen vorkommen, kann es auch kein Weiß geben, und du lebst mit der Restdynamik. (Weil die Szene ja auch nicht mehr Dynamik hat)
Das war auch ohne LOg so und wird wohl auch immer so bleiben denn richtige Belichtung orientiert sich ja nicht nur am SW sondern auch an WS. Gibt es kein WS im Bild gibt es auch kein FW, wohl aber einen definierten Weisspunkt, der irgendwo im oberen Bereich der LOg Kurve liegt, je nachdem, welche Kurve du benutzt.
Wichtig ist, dass man weiß, was die Kurve macht und dazu sind die Kurven, damit man eine Übertragungsfunktion wählt, die so nah wie möglich am Ergebnis liegt, denn mit jeder Nachbearbeitung, die nicht erforderlich wäre, spreizt Du Dein Ergebnis und reduzierst so die Dynamik.
Das HistogrammHistogramm im Glossar erklärt oder die richtige Interpretation des WF (senkrecht ablesen) ist also Dein Hilfsmittel Vorort.

Das ganze Thema ist eigentlich ziemlich trivial. Und auch die Wahl der LOg Kurve ist easy. Man darf eben nur nicht den Bildeindruck mit Dynamik verwechseln, wie das hier immer wieder geschieht.
Dann hast du auch noch genügend Werte, wenn das Ganze hinterher nach 8Bit gebracht wird.
Sinnvoll ist es auch, wenn Du in 10 BitBit im Glossar erklärt Footage arbeitest, erst das fertige Produkt nach 8Bit zu bringen, weil dann evt. Erforderliche Spreizungen noch mit Werten aus 10Bit vermieden werden, die -würde man in 8Bit bearbeiten, unvermeidlich zur Dynamikkomprssion hören würden.



Antwort von srone:

BÄM!

Und nun noch mal zur Belichtung.
Wenn ich also unter sehr kontrastreichen Bedingungen mit Log oder einem anderen flachen Bilprofil filme versuche ich so hell wie möglich zu sein, gerade so dass mir die hellsten Lichter noch nicht clippen? Sollte das aber nicht ausreichen um ein Motiv im dunkleren Bereich ausreichend erkennbar zu belichten, zum Beispiel eine wunderschöne Prinzessin die aus dem Fenster eines finsteren Kerkers in die sonnige Landschaft hinaus schaut, muss ich in den sauren Apfel beissen und mich für eins entscheiden. Landschaft oder Prinzessin. Richtig?

Und wie ist es dann mit einem hohen Kontrastprofil bei geringen Beleuchtungsunterschieden? Gibt es da ebenfalls eine Faustregel wie ich belichte? Oder ist das dann irgendwie nach Gefühl und frei Schnauze, hauptsache es sieht gut aus aufm Monitor?

entscheide du, du bist der "dop" ;-), im zweifel gewinnt die prinzessin.

der bildwichtige teil ist die entscheidung, whats your story?, warum dann ein high-contrast-profil? lieber dann ein steiles profil, welches genug werte, selbst in 8bit generiert, um in der post zu bestehen.

lg

srone



Antwort von srone:

lieber wowu,

trotz allem engagements hier bei slashcam, stelle ich mir langsam die frage, wozu, man kommt sich vor wie don quichote, ein kampf gegen windmühlen, technisches unverständnis etc, per se angefeindet von amateuren, ich bewundere dein durchhaltevermögen und freue mich jeden tag aufs neue, mich mit dir austtauschen zu können. :-)

lg

srone



Antwort von WoWu:

@Stephan
Ein Bild sagt mehr als 1000 Worte.
Hier nochmal die Fortsetzung der obigen Grafik (über 10 BitBit im Glossar erklärt nach 8Bit) mit der Auskorrektur der Unterbelichtung, wenn erst in 8 BitBit im Glossar erklärt bearbeitet wird.
Eine LOG Funktion ist wie jedes andere Tool und entscheidet sich, wie srone schon sagte, am Objekt. Du setzt auch nicht generell irgendein x-beliebiges Filter drauf sondern überlegst auch von Fall zu Fall, welches Filter das richtige in der Anwendung ist.



Antwort von Starshine Pictures:

Klar, wenn mir natürlich trotz flachem Profil die Prinzessin absäuft und die Landschaft clippt muss ich mich entscheiden. Und im Zweifel dann zu einem steilen Profil greifen um einer der beiden "Helligkeiten" wiederrum ausreichend Platz in meinen Aufzeichnungen zu geben. Ok, jetzt hats mal Klick gemacht. Das war eine wichtige Erkenntnis.

Nochmal zu diesem ominösen Weisspunkt. Was ist da genau der Unterschied zum Clipp? Weil in weiss noch Informationen drin sind, im Clipp aber nix mehr? Und wie finde ich heraus wo nun Weiss bei meiner Profil Kurve ist? Zum Beispiel bei C-Log in meiner C100? 80%, 90%, 98%? Muss das jeder für sich austesten oder gibt es da Aufzeichnungen drüber? Und was ist wenn der hellste Punkt im Bild nicht weiss ist sondern grün? Hat das irgend einen Einfluss?

Zu deiner letzten Grafik: Was beinhaltet der lila Teil? Ist das der Part zwischen Weiss und Clipp?

Und wegen diesem 8 BitBit im Glossar erklärt und 10 BitBit im Glossar erklärt Gedöns. Ich bin mir ziemlich sicher dass neben den Blackmagic Usern hier im Forum keine 5% in 10 BitBit im Glossar erklärt filmen oder gar betrachten. Deshalb sehe ich das als unnötigen Grabenkrieg ohne Soldaten an.



Antwort von mash_gh4:



ganz so trivial, dass man sich nur zw. steil oder flach entscheiden müsste, ist die sache dann leider auch nicht.

so lang die entsprechenden profile nur genutzt werden, um ohne große umweg direkt ein einigermaßen ansehnliches rec709 resultat zu erzielen, mag das schon reichen, aber darüber hinaus (ACES workflow etc.), macht es schon einen gewaltigen unterschied, wie gleichmäßig und nachvollziehbar die werte tatsächlich verteilt sind... wie weit man tatsächlich spielräume für sauber kompensierbare belichtungskorrekturen/-verschiebungen zur verfügung hat, etc.



Antwort von srone:

ab dem clip, ist keine information im weiss mehr da, wieviel information brauche ich im schwarz um der prinzessin gerecht zu werden?

its your job dies abzuwägen, in bezug auf wieviel bit, welche log funktion ist vorhanden und wie verhält sich selbige?

lg

srone



Antwort von Starshine Pictures:

@srone
Ich finds ja auch genial dass hier auch Diskussionen auf hohem technischen Niveau laufen. Aber irgendwie wärs doch toll wenn ihr das am Ende noch etwas praktischer erkären könntet. Eine Art Fazit wie es der Nicht-Ingenieur nutzen kann was ihr euch ausbaldowert habt. Simplicity sollte das Stichwort sein. Wenn ich dir im Krankenhaus eine Tablette gegen deine Kopfschmerzen gebe willst du auch nicht wissen an welche Rezeptoren da welche Stoffe andocken um die Signalübertragung deiner Nerven zu hemmen. Da willst du wissen wie lange dauert es bis die Wirkung einsetzt und wie oft am Tag darf ich die nehmen.



Antwort von domain:

Die sauber kompensierbaren nachträglichen Belichtungskorrekturen sind im Grunde ja nur ein Zeichen für die Unfähigkeit der Videografen von Haus aus richtig zu belichten, wie im Analogfilm. Aber das scheint neuerdings ja ein wirkliches Problem geworden zu sein. Da müssen sogar externe uralte Belichtungsmesser herhalten, die nie für Log-Belichtungen gedacht waren.
Schöne neue Videowelt, na Mahlzeit.



Antwort von srone:



ganz so trivial, dass man sich nur zw. steil oder flach entscheiden müsste, ist die sache dann leider auch nicht.

so lang die entsprechenden profile nur genutzt werden, um ohne große umweg direkt ein einigermaßen ansehnliches rec709 resultat zu erzielen, mag das schon reichen, aber darüber hinaus (ACES workflow etc.), macht es schon einen gewaltigen unterschied, wie gleichmäßig und nachvollziehbar die werte tatsächlich verteilt sind... wie weit man tatsächlich spielräume für sauber kompensierbare belichtungskorrekturen/-verschiebungen zur verfügung hat, etc.

je grösser der dr der szene umso flacher das profil, da das zielergebnis, ob nun 8 oder 10 bit endlich ist, weitergehende entscheidungen der gewichtung, sind vom zu erzielenden look abhängig und final eine frage des geschmacks des dops.

lg

srone



Antwort von mash_gh4:

@WoWo
das problem mit der hübschen grafik hier liegt darin, dass leider in parktisch allen derzeit verfügbaren profilen der GH4 jene gleichmäßige verteilung von werten pro blendenstufe NICHT in dieser weise gegeben ist, wie du das hier erklärst. im falle der lichter sind es leider katastrophal wenige werte pro blendenstufe, die hier augenblicklich zur verfügung stehen. so wenige, dass es auch mit externer 10bit aufzeichnung kaum reicht, um den tatsächlich vom sensor aufgelösten dynamic range vernünftig zu nutzen

das ist nicht nur ein detailproblem am rande, sondern ein ganz wesentlicher punkt, der sich recht entscheidend auswirkt und die beiden familien von profilen deutlich trennt!



Antwort von srone:

@srone
Ich finds ja auch genial dass hier auch Diskussionen auf hohem technischen Niveau laufen. Aber irgendwie wärs doch toll wenn ihr das am Ende noch etwas praktischer erkären könntet. Eine Art Fazit wie es der Nicht-Ingenieur nutzen kann was ihr euch ausbaldowert habt. Simplicity sollte das Stichwort sein. Wenn ich dir im Krankenhaus eine Tablette gegen deine Kopfschmerzen gebe willst du auch nicht wissen an welche Rezeptoren da welche Stoffe andocken um die Signalübertragung deiner Nerven zu hemmen. Da willst du wissen wie lange dauert es bis die Wirkung einsetzt und wie oft am Tag darf ich die nehmen.

was willst du denn wissen, du stellst eine sonnenbeschienene landschaft gegen eine düstere kerker-prinzessin, ich stelle dagegegen, was ist der relevante bildteil? das hat nichts mit rocket science zu tun, sondern wo liegt der punkt deiner wahrnehmung, was willst du verkaufen? nothing more, nothing less.

lg

srone



Antwort von Starshine Pictures:

Ok. Um das ganze vielleicht noch mal mit einem Beispiel zu würzen. Das sind zwei Aufnahmen von unserem letzten Shoot. Die obere Situation im OP zeigt eine hohe Dynamik weil das OP- Licht gleissend hell ist und die Umgebung relativ dunkel. Die untere Situation ist ein grosser Saal mit sehr diffusem schummrigen Licht und nur eine helle Beamerleinwand. Beides wirde mit der C100 in C-Log aufgenommen. Mit der Aufnahme der Röntgenschau bin ich irgendwie gar nicht glücklich weil es so fad und langweilig aussieht. Gehe ich also recht in der Annahme dass da ein steileres Profil (Wide DR z.B) ein spannenderes Ergebnis gebracht hätte? Es muss ja keine Dynamik wie oben hergezaubert werden, aber so ein bisschen dynamischer wäre schon schön oder?

zum Bild http://img5.fotos-hochladen.net/uploads ... yv72ms.jpg



Antwort von srone:

@WoWo
das problem mit der hübschen grafik hier liegt darin, dass leider in parktisch allen derzeit verfügbaren profilen der GH4 jene gleichmäßige verteilung von werten pro blendenstufe NICHT in dieser weise gegeben ist, wie du das hier erklärst. im falle der lichter sind es leider katastrophal wenige werte pro blendenstufe, die hier augenblicklich zur verfügung stehen. so wenige, dass es auch mit externer 10bit aufzeichnung kaum reicht, um den tatsächlich vom sensor aufgelösten dynamic range vernünftig zu nutzen

das ist nicht nur ein detailproblem am rande, sondern ein ganz wesentlicher punkt, der sich recht entscheidend auswirkt und die beiden familien von profilen deutlich trennt!

lieber mash gh_4,

deswegen diskutieren wir, da übertragungsfunktionen, offensichtllich, von herstellern, sehr willkürlich gewählt sind, dies zu erkennen und zu verarbeiten,
ist die aufgabe eines kameramannes.

lg

srone



Antwort von srone:

Ok. Um das ganze vielleicht noch mal mit einem Beispiel zu würzen. Das sind zwei Aufnahmen von unserem letzten Shoot. Die obere Situation im OP zeigt eine hohe Dynamik weil das OP- Licht gleissend hell ist und die Umgebung relativ dunkel. Die untere Situation ist ein grosser Saal mit sehr diffusem schummrigen Licht und nur eine helle Beamerleinwand. Beides wirde mit der C100 in C-Log aufgenommen. Mit der Aufnahme der Röntgenschau bin ich irgendwie gar nicht glücklich weil es so fad und langweilig aussieht. Gehe ich also recht in der Annahme dass da ein steileres Profil (Wide DR z.B) ein spannenderes Ergebnis gebracht hätte? Es muss ja keine Dynamik wie oben hergezaubert werden, aber so ein bisschen dynamischer wäre schon schön oder?

zum Bild http://img5.fotos-hochladen.net/uploads ... yv72ms.jpg

ja, das profil wäre sogar per se neben sächlich, wenn du dich an folgende farbkorrektur halten würdest:http://tinyurl.com/nru4uvg

lg

srone



Antwort von WoWu:

@Stephan

Die Pille bekommt auch der "Endverbraucher" und den interessiert es nicht. Der Arzt aber sollte das wissen. Und in dem Fall bist Du hinter der Kamera derjenige, der über die Rezeptur entscheidet.
Nur sehr Naive glauben, das Videogeschäft sei ein Wurmfortsatz der Filmkamera. Das ist ja grade der Trugschluss. Viele kommen vom Film und Foto und meinen, alles sei, wie vor 100 Jahren.
Wer also heute nicht den Kopf über den Tellerrand steckt, dreht entweder im "automatic Mode" oder oder besser gar nicht.
Und da helfen nun mal nur Details, um Funktionen nach zu vollziehen.
Marketinggewäsch hilft da nicht und vermittelt Dir keine einzige Kenntnis.
Mit den miessen Aufnahmen lassen Dich die Firmen nämlich dann allein.

Aber zu Deinen Fragen:
Der Weisspunkt ist ja ein Produkt der Farbtransformation und hat zunächst mal nichts mit FullWell zu tun.FW wäre das Systemweiss.
Häufig greiften Anwender aber zum "Vorschlaghammer" und korrigiert den Luma-Pegel solange, bis er im "Clipping" zwangsläufig das Systemweiss aufweist, weil sie nicht in der Lage sind, auf die individuellen Luminanzanteile der einzelnen Farben einzugehen.
Weiss wird mit unterschiedlichen Methoden aus RGBRGB im Glossar erklärt zusammengestellt.
Die wichtigsten 5 Methoden führen auch zu unterschiedlichen Ergebnissen.
Die Grafik zeigt Original und 5 Weisspunkte.
Der Sinn einer (von FullWell) abweichenden Lage besteht darin, Spitzenweiss weicher auslaufen zu lassen.
Das ist also eine künstliche (gestalterische) Reserve. Manche Firmen geben den WP als 100% an und FW dann bei 110 oder wo auch immer der WP angesiedelt ist und wie weich man abblenden will.
Cineon ist der WP der wohl am dichtesten am Film liegt, aber diesen Punkt bestimmst Du eben selbst. Du wirst ihn nicht besonders tief legen, weil das Bild dann zu dunkel wird.
Aber das hat mit dem LOG jetzt nur noch sehr bedingt zu tun.

darüber hinaus (ACES workflow etc.), macht es schon einen gewaltigen unterschied, wie gleichmäßig und nachvollziehbar die werte tatsächlich verteilt sind...
Es ist vielleicht Deiner Aufmerksamkeit entgangen, dass ACES im linearen Raum arbeitet und mit LOG absolut nichts mehr am Hut hat denn die von den Herstellern bereitgestellten IDTs sorgen dafür.
Und weil du mit ACES auch im "Hochbitbereich" arbeitest, würde wohl kaum jemand in die Verlegenheit kommen, im Workflow eine andere Übertragungsfunktion aufzusetzen. (bis auf die Gammakorrektur für den Monitor)

@srone
Wenn nicht wenigstens ein paar Vernünftige hier im Forum wären, hätte ich schon lange die Segel gestrichen, aber gcklicherweise gibt es außer den Amateuren auch noch Leute, die das Videogeschäft ernsthaft betreiben.
Aber mittlerweile tropfen manche Beiträge auch schon an mir ab.
Es ist eben nicht gegen alles ein Kraut gewachsen.

Zur Grafik
Der weisse Hintergrund in (b) und (d) wurde als Schattierung von Grau dargestellt und entsteht dadurch, dass lediglich die Farbcomponenten verringert wurden, aber kein Tool zur Umwandlung von Grau nach Weiss vorgehalten wird.
Korellationsverfahren, wie sie in (c) und (f) zur Anwendung gekommen sind, generieren optisch bessere Ergebnisse. Solche Unterschiede wirken sich selbstverständlich auch auf das Erscheinungsbild der Farben aus und Alogrithmen, wie in (e) neigen zur Überkompensierung, was sich in einem leichten Gelbstich niederschlägt.
Man kann also nicht davon ausgehen, dass das Ergebnis einer Weisspunktbestimmung immer der individuellen Wunschvorstellung von Weiss entspricht.



Antwort von mash_gh4:

Die sauber kompensierbaren nachträglichen Belichtungskorrekturen sind im Grunde ja nur ein Zeichen für die Unfähigkeit der Videografen von Haus aus richtig zu belichten, wie im Analogfilm.

ich seh das eher so, dass man die spezifika der umkehrentwicklung nicht unbedingt mit all den möglichkeiten verwechsen sollte, die sich mit negativmaterial, unterschiedlichen papiergradationen, dem abwedeln, nachträglicher ausschnittskorrektur u.ä. durchaus auch damals schon boten.

ersteres -- also ein gutes dia, super8 umkehrfilm u.ä. -- hat zweifellos seinen wert und stellt klare, kaum korrigierbare anforderungen bei der aufnahme. ich würde es hier in umittelbarer analogie zu den ganzen profilen bzw. kammereinstellungen verstehen, die sich an einem unmittelbar befriedigendem rec709 konformen ergebnis orientieren.

aber die log-profile, um die es in dieser diskussion hier gehen sollte, sind, wie anno dazumal negaivmaterial, nur als möglichst praktikabler zwischenschritt in einer längeren verabeitungskette zu verstehen. deshalb können sie auch mit konventionen brechen, die man von traditionellen bildprofilen gewohnt ist. das ergebnis muss dabei nicht sofort irgendeinem stil und geschmack entsprechen, sondern vor allen dingen einmal eine saubere korrektur erlauben, wie sie dem 'kreativen' grading (ich vermag es leider nur unter anführungszeichen auszusprechen) im besten falle immer vorausgehen sollte.

und was die spielräume dabei angeht, hat's frühger auch schon so seltsame paradox anmutende dinge gegeben, wie die verwendung von hoch empfindlichen film für besonders intensive sommer-sonnen-wüsten-szenen, den man dann halt ganz bewusst ein bisserl anders entwickelt hat, um die kontraste zu bändigen. genau das selbe würde ich mir manchmal auch von einer GH4 wünschen -- im grunde könnte sie es ja! :)



Antwort von srone:



ich hoffe es ist so, sonst hättest du nun wirklich keine chance, deine wohlverdiente rente zu geniessen, tendiere mittlerweile dazu, dich gerne mal besuchen zu bekommen, leider weit und teurer, aber wer weiss, irgendwann?

lg

srone



Antwort von Starshine Pictures:

@srone
Dein Link funktioniert leider nicht. Diese zwei Bilder hab ich fix am iphone mit VSCOcam bearbeitet. Da war kein Anspruch auf Korrektheit dahinter. Hier mal ohne Korrektur/Grading aus der Cam.

zum Bild http://img5.fotos-hochladen.net/uploads ... x528rv.jpg

@wowu
Ich les mir das jetzt noch einige Male durch was du geschrieben hast ;)



Antwort von WoWu:

@Srone
Mit Rente geniessen wird das so schnell nix.
Ich bin gerade dabei, den Kolumbianern den alten Europäischen DVB"T Schrott auszureden.
Bis das hier im Land installiert ist, ist das so alt, dass man nix mehr davon gebrauchen kann.

Aber wenn Du mal nach Südamerika kommst, bist Du herzlich willkommen auf meinem Berg.



Antwort von srone:

@srone
Dein Link funktioniert leider nicht. Diese zwei Bilder hab ich fix am iphone mit VSCOcam bearbeitet. Da war kein Anspruch auf Korrektheit dahinter. Hier mal ohne Korrektur/Grading aus der Cam.

zum Bild http://img5.fotos-hochladen.net/uploads ... x528rv.jpg

jetzt hoffe ich tut der link.

lg

srone



Antwort von srone:

@Srone
Mit Rente geniessen wird das so schnell nix.
Ich bin gerade dabei, den Kolumbianern den alten Europäischen DVB"T Schrott auszureden.
Bis das hier im Land installiert ist, ist das so alt, dass man nix mehr davon gebrauchen kann.

Aber wenn Du mal nach Südamerika kommst, bist Du herzlich willkommen auf meinem Berg.

ich werde schauen, die nächsten 6 monate, was sich machen lässt, es währe mir eine riesen-freude, einen besuch zu realisieren, kontakt @"benutzername" @gmx.de :-)

lg

srone



Antwort von mash_gh4:

darüber hinaus (ACES workflow etc.), macht es schon einen gewaltigen unterschied, wie gleichmäßig und nachvollziehbar die werte tatsächlich verteilt sind...
Es ist vielleicht Deiner Aufmerksamkeit entgangen, dass ACES im linearen Raum arbeitet und mit LOG absolut nichts mehr am Hut hat denn die von den Herstellern bereitgestellten IDTs sorgen dafür.
Und weil du mit ACES auch im "Hochbitbereich" arbeitest, würde wohl kaum jemand in die Verlegenheit kommen, im Workflow eine andere Übertragungsfunktion aufzusetzen. (bis auf die Gammakorrektur für den Monitor)

zum glück gibt es vermutlich kaum ACES lösungen, die sich dabei mit 8bit begnügen, wie es in dieser letzten grafik von dir rechts unten wieder ausdrücklich zu lesen war. selbst wenn du dich damit auf rec709 ausgaben beziehen magst, sollte man vielleicht der tatsache rechnung tragen, dass auch dort gamma-2.4 genutzt wird. damit ist es in der praxis von 'linear' beinahe genauso weit entfernt wie von den hier diskutierten log kurven.

mir ist zwar klar, dass du natürlich niemandem außer dir sellbst zutraust, auch nur die einfachsten basics eines ACES workflows begriffen zu haben -- eh klar --, trotzdem gibt's natürlich auch IDTs für 8bit rec709, darunter sogar manche, die tatsächlich auf messreihen der GH4 bildverarbeitung basieren:



ich halte zwar für einen schritt in die richtige richtung, bin aber noch nicht wirklich vollständig zufrieden mit dieser lösung. die tatsächlichen probleme -- also die unbefriedigende verteilung der verfügbaren werte pro blende, etc -- werden damit nicht aus der welt geschaffen.

was letzteres betrifft, hier eine nette grafik:

http://community.sony.com/t5/image/serv ... 442BD51B11

es würde mich sehr beeindrucken, wenn mir jemand zeigen könnte, dass es ohnehin bereits jetzt in der GH4 profile gibt, die in den oberen blendenstufen (d.h. möglichst nahe am FW des sensors :)) derartige viele oder gar ähnlich gleichmäßig verteilte werte nutzen lassen würden.

bis dahin behaupte ich weiter, dass all dieses wunderbar kompliziert klingende gequatsche über fullwell/störabstand/dynamik=bitbreite etc. völlig an jenen ganz simplen einschränkungen und kompromissen vorbeigeht, mit denen wir es hier tatsächlich zu tun haben.



Antwort von srone:

bis dahin behaupte ich weiter, dass all dieses wunderbar kompliziert klingende gequatsche über fullwell/störabstand/dynamik=bitbreite etc. völlig an jenen ganz simplen einschränkungen und kompromissen vorbeigeht, mit denen wir es hier tatsächlich zu tun haben.

tja, wenn es so einfach wäre, dann könnte man ja deiner argumentation folgen. ;-)

lg

srone



Antwort von WoWu:

Du verwechselst mal wieder Übertragungsfunktionen mit Biödprofilen (Looks).
Und was die IDTs betrifft, hat es herzlich wenig Wert, die mit irgendwelchen selbstgemachten Messwerten zu erstellen denn dabei kommt nicht mehr, als eine LUT heraus, die, anders als eine ReversefunktionReversefunktion lediglich zwischen den Stützstellen interpoliert und keine Approximation vornimmt.
Das es so etwas gibt, bezweifle ich gar nicht.
Was es bringt, ein 8bit Signal aus sRGB in einen 16 BitBit im Glossar erklärt Farbraum zu bringen, steht auf einem ganz anderen Blatt.
Daran wird sich sicher so mancher Amateur erfreuen, ohne die Sinnhaftigkeit auch nur im Ansatz zu hinterfragen.

Und das Du bemängelst, dass hier im Forum mit den korrekten technischen Ausdrücken umgegangen wird und nicht mit geschmacklich blumigen Terminologien, mag das daran liegen, das nicht jeder Hermann Löns Fan - und es dem Thema wohl zuträglicher ist.
Das es nicht jeder versteht, muss man dabei in Kauf nehmen.
Datenraten und Dynamik lassen sich nun mal schlecht in Prosa fassen.

Und was du mit dem Sony Diagramm sagen willst, weißt du vermutlich auch nur selbst.
Dass es deutliche Unterschiede in den verschiedenen Übertragungsfunktionen gibst, dürfte hier niemanden überraschen.
Was also soll uns das Balkendiagramm sagen, was die bisher veröffentlichten Graphen nicht schon vermittelt haben.



Antwort von mash_gh4:

Du verwechselst mal wieder Übertragungsfunktionen mit Biödprofilen (Looks).

naja -- das ist halt das, was wir tatsächlich im moment haben.
wenn wir vernünftig darüber urteilen wollen, sollten wir ziemlich genau wissen, was die einzelnen profile tatsächlich machen und wie sich das in weiterer folge auf die allereinfachsten korrekturen auswirkt.

siehe zb:

http://www.dvinfo.net/article/acquisiti ... -more.html

Und was die IDTs betrifft, hat es herzlich wenig Wert, die mit irgendwelchen selbstgemachten Messwerten zu erstellen denn dabei kommt nicht mehr, als eine LUT heraus, die, anders als eine ReversefunktionReversefunktion lediglich zwischen den Stützstellen interpoliert und keine Approximation vornimmt.
Das es so etwas gibt, bezweifle ich gar nicht.

das sehe ich nicht ganz unähnlich -- trotzdem wären wir auf diesem weg schon einen schritt weiter als wir es gegenwärtig sind...

in wahrheit kallibiert man kameras, bildschirme und die profile in diversen bild- und videoverarbeitungsprogrammen auch nur mit derart beschränkten mitteln.

Was es bringt, ein 8bit Signal aus sRGB in einen 16 BitBit im Glossar erklärt Farbraum zu bringen, steht auf einem ganz anderen Blatt.

verarbeitung in 32bit float od. eben auch 16bit float GLSL processing sind doch ohnehin auch jetzt bereits gang und gäbe, nur bekommt es langsam einheitlichere formen und orientierungsvorgaben.

Und was du mit dem Sony Diagramm sagen willst, weißt du vermutlich auch nur selbst.
...
Was also soll uns das Balkendiagramm sagen, was die bisher veröffentlichten Graphen nicht schon vermittelt haben.

sie sagen etwas über die verteilung von werten -- was du so gerne ignorierst.

und endlich habe ich nun auch folgende grafik wiedergefunden, die einige unklarheiten beseitigen könnte, über die hier spekuliert wurde:

zum Bild http://www.dvinfo.net/wp-content/upload ... 040164.jpg
(quelle: http://www.dvinfo.net/article/acquisiti ... suite.html)



Antwort von WoWu:

naja -- das ist halt das, was wir tatsächlich im moment haben.
wenn wir vernünftig darüber urteilen wollen, sollten wir ziemlich genau wissen, was die einzelnen profile tatsächlich machen und wie sich das in weiterer folge auf die allereinfachsten korrekturen auswirkt.
Nein, wir reden hier über LOG Übertragungsfunktionen und nicht über LOOKS

in wahrheit kallibiert man kameras, bildschirme und die profile in diversen bild- und videoverarbeitungsprogrammen auch nur mit derart beschränkten mitteln.

Schau Dir mal den Unterschied zwischen einer Übertragungsfunktion und einem LUT an.
verarbeitung in 32bit float od. eben auch 16bit float GLSL processing sind doch ohnehin auch jetzt bereits gang und gäbe, nur bekommt es langsam einheitlichere formen und orientierungsvorgaben.
Kann es wirklich sein, dass Du nicht zwischen einer Verarbeitungstiefe und einer Signaltiefe unterscheiden kannst ?
Ich kann es kaum glauben.

Was also soll uns das Balkendiagramm sagen, was die bisher veröffentlichten Graphen nicht schon vermittelt haben.

sie sagen etwas über die verteilung von werten -- was du so gerne ignorierst.
Und ein Übertragungsfunktion-Graph sagt da nichts drüber aus ?
Mir schon.
Dir wahrscheinlich wirklich nicht.

und endlich habe ich nun auch folgende grafik wiedergefunden, die einige unklarheiten beseitigen könnte, über die hier spekuliert wurde:
Da bin ich aber froh.
Dann interpretier sie doch bitte mal für uns.
Wäre auch schön, wenn Du uns den Unterschied zur zuvor benutzten Kurve des V"LOG erklären würdest und die Unterschiede in der Wirksamkeit erläutern könntest. Denn die Kurve ist schon bekannt. das kann also nicht die Neuigkeit sein.
Was ist es also, das an Geheimnissen in dieser Darstellung steck ?



Antwort von iasi:

Na so, dass Du nicht die ganze Dynamik in die Tonne trittst.

Und wenn du in einem niedrigeren Weissbereich arbeiten willst, dann nimmt man eine Übertragungskurve, die einen tiefen Weisspunkt unterstützt, z.B.die Cineon Funktion.
Dann behältst Du für die Spizlicher den vollen Dynamikumfang und arbeitest mit Weiß in einem tieferen Bereich.
Das funktioniert aber nur bei den Kameraleuten, die die unterschiedlichen LOG Kurven auch kennen und wissen, wie man sie einsetzt.
Denen stellen sich solche Fragen, wie man belichten soll nämlich nicht.

na da schau an - wieder mal um die Antwort herumgewunden.

Es geht dir wohl nur darum, dich selbst zu überzeugen.

Die Frage bleibt:
Wie wird denn bei log nun richtig belichtet?

Nur darauf zu verweisen, dass diejenigen die es können, es eben auch können, ist ziemlich mager.
Vielleicht gehörst du einfach nicht zu denen, die es können.



Antwort von WoWu:

IASI
Ich hatte auch schon vorher geschrieben, dass Du offensichtlich nicht richtig lesen kannst. du bestätigst das mit dem neuen Posting.
Es steht oben alles lang und breit.
Zudem war Stephans Frage speziell zum Thema Weisspunkt.
Was (richtige) Belichtung ist, dürfte den meisten klar sein, die das Forum besuchen.
Und dass ein Spitzlicht (oder systemweiss)auf die obersten Übertragungswerte gehören, sicher auch, sofern es weiß repräsentiert.
Kameras, die auch eine automatische Gammanpassung vornehmen, bekommen eine sw/ws Barke als Gammagrenzen.



Antwort von iasi:

IASI
Ich hatte auch schon vorher geschrieben, dass Du offensichtlich nicht richtig lesen kannst. du bestätigst das mit dem neuen Posting.
Es steht oben alles lang und breit.
Zudem war Stephans Frage speziell zum Thema Weisspunkt.
Was (richtige) Belichtung ist, dürfte den meisten klar sein, die das Forum besuchen.
Und dass ein Spitzlicht (oder systemweiss)auf die obersten Übertragungswerte gehören, sicher auch, sofern es weiß repräsentiert.
Kameras, die auch eine automatische Gammanpassung vornehmen, bekommen eine sw/ws Barke als Gammagrenzen.

so so - na das hatte ich mir doch schon gedacht - ziemlich undifferenziert und mal wieder auf wenige technische Werte reduziert.

Und sich dann aber beschweren, wenn so viele schlecht belichtete Aufnahmen zu sehen sind.



Antwort von WoWu:

IASI
Du willst es nicht kapieren sondern einfach nur Deine frontale Polemik loswerden.
Das zeichnet Dich nicht gerade aus.
Zum Sachbezug scheinst Du auch kein Verhältnis zu haben und nicht zu wissen, was ein Weiß und Schwarzabgleich ist und wozu er gut ist.
Daher stellst Du vermutlich auch fragen, die Dich weiter disqualifizieren.

Soll ich Dir jetzt etwa erklären, wozu ein WeißabgleichWeißabgleich im Glossar erklärt gut ist und was er mit Belichtung zu tun hat ?
Wenn Du Kindergartenfragen stellst -und die vermutlich auch so meinst- dann wundert mich allerdings nicht mehr, dass Du der bisherigen Diskussipn nicht folgen konntest.
Es fehlen Dir einfach die Grundkenntnisse.
Das kommt davon, wenn man über Kataloge in solche Themen einsteigt und nicht über Basiswissen.



Antwort von mash_gh4:

ziemlich undifferenziert und mal wieder auf wenige technische Wrte reduziert.

Wert hat's leider wieder einmal überhaupt keinen! :)

sonst müsst er sich ja WeWe nenne und nicht WoWu.



Antwort von iasi:

WoWu

ach - du beklagst dich über den Tonfall?
Du, der du doch in jedem zweiten Satz deinen Diskussionspartner herabwürdigst - wohl, weil du denkst, damit klüger zu wirken.

Du denkst also, wenn man nur auf die Lichter schaut, dann passt"s.
Einerseits immer schlau wirken zu wollen, indem man alles in möglichst schwer verständlich und Fachbegriffe-triefende Sprache tunkt, dann aber doch so eine undifferenzierte 0815-Methode liefern.
Schwach.



Antwort von WoWu:

IASI,
Da bin ich ganz beruhigt, Dich kann man gar nicht herabwürdigen, insofern trifft der Vorwurf nicht.

Und wenn Du selbst den Hinweiss aus den WeißabgleichWeißabgleich im Glossar erklärt nicht einordnen kannst, zeigt das in der Tat, dass Du dessen Funktion noch nicht verstanden hast.
Insofern erledigt sich die Basis, auf der wir kommunizieren können.
Halt Dich an mash_gh4.
Ihr werdet Euch bestens verstehen, weil es dieselbe Kommunikationsebene ist.

@ mash_gh4
Wie wär"s denn endlich mal mit "ner kleinen Erklärung, wie das LOG System funktioniert und einer Beschreibung, was wir denn nun aus dem von Dir geoosteten Graph sehen sollen, das uns die vorher im Thread gepostete V"Log Kurve nicht schon gezeigt hätte.

Lass mich raten ..... Du weisst es selbst nicht.
Aber im Sprüchekloppen bist Du grossartig.



Antwort von domain:

Ich denke, dass hier manchmal die reine Lehre (mit Fachausdrücken gewürzt) auf praktische Beobachtungen und Erfahrungen stößt. Ganz klarer Fall: die Log-Funktion muss zunächst durch eine inverse Funktion korrigiert werden.
Was aber ist aber mit den Look-Luts, also einer Kombination zwischen der reinen Theorie und einer schon mehr praktischen Annäherung an das gewünschte Endergebnis?
Liegt Ruessel eigentlich voll daneben, wenn er div. Looks (z.B. Kodachrome) durch selbstentwickelte Luts schon in der Erstbehandlung, also von Haus aus realisieren will?



Antwort von mash_gh4:


Halt Dich an mash_gh4.
Ihr werdet Euch bestens verstehen, weil es dieselbe Kommunikationsebene ist.

ich glaub, ich bin da ziemlich tolerant und freu mich normalerweise eher drüber, wenn ganz verschiedene sichtweisen und zugänge sich ergänzen oder gegenseitig prüfen...

im gegenständlichen fall würd ich aber trotzdem konstatieren, dass du es bist, der hier jede sachbezogene auseinandersetzung torpediert und geradezu verunmöglicht... oder zumindest denkbar anstrengend und unattraktiv erscheinen lässt.

für viele GH4 user ist die simple frage, ob nicht etwa cine-d in wahrheit sogar vorteile gegenüber v-log haben könnte, wenn man es nur in ähnlich klar definierter weise nutzen könnte, vermutlich wesentlich bedeutsamer als dein völlig zweckbefreites herumpöbeln mit einer hand voll fachbegriffen.

@ mash_gh4
Wie wär"s denn endlich mal mit "ner kleinen Erklärung, wie das LOG System funktioniert und einer Beschreibung, was wir denn nun aus dem von Dir gerosteten Graph sehen sollen, das uns die vorher im Thread gemostete V"Log Kurve nicht schon gezeigt hätte.

ein gewisser WoWo hat erst vor sehr kurzer zeit hier im forum erklärt, dass wir ja nur die beschreibung für v-log kennen, nicht aber für die betreffende 'lite' version.

nun -- von den meisten menschen würde man erwarten, dass sie sich darüber freuen, wenn man ihnen hinweise liefert, die ihre offenen fragen wenigstens ein klein wenig besser beantworten helfen könnten. bei dir ist das offenbar nicht der fall. es gilt dir ja wirklich alleine das als bedeutsam, was aus deiner eigenen feder stammt -- ganz egal, wie weit es einer äußeren realität gerecht wird od. den fragestellungen anderer menschen.

Lass mich raten ..... Du weiss es selbst nicht.
Aber im Sprüchekloppen bist Du grossartig.

es ist nicht so, dass ich über diese grafik und den betreffenden kommentar im dazugehörigen artikel besonders glücklich wäre.

was es mit diesen zwei blendenstufen unterschied auf sich hat, ist mir auch nach diesem hinweis seitens des herstellers einiges unklar?

würde es sich dabei nur um sensorbedingtes clipping bei den betreffenden kameras handeln, bräuchte man es nicht wirklich als ' v-log lite' unterschieden. sollte es sich aber um eine willkürlich gesetzte andersartige begrenzung handeln, schaut die sache wieder völlig anders aus. im übrigen bleibt durch diese angedeutete festlegung ein ungewöhnlich großer teil des datenraums gänzlich ungenutzt, was ja wirklich nicht sinn der sache sein kann bzw. den tatsächlichen wert einer solchen lösung massiv in frage stellt.



Antwort von mash_gh4:

Ich denke, dass hier manchmal die reine Lehre (mit Fachausdrücken gewürzt) auf praktische Beobachtungen und Erfahrungen stößt. Ganz klarer Fall: die Log-Funktion muss zunächst durch eine inverse Funktion korrigiert werden.

ich würde sagen, dass das in dem fall wirklich nur ein reines technischen implementierungsdetail ist, dem keine einschneidende bedeutung zukommt.

ob jetzt die kamera od. das nachbearbeitungsprogramm jedes mal die entsprechende formel zu rate zieht, oder aber in einer tabelle mit den korrekten vorbereiteten werten nachschlägt, kann uns hier im grunde völlig geichgültig sein. in dem speziellen fall macht's meiner einschätzung nach wirklich keinen unterschied.

dass ich natürlich sauber definierte übertragungsfunktionen trotzdem für ausgesprochen bedeutsam halte, habe ich hier ohnehin bereits einige male betont.

trotzdem ist der übergang zu den anderen bildprofilen fließend.
soll man die sony hypergamma kurven akzeptieren? mit denen haben die meisten lumix profile eine ganze menge gemein.



Antwort von domain:


Mit der Aufnahme der Röntgenschau bin ich irgendwie gar nicht glücklich weil es so fad und langweilig aussieht. Gehe ich also recht in der Annahme dass da ein steileres Profil (Wide DR z.B) ein spannenderes Ergebnis gebracht hätte? Es muss ja keine Dynamik wie oben hergezaubert werden, aber so ein bisschen dynamischer wäre schon schön oder?

zum Bild http://img5.fotos-hochladen.net/uploads ... yv72ms.jpg

Da gibt es nicht mehr viel zu verbessern, sind halt völlig verschiedene Lichtsituationen. Kannst ja mal Autokontrast in Photoshop versuchsweise am zweite Bild anwenden. Außer pechschwarzen Hinterköpfen wirst du nichts zusätzlich Dynamischeres mehr erreichen können.



Antwort von mash_gh4:

Es muss ja keine Dynamik wie oben hergezaubert werden, aber so ein bisschen dynamischer wäre schon schön oder?
Außer pechschwarzen Hinterköpfen wirst du nichts zusätzlich Dynamischeres mehr erreichen können.

wie wär's mit ein klein wenig 'lokalem kontrast'... was ja wenigstens im photoshop mit dem regler 'dynamik' in verbindung gebracht wird, sonst eher mit 'unscharf maskieren'...



Antwort von domain:

Merkwürdig, dass immer mehr formale Dinge eine Rolle spielen, dabei sehen sich alle Wohnzimmer-, Test- und Katzenvideos ziemlich ähnlich.
Ist wie bei den Fliegenfischern.
Tagebucheintragung: drei Borsten mehr am Schawanz haben einen durchschlagenden Erfolg gezeigt. Die Forellen haben sie einfach abgebissen. Die realen Fische habe ich dann bei Aldi gekauft.



Antwort von WoWu:

Ich denke, dass hier manchmal die reine Lehre (mit Fachausdrücken gewürzt) auf praktische Beobachtungen und Erfahrungen stößt. Ganz klarer Fall: die Log-Funktion muss zunächst durch eine inverse Funktion korrigiert werden.
Was aber ist aber mit den Look-Luts, also einer Kombination zwischen der reinen Theorie und einer schon mehr praktischen Annäherung an das gewünschte Endergebnis?
Liegt Ruessel eigentlich voll daneben, wenn er div. Looks (z.B. Kodachrome) durch selbstentwickelte Luts schon in der Erstbehandlung, also von Haus aus realisieren will?

Moin Domain
Ein LUT setzt immer auf den Bestehenden Ünertragungswert auf, wenn Du also 10 BitBit im Glossar erklärt hast, wird innerhalb des Systems nur die Tabelle geändert und das auch nur mit wenigen Stützstellen.
Außerdem wird nur zwischen den Stützstellen interpoliert und nicht, wie bei einer Funktion über den gesamten Verlauf.
mit einer LUT erreichst Du also streng genommen weniger, als mit einem LOOK, der zwar auch nur im selben System arbeitet, aber (je nach Algorithmus) das über eine Funktion bewerkstelligt, was automatisch zur Neuberechnung aller Werte führt und nicht nur zu den Werten zwischen den Stützstellen.
Daher haben die klassischen LUTs auch eine begrenzte Anwendung vornehmlich im PreviewPreview im Glossar erklärt Bereich.
ARRI bietet in seinem Generator die Umrechnung von LUTs in Funktionen an, die anschliesslich in der Post eingesetzt werden.
Es geht also auch hier um die Menge der Berechnungen.
Würde man bei einer 10bit 3D LUT alle Werte belegen, wären das 1.307.741.824 Tabellenplätze. An der Stelle kommt man mit einer Funktion deutlich besser weg. In solchen Sachen, wie PreviewPreview im Glossar erklärt aber mit einer LUT, wenn man die Nachteile in Kauf nehmen kann.
Der eigentliche Vorteil einer LOG Kurve liegt aber darin, sich aus den 12/14 BitBit im Glossar erklärt die Menge an Originalsignalen selektieren zu können, und in ein 10 BitBit im Glossar erklärt Signal rüberzuretten, die es in einem linearen 10 BitBit im Glossar erklärt (oder gar 8Bit) Signal gar nicht mehr gibt, speziell im unteren Bereich.
Das alles hat man weder bei LUTs noch bei LOOKs, weil sie alle nicht mehr auf das Sensorsignalen zugreifen können sondern nur noch auf die KompressionKompression im Glossar erklärt des Signale.



Antwort von domain:

Habe mich schon immer gewundert, warum nicht wirkliche Funktionen zweiten oder dritten Grades zur Umrechnung verwendet werden, sondern diskrete "Stützpunkte" mit Interpolationen dazwischen
Aber warst es nicht gerade du, der mir erklärt hatte, dass die funktionalen Umrechnungen viel zu rechenintensiv wären?



Antwort von WoWu:

Ja, deswegen finden LUTs auch da Anwendung vo man möglichst schnell und ohne großen Aufwand, ein nicht allzu gutes Ergebnis braucht .
Eine kleine LUT mit einer Handvoll Stützstellen reicht.
Schau Dir nur mal Dein Beispiel mit der Wertereduzierung im Bild an.
Das ist im ersten Anschein überraschend akzeptabel, schaut man genau hin, sieht das schon gänzlich anders aus.
Deswegen machen LUTs Sinn im Prevoew. Looks finden ja in erster Linie Verwendung in der Post, wo man dann auch rechnen lassen kann.
Aber die Wirkung von LOG erzielst du mit beiden nicht, weil es die Signale gar nicht mehr gibt.

Edit:
Vielleicht noch als Anmerkung.
ARRi greift bei der Umrechnung der LUT in einen Look übrigens auf das RAW Signal zurück, bleibt also nicht im Wertesystem.
Darin unterscheiden sich solche LUT>looks dann.



Antwort von domain:


Aber die Wirkung von LOG erzielst du mit beiden nicht, weil es die Signale gar nicht mehr gibt.

Doch, die Original-Signale gibt es aus meiner Sicht immer und man kann sie auch immer wieder neu entwickeln. Ist ja nicht wie bei Analogmaterial, oder hätte man jemals einen Negativfilm im Nachhinein doch einer steileren Entwicklung unterziehen sollen?



Antwort von WoWu:

das wäre ja toll, dann können wir zukünftig also unsere 8bit Signale und Aufnahmen als echte 16 BitBit im Glossar erklärt darstellen.
Also ... Wer braucht da noch neue Kameras ?



Antwort von domain:

Was hat das eine mit dem anderen zu tun?
Sind doch zwei völlig unterschiedliche Dinge in meinem Verständnis.
Tatsache ist aber, dass das Originalmaterial erhalten bleibt, egal welche Verhunzungen durch Look-Luts im Nachhinein auch immer geschehen sein mögen.
Alles reversibel.



Antwort von WoWu:

Dann hab ich das anders verstanden.
ich dachte, du wolltest die LOg Funktion durch ein LUt ersetzen und dann auf die Originalwerte zurückrechnen.



Antwort von mash_gh4:

auch wenn man mit LUTs natürlich im allgemeinen "tabellen" verbindet, wird dieser begriff in der praxis deutlich gröber benutzt -- kann also in der praxis ganz unterschiedliches bedeuten. recht anschaulich verdeutlicht das die vielzahl an möglichkeiten, die OpenColorIO als LUT zu fassen vermag:

http://opencolorio.org/FAQ.html#faq-supportedlut

das sind nicht nur einfache tabellen drunter, sondern durchaus auch CDLs...

und natürlich kann man für eine monoton steigende funktion mit großer menge an ausgangswerten (bspw. 14bit sensordaten) und relativ kleinen menge von zielwerten (8bit log) eine ausgesprochen effiziente, speicherplatzsparende und trotzdem exakte abbildung technisch realisieren, ohne die funktion ständig durchzurechnen. man nutzt dann halt vielleicht nicht mehr tabellen mit furchtbar viel redundanten einträgen, sondern ganz simple baumstrukturen, aber trotzdem bleibt es beim selben prinzip.

mit der geschichte hier hat das aber nur mehr sehr wenig zu tun.

im urtsprünglich verlinkten IDT wird jedenfalls überhaupt nicht interpoliert, weil für jeden einganswert des 8bit legal range video signals ein exakter ausgangswert festgelegt ist.
mehr als diese ganz simple eindimensionale zuordnung ist hier auch gar nicht von nöten.

es bleibt höchstens die frage offen, ob die herangezogenen messwerte auch ausreichend genau waren?

zum Bild http://www.personal-view.com/talks/uplo ... 5417a9.png



Antwort von domain:

Aha
und bei 35 horizontal hört die Kurve dann auf?
Merkwürdig, merkwürdig oder bin ich zu blöd zu einer Interpretation?



Antwort von mash_gh4:

Aha
und bei 35 horizontal hört die Kurve dann auf?
Merkwürdig, merkwürdig oder bin ich zu blöd zu einer Interpretation?

ja, ist ein interessantes bildrätsel! :)

ich hab's ehrlich gestanden auch noch nicht ganz geknackt.
es stammt jedenfalls von hier:
http://www.personal-view.com/talks/disc ... ent_198766



Antwort von WoWu:

@Domain
bei dem Blogger gibt es auch ACEScc (wenn ich das nicht verwechsle) komischerweise gibt es das bei der Academy nicht.
Und mit V-log - L- befasst man sich auch besser erst, wenn die Information von Panasonic kommt und nicht irgendwelchen Bilblogs entstammt, die Funktionen aus Betrachtungen schätzen und im Internet nur dadurch vervielfältigen. Davon wird es aber nicht richtiger.
Und IDTs bringen nur was, wenn der Hersteller sie aus dem Originalmatrial ableitet, denn das ist der Zweck des ganzen Verfahrens und nicht auf reduziertem Material.



Antwort von mash_gh4:


Und mit V-log - L- befasst man sich auch besser erst, wenn die Information von Panasonic kommt und nicht irgendwelchen Bilblogs entstammt, die Funktionen aus Betrachtungen schätzen und im Internet nur dadurch vervielfältigen.

die entsprechende folie stammt direkt von panasonic!

siehe: http://www.dvinfo.net/article/acquisiti ... suite.html -- gleich oben im ersten absatz.

Davon wird es aber nicht richtiger.

stimmt -- obwohl die angaben in diesem fall direkt vom hersteller stammen, enthalten sie mindestens einen ganz offensichtlichen fehler! ;)

Und IDTs bringen nur was, wenn der Hersteller sie aus dem Originalmatrial ableitet, denn das ist der Zweck des ganzen Verfahrens und nicht auf reduziertem Material.

das sehe ich anders!
wenn der hersteller entsprechende daten nicht liefert, müssen sich halt andere od. man selbst sich darum bemühen.

wer mit linux arbeitet, hält das ohnehin für ein fast selbstverständliches vorgehen. wenn man dort immer nur darauf warten würde, dass die hersteller einem irgendwas fertiges in die hand drücken, würde man vermutlich noch heute keine bilder betrachten, geschweige denn verarbeiten können. ;)



Antwort von WoWu:



das sehe ich anders!

Das beruhigt mich sehr.
Beseitigt aber die Problematk nicht.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
GH4 Firmware / V-Log Upgrade Problem
GH4 V-Log L Analyse von Adam Wilt
Panasonic GH4 V-Log H
Panasonic GH4 , V-Log Update, ofiziell
Näheres zum Panasonic GH4 V-Log Update
EOS HD GH4 Log Converter - sinnvoll?
V-Log für die GH4 als kostenpflichtiges Add-on?
V-Log für die GH4 soll im Oktober kommen...
Quiz: Panasonic GH4 Vlog vs. Sony A7s S-Log2
Panasonic GH4 Firmware-Update 2.2. bringt anamorph, doch kein V-Log
GH4 bekommt V-Log - aber noch nicht im nächsten Update
V-LOG für GH4?
Nikon 10 Bit N-Log LUT ausprobiert: Wie gut ist die offizielle N-Log LUT für Nikon Z6 und Z7?
Canon LOG für die 5D MK IV im Anflug - 10 Blenden Dynamikumfang?
Beholder DS1 als Ersatz für Ronin M (GH4)
Powerbank als Ladegerät für GH4 Akkus bei Trekkingtrip
Fujifilm XT-3: 4K 60p mit 10 Bit LOG intern (!) - die beste APS-C für Video?
Griff für die GH4
Hilfe!! GH4 V-log Material
Sequenzvorgaben in Premiere für die GH4
Tipp - Displaylupe für die Gh4
Mehr Weitwinkel für die GH4
Interessanter Profilansatz für die GH4
Umfrage: GH4 Settings V-Log, CinemaD etc.
Neue YUNEEC Filmdrohne für die GH4
Nikon Z6 - die beste 4K Vollformat 10 Bit Spiegellose für Video? Hauttöne, LOG vs LUT, AF, inkl. Canon EOS R Vergleich

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen