Logo Logo
/// 

Panasonic GH4 V-Log Update für 100 Euro; neue DMC-GH4R ohne Aufnahmeli



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Der V-Log Modus für die GH4, über den hier bereits öfters und seit geraumer Zeit diskutiert wurde, wurde soebe...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Panasonic GH4 V-Log Update für 100 Euro; neue DMC-GH4R ohne Aufnahmelimit




Antwort von TaoTao:

Schon ein kleiner Seitenhieb, man kann unbegrenzt in 4K aufnehmen, die Sony 4K Kameras würden wohl explodieren nach 60 Minuten.



Antwort von mash_gh4:

ja, ich glaub auch, dass das aufgehobene aufnahmezeitlimit der gh4r weit bedeutsamer ist als der praktische nutzen von v-log in der vorliegenden form (=fehlende unterstützung in der messung und 50% ungenutzter werte :( ). seltsam, dass dieses detail in den upgrade-ankündigungen nichteinmal gestreift wird? vielleicht gibt's ja dann für den europäischen markt gleich zwei € 100,- update angebote?





Antwort von Kranich:

macht dieses update sinn? was meint ihr?



Antwort von Mantis:

Ich checks nicht. Welchen Sinn macht V-Log ohne vernünftigen CodecCodec im Glossar erklärt, QuantisierungQuantisierung im Glossar erklärt und Farbsampling?
Lieber internes 10 Bit...



Antwort von enilnacs:

Also V-Log macht schon Sinn, auch bei 8 BitBit im Glossar erklärt, es geht meist um die 2 fstops mehr. Ja, ich weiss 8 bit ist nicht der Hammer dafür, aber wenn man überlegt: Lieber Farben interpolieren und mehr Dynamik, statt mehr Farben und weniger Dynamik. Und runtersamplen von 4K 420 8bit auf 2K 422 10bit(9,6) kann man immer noch. ;-)

Meine grösste Frage: gibts das V-LOG für die FZ1000? :-) DAS wäre mal was.



Antwort von Frank B.:

Ich hab da mal ne Frage. Die GH4 macht ja 10Bit. Allerdings nur am HDMIHDMI im Glossar erklärt bei Aufzeichnung auf einen 10Bit - fähigen Recorder. Da würde doch V-Log seine Stärke ausspielen können, oder?



Antwort von -paleface-:

Ich werde es jedenfalls testen wenn es nach Europa kommt.

Ich hoffe auch das mit Kombi / Shogun + 10bit einfach nochmal was rauszuholen ist.



Antwort von klusterdegenerierung:

Ich werde es jedenfalls testen wenn es nach Europa kommt.

Ich hoffe auch das mit Kombi / Shogun + 10bit einfach nochmal was rauszuholen ist.

Ich denk für nen hunni kann man da nix verkehrt machen!
Andere kaufen sich wegen 2 Blenden ne neue Cam! ;-))



Antwort von WoWu:

Und runtersamplen von 4K 420 8bit auf 2K 422 10bit(9,6) kann man immer noch. ;-)

Kann man machen, man hat nur nichts von der Unterabtastung.
Weder 10 BitBit im Glossar erklärt, noch 4:2:2

Aufzeichnung auf einen 10Bit - fähigen Recorder. Da würde doch V-Log seine Stärke ausspielen können, oder?
Ist denn sicher, dass die Übertragungsfunktion auf HDMIHDMI im Glossar erklärt ankommt ?
Nach wie vor ist HDMIHDMI im Glossar erklärt eine Monitorschnittstelle.
Das würde ich erst mal prüfen.



Antwort von CameraRick:


Ist denn sicher, dass die Übertragungsfunktion auf HDMIHDMI im Glossar erklärt ankommt ?
Nach wie vor ist HDMIHDMI im Glossar erklärt eine Monitorschnittstelle.
Das würde ich erst mal prüfen.
Zumindest ist das Singal deutlich "widerstandsfähiger" und fühlt sich nach 10bit an - nachgemessen hab ichs nicht.



Antwort von enilnacs:

Und runtersamplen von 4K 420 8bit auf 2K 422 10bit(9,6) kann man immer noch. ;-)

Kann man machen, man hat nur nichts von der Unterabtastung.
Weder 10 BitBit im Glossar erklärt, noch 4:2:2

Doch, siehe hier:
https://www.slashcam.de/artikel/Grundlag ... html#Einle
Und ist eigentlich auch logisch, es ist statistisches Subsampling. Ich hab sogar "nur" 4:2:24:2:2 im Glossar erklärt gesagt. (wg. dem Bayersensor RGBG), aber rein mathematisch wären (fast) 444 drin.



Antwort von WoWu:

Solche sub-Sampler Formeln gelten für VFX Signale, die bei jeder Änderung von Grundauf neu berechnet werden, nicht aber für eine Unterabtastung, aus der bereits eine Mischfarbe entstanden ist.
Aus 4 unterschiedlichen Farben entsteht bei Unterabtsatung eine einzige Zielfarbe, entlang der Gewichtung der 4 Farben.
Diese Farbe wird im Datensignal übertragen. Die Werte der 4 ursprünglichen Farben sind verloren.
Darin unterscheiden sich Videosignale einer Kamera von denen eines Computers, der die Werte wieder von Ausgangswerten errechnet.
Und woher rd. 3x 750 Farbwerte kommen sollen, die im Originalbild gar nicht vorkommen, ist auch wahrscheinlich ein Wunder, denn selbst bei Interpolation entstehen aus Fehlfarben keine Originalwerte mehr.
Wenn ein roter und ein grüner PixelPixel im Glossar erklärt nebeneinander liegen, entsteht immer bei einer Interpolation und einer Gleichgewichtung, ein gelber Wert, den es im Original aber gar nicht gibt.

@CamerRick
Klar, weil die Kantenaufstellung sehr viel enger wird und Du deutlich höhere Kontrastkanten bekommst.

Und wenn das alles funktionieren würde, würde jede 4k Kamera heutzutage HD in 10 BitBit im Glossar erklärt 4:4:44:4:4 im Glossar erklärt anbieten.
Tun sie leider nicht, weil es nicht funktioniert.



Antwort von ArnAuge:

Danke für diese Klarstellung, WoWu! Wieder mal was dazu gelernt!



Antwort von rudi:


Aus 4 unterschiedlichen Farben entsteht bei Unterabtsatung eine einzige Zielfarbe, entlang der Gewichtung der 4 Farben.

Vielleicht liegt hier die Krux, dass wir bei dem Thema nicht zusammenkommen. Meinst du mit den "4 unterschiedlichen Farben" die vier unterschiedlichen RGGB-Sensel-Werte eines Bayer-Rasters?
Über ein kurzes Ja oder Nein würde ich mich freuen.



Antwort von wolfgang:

Ich hab da mal ne Frage. Die GH4 macht ja 10Bit. Allerdings nur am HDMIHDMI im Glossar erklärt bei Aufzeichnung auf einen 10Bit - fähigen Recorder. Da würde doch V-Log seine Stärke ausspielen können, oder?

Meines Erachtens ja - noch dazu als der Shogun ja inzwischen auch Vorschau-LUTs kann und v-log implementiert hat. Und bei der Aufzeichnung läßt sich sogar einstellen, ob die LUT auf die Aufzeichnung angewendet werden soll oder nicht. Da ist man damit recht flexibel.

Ist denn sicher, dass die Übertragungsfunktion auf HDMIHDMI im Glossar erklärt ankommt ?
Nach wie vor ist HDMIHDMI im Glossar erklärt eine Monitorschnittstelle.
Das würde ich erst mal prüfen.

Ich gehe schon davon aus dass dies beim Shogun ankommt - sonst hätten wir ja keine erfolgreichen Testmuster gesehen, die ohnedies intensiv diskutiert worden sind. Aber Kontrolle ist besser. Sobald das Update verfügbar ist, werde ich das selbstverständlich testen. Wozu habe ich diese Geräte.

Aus 4 unterschiedlichen Farben entsteht bei Unterabtsatung eine einzige Zielfarbe, entlang der Gewichtung der 4 Farben.
Diese Farbe wird im Datensignal übertragen. Die Werte der 4 ursprünglichen Farben sind verloren.

Ja klar können das nur errechnete Mischfarben sein - und nicht mehr. Dieser Umstand liegt eigentlich auf der Hand.

Aber ich frage mich eines: wenn ich ein UHD-Bild mit 10bit 444 hätte, und das auf HD umrechne - auch dann müssen aus den Farbinfos der PixelPixel im Glossar erklärt Werte zusammen gerechnet werden. Auch das sind dann über irgendeinen Algorithmus gemittelte Farben. So gesehen habe ich beim downsizing immer eine Art Mittelwertsbildung.

Auch ich bevorzuge selbstverständlich 10bit 422/444 - aber WENN das jemand nur für HD aufzeichnet, woher sind wir uns dann sicher dass die eine Mittelwertsbildung aus UHD 8bit 420 wirklich so anders ist als die Mittelwertsbildung aus UHD 10bit 444?



Antwort von WoWu:


Aus 4 unterschiedlichen Farben entsteht bei Unterabtsatung eine einzige Zielfarbe, entlang der Gewichtung der 4 Farben.

Vielleicht liegt hier die Krux, dass wir bei dem Thema nicht zusammenkommen. Meinst du mit den "4 unterschiedlichen Farben" die vier unterschiedlichen RGGB-Sensel-Werte eines Bayer-Rasters?
Über ein kurzes Ja oder Nein würde ich mich freuen.
Nein
Ob Dir mit der Antwort nun gedient ist, weiss ich nicht, aber Du wolltest sie ja kurz, um Dich darüber freuen zu können.Aber ich frage mich eines: wenn ich ein UHD-Bild mit 10bit 444 hätte, und das auf HD umrechne - auch dann müssen aus den Farbinfos der PixelPixel im Glossar erklärt Werte zusammen gerechnet werden.
Ja, es entsteht eine Unterabtastung horizontal und vertikal und damit 10 BitBit im Glossar erklärt 4:2:2



Antwort von -paleface-:

Also mir ist aufgefallen das wenn ich ein UHD Bild + ein UHD 10BIT 4:2:24:2:2 im Glossar erklärt Bild auf FullHDFullHD im Glossar erklärt runterskaliere das 4:2:24:2:2 im Glossar erklärt Bild
A: Schärfer ist
B: Ich mehr grading Puffer habe.

Daher ist meiner Meinung, die Theorie aus UHD durch runterskalieren auf FullHDFullHD im Glossar erklärt ein 4:2:24:2:2 im Glossar erklärt Bild zu bekommen in der Praxies nicht anwendbar.

Vielleicht rechnerisch. Aber bei mir kommen keine Vorteile an. Lasse mich aber gerne eines besseren belehren.



Antwort von mash_gh4:

Aber ich frage mich eines: wenn ich ein UHD-Bild mit 10bit 444 hätte, und das auf HD umrechne - auch dann müssen aus den Farbinfos der PixelPixel im Glossar erklärt Werte zusammen gerechnet werden.
Ja, es entsteht eine Unterabtastung horizontal und vertikal und damit 10 BitBit im Glossar erklärt 4:2:2

es geht eben nichts über eine wirklich schräge phantasie! :)



Antwort von WoWu:

Falsifizier doch einfach... Aber dazu reicht' wohl nicht.
Vermutlich weißt Du nicht mal, was eine Unterabtastung ist, geschweige denn, wie sie funktioniert.



Antwort von wolfgang:

Aber ich frage mich eines: wenn ich ein UHD-Bild mit 10bit 444 hätte, und das auf HD umrechne - auch dann müssen aus den Farbinfos der PixelPixel im Glossar erklärt Werte zusammen gerechnet werden.
Ja, es entsteht eine Unterabtastung horizontal und vertikal und damit 10 BitBit im Glossar erklärt 4:2:2

Ja, aber auch das ist errechnet! Um nicht zu sagen "nur" errechnet.



Antwort von WoWu:

Jede Unterabtastung ist ein Rechenergebnis, das sich in Intensität und Farbe auswirkt, weil Pixelwerte gewichtet und neu berechnet werden.
Nur das Ergebnis sieht eben anders aus.



Antwort von wolfgang:

Ja klar ist es das - ein Rechenergebnis. Und wenn das Ausgangsmaterial höherwertiger ist - 10bit 422 - hast halt ein anderes Rechenergebnis bei der downconversion zu HD.

Freilich, ob irgeneiner den Unterschied erkennen kann darüber kann man halt nachdenken. Ich vermute der Unterschied wird eher marginal sein - auch wenn ich persönlich den qualitative besseren Wege gehen will.



Antwort von mash_gh4:

Vermutlich weißt Du nicht mal, was eine Unterabtastung ist, geschweige denn, wie sie funktioniert.

ich würde die farbunterabtastung halt -- wie vermutlich die meisten -- eher auf das verhältnis zwischen heligkeits- und farbinformationen innerhalb der übertragung beziehen, nicht alleine nur auf eine kompression gegenüber dem ursprünglichen ausgangsmaterial, so wie du das hier offenbar nahe legst.

aber es sei dir völlig unbenommen, wörter einfach in jener weise zu verwenden, wie es deinem ganz persönlichen geschmack und verständnis der sache entspricht. ;)



Antwort von iasi:

Um nochmal auf die 10Bit 4:2:24:2:2 im Glossar erklärt am HDMIHDMI im Glossar erklärt zurück zu kommen:

Hier wäre V-Log ja wirklich interessant.

Nur hat WoWu in den Raum gestellt, dass hiervon nichts beim Recorder (z.B. Shogun) ankommen könne?

Kann mich bitte jemand erleuchten und sagen, wie es denn nun um das Material bestellt ist, das von der GH4 (mit V-Log) kommend auf dem Shogun landet.



Antwort von wolfgang:

Nur hat WoWu in den Raum gestellt, dass hiervon nichts beim Recorder (z.B. Shogun) ankommen könne?

Kann mich bitte jemand erleuchten und sagen, wie es denn nun um das Material bestellt ist, das von der GH4 (mit V-Log) kommend auf dem Shogun landet.

Also der Shogun nimmt von einer GH4 sehr wohl 10bit 422 Material in ProResProRes im Glossar erklärt oder DNxHR auf. In der GH4 hast die explizite Umschaltmöglichkeit von 8bit auf 10bit 422 am HDMIHDMI im Glossar erklärt Ausgang. Das ist inzwischen unumstritten.

Und der Shogun ist längst für v-log bestens vorbereitet, bietet die geeigente Vorschau-LUT und die Aufzeichnung mit oder ohne dass diese LUT wirkt.

Panasonic und Atomos arbeiten da durchaus zusammen, man hat ja etwa in die Firmware der GH4 auch die Fähigkeit integriert die Aufnahme am Shogun von der GH4 aus zu starten und zu beenden. Und wir haben auch bei Testclips aus dem Shogun und der GH4 mit v-log gesehen. Also da würde ich mir keine Sorgen machen dass dies nicht funktioniert. Ich gehe davon aus dass wir das demnächst nach dem Vertrieb des v-log upgrades auch in Europa sehen werden.



Antwort von rudi:


Aus 4 unterschiedlichen Farben entsteht bei Unterabtsatung eine einzige Zielfarbe, entlang der Gewichtung der 4 Farben.

Vielleicht liegt hier die Krux, dass wir bei dem Thema nicht zusammenkommen. Meinst du mit den "4 unterschiedlichen Farben" die vier unterschiedlichen RGGB-Sensel-Werte eines Bayer-Rasters?
Über ein kurzes Ja oder Nein würde ich mich freuen.
Nein
Ob Dir mit der Antwort nun gedient ist, weiss ich nicht, aber Du wolltest sie ja kurz, um Dich darüber freuen zu können.
Es freut mich tatsächlich sehr, wenn ich andere verstehen und einem Gedanken folgen kann ;)
Darum schließe ich daraus, dass du von 4 Pixeln redest, die aus dem RGGB Sensel-Quadrat durch das Debayering entstanden sind. Wahrscheinlich unter der Annahme eines 1:1 Sensel:Pixel-Verhältnis beim Debayering.
Meinst du es so?



Antwort von rudi:


Und wenn das alles funktionieren würde, würde jede 4k Kamera heutzutage HD in 10 BitBit im Glossar erklärt 4:4:44:4:4 im Glossar erklärt anbieten.
Tun sie leider nicht, weil es nicht funktioniert.
Unsere Erfahrung ist leider gegenteilig: Die Hersteller bieten bei weitem nicht alles an, was funktionieren würde. Sonst sähe die Canon 5D Mark III wohl eher so aus, wie sie aktuell von Magic Lantern aufgebohrt wurde. Die Kamera kann u.a. bewiesenermaßen stabil RAW filmen, aber Canon bietet es nicht an. Aber offensichtlich nicht, weil es nicht funktioniert.

Näher gelegenes Beispiel: Die Sony PXW-X70 "kann" 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt in HD aus einem herunter skalierten 4K-Sensor. Aber Sony bietet das bei anderen, bauähnlichen Modellen nicht an. Aber zu funktionieren scheint es sehr wohl.



Antwort von Peppermintpost:

@rudi

wenn du ein 8bit bild beliebiger grösse nimmst und einen gaussian blur darauf rechnest, dann erzeugt der dir auch ein höher bittiges bild (natürlich vorrausgesetzt deine software kann auch mehr als 8bit), aber es daraus entstandene bild hat zwar mehr farbabstufungen aber keine zusätzliche information. das ergebniss hat sich vom original weiter entfernt und sich nicht wie hier teilweise impliziert weiter angenähert.



Antwort von WoWu:

Hallo Rudi

Mich interessiert in diesem Zusammenhang eigentlich gar nicht, was an den Sensor Pixels passiert denn hier haben wir es mit der klassischen Unterabtastung eines bereits mehrfach unterabgetasteten Pixels und deren Wirkung auf das Bild zu tun.
Auch die mathematische Erzeugung eines Wertes ist hier nicht von Relevanz sondern das optisch entstandene Bild.
Das verändert (verschlechtert) sich mit jeder weiteren Unterabtastung.
Hinzu kommt noch, ob Unterabtastungen dann mit- oder ohne Tiefpass gemacht werden, am gründsätzlichen Ergebnis der Qualitätsreduktion aber ändert das nichts.
Es kann also keine Rede davon sein, dass sich Bilder im Sinn einer Höherwertigkeit verbessern.

Edit:
Näher gelegenes Beispiel: Die Sony PXW-X70 "kann" 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt in HD aus einem herunter skalierten 4K-Sensor. Aber Sony bietet das bei anderen, bauähnlichen Modellen nicht an. Aber zu funktionieren scheint es sehr wohl.
Es dürfte eine Vermutung sein, dass eine Skalierung stattfindet. Ebensogut könnte auch gebinnt werden (was streng genommen besser wäre).
Darüber hinaus zweifel ich gar nicht an, dass der Sensor nicht deutlich mehr als 10 BitBit im Glossar erklärt macht, frage mich aber, was das mit dem Theme der Unterabtastung eines abgeschlossenen Prozessings zu tun hat.
Wenn die bandbreite nicht mehr als 8 BitBit im Glossar erklärt bei 4K hergibt, dann wird Sony dem Rechnung tragen müssen.
Wenn dieselbe BandbreiteBandbreite im Glossar erklärt das aber bei 2K 10Bit zulässt ... prima.
Das heisst aber noch lange nicht, dass eine Untrabtsatung aus 4K dieselbe Qualität hat, wie ein Signalprozessing in realem 10Bit.

Und der "runterskalierte" 4K Sensor bedeutet ja nichts Anderes, als dass 12 bzw. 14 BitBit im Glossar erklärt nach 10 BitBit im Glossar erklärt gemapped sind und nicht 8 BitBit im Glossar erklärt nach 10 Bit.



Antwort von rudi:

@rudi

wenn du ein 8bit bild beliebiger grösse nimmst und einen gaussian blur darauf rechnest, dann erzeugt der dir auch ein höher bittiges bild (natürlich vorrausgesetzt deine software kann auch mehr als 8bit), aber es daraus entstandene bild hat zwar mehr farbabstufungen aber keine zusätzliche information. das ergebniss hat sich vom original weiter entfernt und sich nicht wie hier teilweise impliziert weiter angenähert.

So weit ist das alles klar und unbestritten.
Ich wollte die Diskussion nur einmal Schritt für Schritt führen ohne immer alles gleich in einen Topf zu werfen.
Schon wenn man "Farben sagt, dann ist das eigentlich ungenau", denn man müsste fragen ob damit die zwei UV-Chroma-Kanäle gemeint sind oder ein daraus errechnetes RGB-Pixel, das auf dem Monitor sichtbar wird.
Was bisher in der Diskussion untergeht: Der Luma-Kanal wird nicht unterabgetastet! Und der Luma-Anteil wird ja erst nach der Unterabtastung - also später- ein Teil der RGB-Farbinformation.

Aber ich würde mich da gerne mal Schritt für Schritt heranargumentieren und lasse mich gerne auch eines besseren beleheren, wo dann der (evlt. auch mein) Denkfehler besteht.



Antwort von WoWu:

Dann müssen wir aber auch erst mal die "Baustelle" abgrenzen und nicht Sensorverarbeitung (aus 14 Bit) mit einem verarbeiteten und mehrfach unterabgetasteten 8Bit Signals vermengen.
Das sind nämlich zwei verschiedene Baustellen.
Die Aussage ist aber .... Man könne aus einem 4 K, 8 BitBit im Glossar erklärt Signal ein 2 k, 10 BitBit im Glossar erklärt Signal erzeugen.
und spätestens das sind bereits 2 Baustellen.



Antwort von rudi:

OK, wollen wir ;) ?

Setzen wir also einmal da an, was wir haben. Können wir uns einmal darauf einigen:
Ein UHD-Pixel, das intern in einem 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt DatenstromDatenstrom im Glossar erklärt vorliegt wurde hat folgende Information "gespeichert":

- Eine ziemlich "exakte" Luma-Information (Y), die ohne Zugriff auf die Nachbarpixel errechnet wird.

- 2 Chroma- (UV) Informationen, die aus den Nachbarpixeln erzeugt werden.

Betrachtet man 2 x 2 Pixel: Hier wird von jedem PixelPixel im Glossar erklärt seine exakte Luma-Information in 8 BitBit im Glossar erklärt abgespeichert. Die Chroma-Werte (UV) sind für alle 4 PixelPixel im Glossar erklärt gleich.

Gibt es daran was zu rütteln?



Antwort von tobitobsen:

ähm können wir beim Thema bleiben? :)

Panasonic V-Log - lohnt sich das oder nicht?

:)



Antwort von domain:

Wenn das wirklich stimmen sollte:

"highlight clipping would be recorded at around 182, with no image details recorded in the range 183-255. At the other end of the scale, the bottom 4 stops of shadow detail would be recorded in the range 32-48, just 4 bits of data to cover 4 stops of dynamic range."

Übersetzung:
"Clippende Highlights werden bei rund 182 aufgezeichnet, wobei keinerlei Details mehr darüber evaluierbar sind. Anderseits werden die Schatten mit den untersten 4 Blenden erst im Bereich zwischen 32 und 48 aufgezeichnet."

Das sagt doch alles. Und weil auch nicht linearisierte möglichst flache Darstellungen auf dem Monitor derzeit der letzte Schrei sind könnten es auch reine Marketingargumente sein.
Die Anpassungsfähigkeit von Marketing-Managern, welche gegen den Willen und die Überzeugung ihrer Ingenieure etwas Verkaufbares entwickeln lassen hat aber eine lange Tradition bis heute.
Mehr PixelPixel im Glossar erklärt, mehr ZoomZoom im Glossar erklärt, mehr große Sensoren für gute Unschärfe und Filmlook, mehr Lichtempfindlichkeit, mehr Dynamik, mehr flache verwaschene Bilder;-)



Antwort von wolfgang:

Panasonic V-Log - lohnt sich das oder nicht?

Na wenn du clipping nicht haben willst, wie das Zitat im letzten Posting sagt - dann kann das für dich durchaus von Interesse sein. Ich für meinen Teil finde das durchaus interessant.

Aber vermutlich muss man das für sich selbst austesten. Und den entsprechenden Nachbeareitungsaufwand in der Postpro auf sich nehmen.



Antwort von rudi:

Wenn das wirklich stimmen sollte:

"Clippende Highlights werden bei rund 182 aufgezeichnet, wobei keinerlei Details mehr darüber evaluierbar sind. Anderseits werden die Schatten mit den untersten 4 Blenden erst im Bereich zwischen 32 und 48 aufgezeichnet."

Ich hatte die Möglichkeit mit der GH4 V-Log Beta zu spielen und kann es leider bestätigen:
In RGBRGB im Glossar erklärt minimal 30/30/30 maximal 191/191/191.
Dazu lässt sich der Luminanzbereich im V-log Modus nicht mehr frei einstellen. Da ist nicht mehr rauszuholen.
Bald mehr dazu von uns.



Antwort von Peppermintpost:

Wenn das wirklich stimmen sollte:

"Clippende Highlights werden bei rund 182 aufgezeichnet, wobei keinerlei Details mehr darüber evaluierbar sind. Anderseits werden die Schatten mit den untersten 4 Blenden erst im Bereich zwischen 32 und 48 aufgezeichnet."

Ich hatte die Möglichkeit mit der GH4 V-Log Beta zu spielen und kann es leider bestätigen:
In RGBRGB im Glossar erklärt minimal 30/30/30 maximal 191/191/191.
Dazu lässt sich der Luminanzbereich im V-log Modus nicht mehr frei einstellen. Da ist nicht mehr rauszuholen.
Bald mehr dazu von uns.

bin sehr gespannt von euch darüber zu lesen. wäre super wenn ihr ggf auch mal kurze original clips zum download posten könntet. ich hab gerade mal mit dem herunter kompremiertem youtube footage rum gespielt und habe die vermutung (nicht den beleg) das der tester sich sowieso gehörig mit den farben und farbräumen geirrt hat, weil meine vlog konvertierung auf der basis seines footages deutlich anders aussieht, das normale rec709 footage von ihm scheint mir auch nicht richtig interpretiert worden zu sein. aber das ist jetzt natürlich ins blaue gelabert weil ich ja nicht die original clips habe.



Antwort von wolfgang:

Das originale Posting von Berry Green, auf das sich das bezieht, ist eigentlich über die DVX200. Allerdings sehe ich wenig Grund anzunehmen, dass die hier aufgezeigte Einschränkung von v-log-l nicht auch für die GH4 gilt. Mehr als 12 der ursprünglichen 16 Stops scheinen nicht zu gehen. Und damit liegt der maximale Bereich bei IRE 79.

http://www.dvxuser.com/V6/showthread.ph ... 1986571024

http://www.dvxuser.com/V6/showthread.ph ... or-the-GH4

Und bisher meinen einige, dass dies mit dem Shogun besser sein sollte. Nur wie soll das gehen? Die Einschränkung kommt ja von der Kamera und nicht vom Shogun.



Antwort von mash_gh4:

Und bisher meinen einige, dass dies mit dem Shogun besser sein sollte. Nur wie soll das gehen? Die Einschränkung kommt ja von der Kamera und nicht vom Shogun.

mit dem shogun od.ä. ist es insofern besser, als dir wenigstens noch immer deutlich mehr zwischenschritte zur verfügungen stehen. du nutzt zwar auch dort dann effektiv nur 9 der 10 eigentlich zur verfügung stehenden bits, wenn du 50% der werte links liegen lässt, aber du stehst dann immer noch relativ gut da, im vergleich zur internen aufnahme, wo es deutlich enger zugeht.

man kann diesen nachteil im 10bit umfeld vielleicht sogar ein wenig relativieren, wenn man hervorhebt, dass das ganze dafür einheitlichkeit zwischen verschieden high/low end cameras in der postproduktion ermöglicht und auch noch reserven für zukünftige sensorverbesserungen offen hält, etc.

da es sich bei der gh4 und der dvx200 aber um geräte handelt, die primär einmal für eine interne 8bit aufzeichnung gedacht sind, hätte man sich eigentlich erwarten können, dass die 'lite' ausgabe zwar vielleicht diese reserven für noch leistungsfähiger sensoren bzw. dynamik range ausklammert, dafür aber die 256 zur verfügung stehenden werte pro kanal möglichst optimal nutzt. das hätte irgendwie sinn gemacht bzw. die unterscheidung der beiden vlog ausgaben vernünftig gerechtfertigt. leider ist das aber offenbar nicht der fall. in der konkret vorliegenden ausführung wirkt das ganze nicht besonders überzeugend.

so sehr ich also, wie du aus anderen postings sicher weißt, die nutzung von log-aufzeichnung grundsätzlich begrüße, so sehr zweifle ich an der sinnhaftigkeit dieser ganz konkreten implementierung.

ja, prinzipiell reichen natürlich auch schon um die 100 abstufungen, um einigermaßen erträgliche bilder zu schaffen, aber fürs korrigieren und eine möglichst hochwertige wiedergabe, wofür derartige formate ja eigentlich gedacht sein sollten, bleibt unter solchen vorgaben nicht viel raum.

man brauchte die sache deshalb trotrzdem nicht unnötig weiter zu verteufeln oder schecht zu machen -- nur offen aussprechen, was sache ist(!)... und vielleicht noch am rande erwähnen, dass man das ziemlich traurig findet.

ein wenig würde ich domain fast recht geben, wenn er dahinter böse marketingabsichten vermutet. ich vermute die betreffende wahrheit eher in verführunkskünste im hinblick auf eine kommende GH5. 10bit aufzeichnung via shogun und co. wird nämlich bis auf weiteres eher die ausnahme bleiben, weil es einfach keinen sinn macht, für derartiges zubehör mehr auszugeben als für die kamera. der nachfolger der GH4 wird aber mit allergrößter wahrscheinlichkeit 10bit h.265 auch intern bieten. und in diesem zusammenhang macht es durchaus sinn, wenn man ein halbes jahr vorher ein feature pusht, dass auf den gegenwärtigen geräten nur sehr beschränkt funktioniert bzw. keine besonders herausragenden ergebnise liefert. den umstieg auf zukünftiges gerät macht das nur umso attraktiver...

für jene leute, die halt nicht so gerne all ihr geld ständig in funkelnde neue hardware stecken, sondern lieber aus vorhandenem gerät ein maximum herauszuholen versuchen und sich über div. nachträgliche sinnvolle verbesserungen, sei es vom hersteller od. von irgendwelchen hackern, weit eher freuen würden, ist halt wirklich nicht besonders beglückend, welch fragwürdige show da seit monaten abgezogen wird. :(



Antwort von wolfgang:

Das ist mir absolut klar dass man mit 10bit halt mehr Werte hat als mit 8bit. Trotzdem ist der Lumabereich halt entsprechend auf irgenswas um die 70% des grundsätzlich verfügbaren Umfangs eingeschränkt.

Und nein, das müßte nicht so sein. Barry Green scheint sich ja auch dafür stark zu machen, dass das einfach entsprechend umgemappt wird. Denn die Absurdität bei dieser Lösung ist ja offenbar, dass kein 80% Zebra anspricht, und man trotzdem bereits massives Clipping bekommen würde.



Antwort von WoWu:

OK, wollen wir ;) ?

Setzen wir also einmal da an, was wir haben. Können wir uns einmal darauf einigen:
Ein UHD-Pixel, das intern in einem 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt DatenstromDatenstrom im Glossar erklärt vorliegt wurde hat folgende Information "gespeichert":

- Eine ziemlich "exakte" Luma-Information (Y), die ohne Zugriff auf die Nachbarpixel errechnet wird.

- 2 Chroma- (UV) Informationen, die aus den Nachbarpixeln erzeugt werden.

Betrachtet man 2 x 2 Pixel: Hier wird von jedem PixelPixel im Glossar erklärt seine exakte Luma-Information in 8 BitBit im Glossar erklärt abgespeichert. Die Chroma-Werte (UV) sind für alle 4 PixelPixel im Glossar erklärt gleich.

Gibt es daran was zu rütteln?

ähm können wir beim Thema bleiben? :)

Hallo Rudi,
mach einfach mal einen neuen Thread auf, um hier nicht dazwischen zu funken.



Antwort von enilnacs:

@WoWu
ich hab mir ALLE Kommentare bzgl. 8 zu 10bit angeschaut, hier und im Slashcamartikel und muss leider feststellen dass:

1. Du keine mathematische Erklärungen abgibst, nur Pseudowissen als eigene Meinung, oder einfach ein paar copy/paste Bilder die nichts damit zu tun haben.
2. Du gravierende Mängel im Verständnis von Videoprozessen hast (zB was Dithering, Subsampling und Binning sind,etc.) die man mit einem einfachen Wiki nachschlagen kann.
3. Du deine Meinung erklärst als wären sie dein heiliger Gral und nicht auf Fakten eingehst sondern grenzwertig schon fast Trolling ist.

Ich hab nun schon 18 Jahre Erfahrung in der CCD/CMOS Signal und AD/DD/DA Verarbeitung und Codierung, und Slashcam HAT Recht, auch wenn es nicht ganz 10 bit sind, Es sind (visuell) die gleichen Farben. Ich hab es nachberechnet! Es ist SPATIAL STATISTISCHES SUBSAMPLING! Begreife es.
Wir könnten einen "Mathekrieg" führen und sämtliche Fakten überprüfen. Aber wenn ich mir Punkt 3 anschaue... dann lieber nicht. Du hältst ja deine Meinung hoch und heilig. :-)

Sorry, aber dass musste ich einfach echt mal sagen. Nichts für Ungut. Kritik muss auch mal sein.

@Alle
Slashcam hat recht, und es stimmt, man gewinnt je nach Footage zwischen 9,2 bis 9,6 bit! Und ja, es ist es auf jeden Fall Wert.



Antwort von klusterdegenerierung:

Heau heau!
Schoko, Chips, Cola und den Chefsessel in Liegeposition gebracht!



Antwort von WoWu:

Da freue ich mich aber, wenn es Dir jetzt gut geht, nachdem Du das, was Du in dem Artikel schon falsch behauptet hast, nochmal wiederholen könntest.
Einen Nachweis bleibst Du allerdings auch schuldig.

Auch schön, wenn es Dir jetzt besser geht, nachdem Du nochmal richtig polemisch werden konntest..
Manche Leute brauchen das hin und wieder, wenn ein *** wegen Beleidigung gelöscht ***

Schade eben nur, dass die Industrie davon noch nichts weiß und die 18 Jahre offenbar fruchtlos vergangen sind.
Aber vielleicht lernst Du das ja auch noch. Und vielleicht auch, dass Videos etwas mit Bilddetails und nicht mit mathematischen Verrenkungen zu tun hat.

Und wenn Dir meine Zeichnungen nicht gefallen, kann das natürlich auch daran liegen, dass Du sie nicht nachvollziehen willst/kannst.
Das liegt aber ganz sicher nicht an den Zeichnungen.

Aber schön, das wir jetzt zwar nicht konstruktives zur Sache erfahren haben, es Dir jetzt aber besser geht.
Das ist doch schon ein Fortschritt.



Antwort von srone:

Betrachtet man 2 x 2 Pixel: Hier wird von jedem PixelPixel im Glossar erklärt seine exakte Luma-Information in 8 BitBit im Glossar erklärt abgespeichert. Die Chroma-Werte (UV) sind für alle 4 PixelPixel im Glossar erklärt gleich.

Gibt es daran was zu rütteln?

ja, das gibt es, der fehler liegt hier im bayer-pattern selbst, gehe ich zb von einem flächigen bläulichen licht aus, nur als beispiel, kann der sensel mit dem roten farbfilter nicht denselben lumawert liefern wie zb der mit dem blauen filter, das müsste er aber, um deinem modell zu entsprechen.

lg

srone



Antwort von WoWu:

Heau heau!
Schoko, Chips, Cola und den Chefsessel in Liegeposition gebracht!nee gar nich...
Statistisch besteht die Menschheit zu 7/8 aus Vollpfosten.
Warum sollten solche Werte nicht auch hier im Forum Gültigkeit haben.
Und es ist doch schön, wenn es Leuten danach besser geht.



Antwort von srone:

Es sind (visuell) die gleichen Farben. Ich hab es nachberechnet! Es ist SPATIAL STATISTISCHES SUBSAMPLING!

siehe nachbarthread "color upsampling technik", da kannst du rechnen was du willst, wenn du aus einem pixelgenauen uhd 8bit schachbrett ein "supertolles" 10bit hd graubild erzeugst, gratulation, nur mit bildgüte hat das imho nicht mehr viel zu tun.

lg

srone



Antwort von mash_gh4:

Statistisch besteht die Menschheit zu 7/8 aus Vollpfosten.
Warum sollten solche Werte nicht auch hier im Forum Gültigkeit haben.

ich finde es eigentlich noch bedauerlicher, wie sich in foren u.ä. ständig wieder einzelne charaktäre durchsetzten können und den ton bestimmen, die doch eigentlich unter zuhilfenahme von ein bisserl hausverstand für die meisten leute durchschaubar und vernünftig kritisierbar sein müssten?

das hat wohl auch dazu geführt, dass mittlerweile auch die ganze marketing-geschichte oft über genau solche fragwürdigen multiplikatoren abgewickelt wird.

diese ganze v-log geschichte, die an erbärmlichkeit kaum mehr zu übertreffen ist, wird nun immerhin schon fast einem jahr lang in genau derart übler weise im netz durchexerziert. :(



Antwort von srone:

Statistisch besteht die Menschheit zu 7/8 aus Vollpfosten.
Warum sollten solche Werte nicht auch hier im Forum Gültigkeit haben.

ich finde es eigentlich noch bedauerlicher, wie sich in foren u.ä. ständig wieder einzelne charaktäre durchsetzten können und den ton bestimmen, die doch eigentlich unter zuhilfenahme von ein bisserl hausverstand für die meisten leute durchschaubar und vernünftig kritisierbar sein müssten?

das hat wohl auch dazu geführt, dass mittlerweile auch die ganze marketing-geschichte oft über genau solche fragwürdigen multiplikatoren abgewickelt wird.

diese ganze v-log geschichte, die an erbärmlichkeit kaum mehr zu übertreffen ist, wird nun immerhin schon fast einem jahr lang in derart üblen weise im netz durchexerziert. :(

@ mash-gh4

sorry, wenn ich hier eine lanze für wowu brechen muss, aber der hat sich hier im laufe der jahre einiges anhören müssen, so daß ich sehr gut verstehe, daß ab einem gewissen moment zynismus aufkommt. ;-)

wowu versucht seit jahren herstellerabhängige werbebotschaften auf den boden der tatsachen zu reduzieren, ob dies nun für "jeden" verständlich oder auch populär ist, sei dahingestellt, nur weiss er hier, wie kaum ein anderer, wovon er spricht.

lg

srone



Antwort von mash_gh4:


@ mash-gh4
sorry, wenn ich hier eine lanze für wowu brechen muss, aber der hat sich hier im laufe der jahre einiges anhören müssen, so daß ich sehr gut verstehe, daß ab einem gewissen moment zynismus aufkommt. ;-)

wowu versucht seit jahren herstellerabhängige werbebotschaften auf den boden der tatsachen zu reduzieren, ob dies nun für "jeden" verständlich oder auch populär ist, sei dahingestellt, nur weiss er hier, wie kaum ein anderer, wovon er spricht.

da ist sicher etwas dran!

jedenfalls liegt mir natürlich auch nichts daran, da irgendwelche gräben bis zur unüberwindbarkeit zu vertiefen oder jede ernsthafte diskussion auf der basis von persönlichen animositäten gleich vom ersten moment an als entschieden anzusehen.

ich sehe also durchaus auch die qualitäten, die wowu hier tlw. einzubringen vermag.
im gegenteil, es gibt ziemlich zu denken, warum er dann trotzdem mit derartiger regelmäßigkeit wieder über die eignen beine stolpert und ihm irgendwas jede einsicht in die elementarsten zusammenhänge verstellt?

oft ist es ja wirklich nur eine frage des ausdrucks -- aber auch das kann den blick auf welt völlig verstellen.

ich halt's da eher mit anderen akademischen tugenden, die ganz unabhängig vom speziellen fach, dem lebendigen dialog / dem kritischen hinterfragen weit mehr bedeutung beimessen als eingespielten verhaltensmustern autoritär vermittelter wissensproduktion. dafür muss einfach auch platz sein.



Antwort von srone:

im gegenteil, es gibt ziemlich zu denken, warum er dann trotzdem mit derartiger regelmäßigkeit wieder über die eignen beine stolpert und ihm irgendwas jede einsicht in die elementarsten zusammenhänge verstellt?

eine frage der betrachtungsweise, sind die elementarsten zusammenhänge die, welche einem vermittelt werden "sollen" (herstellerseitig), die vereinfacht verstanden werden sollen oder sitzen nicht gewisse problematiken tiefer?

lg

srone



Antwort von WoWu:

ich halt's da eher mit anderen akademischen tugenden, die ganz unabhängig vom speziellen fach, dem lebendigen dialog / dem kritischen hinterfragen weit mehr bedeutung beimessen als eingespielten verhaltensmustern autoritär vermittelter wissensproduktion. dafür muss einfach auch platz sein.

...blumige Sprüche, die nicht von der Realität gedeckt sind.
Da zeigt sich, dass der Geist des Menschen in den Spitzen zwar oft geschärft wird und einen Fortschritt zeitigt, der Abstand der gelebten Realität aber immer gleich weit von den Möglichkeiten entfernt ist.
Du trittst immer sehr wortgewaltig mit dem Anspruch der Vernunft auf.
Leider ist das Gegenteil die gelebte Realität.

@ sron
*** wegen beleidigender Unterstellung gelöscht ***



Antwort von mash_gh4:

... sind die elementarsten zusammenhänge die, welche einem vermittelt werden "sollen" (herstellerseitig), die vereinfacht verstanden werden sollen oder sitzen nicht gewisse problematiken tiefer?

keine sorge -- natürlich schätze ich fachkundige expertise und glaubwürdiges aufklärungsbemühen! -- wirklich! :)

aber zu einer fruchtbaren kritischen auseinandersetzung gehört eben einfach auch das bemühen um ein wenig έποχή, damit tatsächlich antworten reifen können, sonst bleibt es bei oberflächlichem geplänkel. dann hat zwar wieder jeder für sich recht behalten, aber gemeinsam kommt man nicht vom fleck.



Antwort von rudi:


Rudi? *** wegen Beleidigung gelöscht ***

@Wowu: Ich habe auch noch andere Dinge zu tun, weshalb ich nicht immer im Forum präsent sein kann: (u.a. gerade auf der IFA Gespräche führen, IBC vorbereiten, ein paar Kameras testen und ein paar Dinge in meiner Familie regeln, weil meine mittlere Tochter morgen eingeschult wird).

@alle: Ich wollte gestern Nacht noch was zum Thema vorbereiten , aber es ist sehr aufwändig, das sorgfältig zu machen. Grundsätzlich schätze ich Wowus Kompetenz auch (sogar sehr), aber auch er lag in der Vergangenheit schon mal daneben. Das kann bei allem Lob jedem Menschen passieren. Und in dieser Sache -glaube ich- liegt er auch nicht ganz richtig. (Weshalb ich die Begriffe gerne im Vorfeld klar definieren wollte, um eine sinnvolle Diskussion führen zu können). Aber dazu würde sich wohl wirklich ein eigener Thread empfehlen, womit Wowu schon wieder recht hatte ;)

Hier ist ein Artikel, der -glaube ich- ganz gut ist. Habe ihn nur überflogen.

http://www.shutterangle.com/2014/shooti ... advantage/

Ich denke, nach wie vor belegen zu können, dass ein Downsampling von 4K 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt den Luma-Kanal fast zu einer 10 bit-äquivalenten 2K-Aufnahme vergleichbar macht. Die Chroma-Kanäle bleiben allerdings 8 BitBit im Glossar erklärt, sind aber örtlich genauer abgegrenzt, als bei einem 2K-Bayer Sensor mit echter 10 BitBit im Glossar erklärt Codierung.

Von meiner Seite ist dazu allerdings erst mehr nach der IBC zu erwarten.



Antwort von mash_gh4:

Ich denke, nach wie vor belegen zu können, dass ein Downsampling von 4K 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt den Luma-Kanal fast zu einer 10 bit-äquivalenten 2K-Aufnahme vergleichbar macht. Die Chroma-Kanäle bleiben allerdings 8 BitBit im Glossar erklärt, sind aber örtlich genauer abgegrenzt, als bei einem 2K-Bayer Sensor mit echter 10 BitBit im Glossar erklärt Codierung.

im konkreten falle der fehlenden v-log tonwerte fürchte ich leider fast, dass man die fehlende information auch durch skalierung nach 2k nicht wirklich gut kompensieren wird können. das hat u.a. damit zu tun, dass man in der praxis leider nicht immer von völlig unabhängigen pixeln in bildern ausgehen kann, sondern diese zum teil, etwa nach erfolgter kompression und zusammenfassung in makroblocks, besser als größerer komplexe mit ganz bestimmten eigenschaften und grenzen aufgefasst werden müssen. LPowell, der sich ja auch in er laufenden debatte rund um v-log-l implementierung erfreulich kritisch und kompetent hervortut, hat das in diesem anderen zusammenhang immer wieder betont. und auch jetzt, wo es um die ganz spezifischen v-log-l mängel oder verbesserungsmöglichkeiten geht, versucht er das immer vor dem größeren gesamtzusammenhang zu sehen -- also auch konsequenzen im zuge der kompression, etc.



Antwort von enilnacs:

Es sind (visuell) die gleichen Farben. Ich hab es nachberechnet! Es ist SPATIAL STATISTISCHES SUBSAMPLING!

siehe nachbarthread "color upsampling technik", da kannst du rechnen was du willst, wenn du aus einem pixelgenauen uhd 8bit schachbrett ein "supertolles" 10bit hd graubild erzeugst, gratulation, nur mit bildgüte hat das imho nicht mehr viel zu tun.

lg

srone

Was Chroma UPsampling, mit Spatiales DOWNsampling zu tun hat musst mal echt erklären. Mit Bildern und so... Aber ich hab auch noch ne Tonne für die IBC zu tun. Bis nachher. Vll in einem neuen Thread.

@rudi
Der Link zu ShutterShutter im Glossar erklärt Angle ist PERFEKT erklärt. Mehr muss man auch nicht sagen.



Antwort von rudi:



ja, das gibt es, der fehler liegt hier im bayer-pattern selbst, gehe ich zb von einem flächigen bläulichen licht aus, nur als beispiel, kann der sensel mit dem roten farbfilter nicht denselben lumawert liefern wie zb der mit dem blauen filter, das müsste er aber, um deinem modell zu entsprechen.

lg

srone

Aber das "Problem" besteht doch immer, egal ob bei 8 oder 10 Bit. D.h. wie jetzt der Luma-Wert aus dem blauen Sensel errechnet wird ist in 8 oder 10 BitBit im Glossar erklärt gleich. 10 BitBit im Glossar erklärt hat mehr Zwischenwerte bei gleicher Formel.



Antwort von srone:

die frage ist, kann ich, egal nun ob 8 oder 10bit, von einem pixelgenauen lumawert reden oder findet hier schon eine interpolation statt?

lg

srone

edit: @rudi, lustig, man wurde beleidigt, weiss aber nicht wie. :-)



Antwort von rudi:

die frage ist, kann ich, egal nun ob 8 oder 10bit, von einem pixelgenauen lumawert reden oder findet hier schon eine interpolation statt?

lg

srone

edit: @rudi, lustig, man wurde beleidigt, weiss aber nicht wie. :-)

Ich würde gerne darüber lange diskutieren, aber bin für heute offline.

P.S. Ich habe mich persönlich gar nicht beleidigt gefühlt, aber unsere Administration hat das ganze im großen Stil entschärft, was ja gut ist, damit der Umgangston hier nicht unter ein gewisses Niveau fällt. Das artet ja bekanntermaßen dann doch schnell aus.



Antwort von WoWu:

Ich kann da gern mal vorlegen, damit das Thema nicht über die "überlasteten Mitarbeiter" irgendwann in der Austastlücke verschwindet.
Der admin kann das dann ja in einen gesonderten Thread umwandeln, damit es keine Beschwerden gibt.

Die Frage ist also:
... kann ich, egal nun ob 8 oder 10bit, von einem pixelgenauen lumawert reden oder findet hier schon eine interpolation statt?

Dazu sollte man konkretisieren, dass ein Pixelwert, der auf einem Sensorpixel generiert ist, aus 8Bit reproduziert werden soll.
Nicht alle scheinen meine Zeichnungen zu mögen, vermutlich weil sie die Dinge auch für die anschaulich machen, die keiner mathematischen Akrobatik folgen wollen. Nur finde ich es nicht mehr als fair, auch die mitzunehmen, denen solche Veranschaulichungen mehr sagen, als Formelketten.
Also:
Aus einem beliebigen 12 BitBit im Glossar erklärt Grauwert eines Sensors (1 aus 4096) entsteht ein 8 BitBit im Glossar erklärt Grauwert (1 aus 256).
Hierfür kommen untrschidliche Integrationsmethoden in Frage.
Fakt ist aber, dass nur ein Wert innerhalb einer Integrationsmenge nach 8 BitBit im Glossar erklärt übertragen werden kann.

Handelt es sich hierbei z.B. um den Punkt (B-5), also einem spezifischen Grauwert des Sensors, entsteht daraus, je nach Integrationsmethode, entweder der Wert (B) oder der Wert B/A.
Egal, welcher Wert daraus integriert wird, er ist ungleich dem Originalwert (B-5).
Dies trifft auch auf weitere 17 (von 18) Werten (dieser Betrachtungsgruppe) einer solchen Aufteilung zu, oder für den gesamten Sensor gesprochen, für 4096 (12 Bit) -256 (8Bit), also für 3840 Werte zu.
Aus 4096 Werten werden 256 Werte.
Aus (B-5) wird B1
Ebenso aus dem zweiten Beispiel wird aus (A2-3) A2 im 8 BitBit im Glossar erklärt Stream.

Nehmen wir jetzt an, die beiden Werte wären Teil eines 4K Pixelquadrates, wovon die beide übrigen Pixels einen andern, beliebigen Wert einnehmen können.
Aufgabe ist jetzt die Unterabtastung von 4K nach 2K bei einer gleichmässigen Gewichtung der 4 Pixels.
Dabei entsteht das Zielpixel (Z)

Halten wir fest:
Die 8 BitBit im Glossar erklärt PixelPixel im Glossar erklärt B1 und A2 , die bei der Integration der Sensorpixels unter Verwendung von (B-5 und A2-3) entstanden sind, sind bereits ungleich (B-5 und A2-3).
Bei der Untrabtastung der beiden Pixels entsteht unter keiner Bedingung (ausgenommen sie wären gleichfalrbig) wieder einer der Ausgangswerte.
Der generierte Zielwert ist zudem ungleich mit den 8 BitBit im Glossar erklärt Werten, und erst recht mit den 10 BitBit im Glossar erklärt Werten (B-5) oder (A2-3)

Anmerkung:
Es handelt sich bei den Werten nicht um Berechungen sondern lediglich um Bezeichnungen)
Man könnte jetzt natürlich all die Punkte beziffern und in eine Formel fassen. Nur damit ist vielen hier im Forum nicht wirklich gedient, zumal es lediglich um das Prinzip geht.

@sron
Wenn Rudi sich nicht (nach eigener Einlassung) beleidigt fühlt, kann ich Deine Frage ja auch beantworten und es dürfte für den Admin keinen Anlass mehr geben, es erneut zu löschen.
Ich hatte nur die Frage gestellt, ob Rudi sich nun zum Thema wegduckt und lieber seinen Kettenhund vorschickt.



Antwort von enilnacs:


Halten wir fest:
Die 8 BitBit im Glossar erklärt PixelPixel im Glossar erklärt B1 und A2 , die bei der Integration der Sensorpixels unter Verwendung von (B-5 und A2-3) entstanden sind, sind bereits ungleich (B-5 und A2-3).
Bei der Untrabtastung der beiden Pixels entsteht unter keiner Bedingung (ausgenommen sie wären gleichfalrbig) wieder einer der Ausgangswerte.
Der generierte Zielwert ist zudem ungleich mit den 8 BitBit im Glossar erklärt Werten, und erst recht mit den 10 BitBit im Glossar erklärt Werten (B-5) oder (A2-3)

Und genau hier liegt der Hund begraben. Denn durch die Unterabtastung werden STATISTISCH die 10bit wieder SEHR genau adressiert. Eben unter dieser spatialen statistischen Bedingung!

Ja, die 8 bit sind nur 256 Werte von 10bit-1024, jedoch 256 Werte welche über >alle<1024>gleichen< 10bit Werte wiederherstellt UND 99,6% der Werten eine +/-1 Wert Genauigkeit zum Original haben!

Auf Klartext:
Heisst VISUELL ist es quasi-gleichwertig. Man verändert WEIT mehr beim Graden, Conforming, etc.

NICHT ALLE Werte sind rekonstruiert, aber so viele 60% absolut genau(!) und +/-1 99,6% so nahe, dass es total egal ist.
Der Beispiel mit dem Schatten auf der Weissen Wand ist auch genial dank ISO Rauschen, denn die 4 PixelPixel im Glossar erklärt werden auch in 8 bit nie genau gleich sein auch bei ISO 80, und GENAU Dank dessen kann man die Genauigkeit wieder erhöhen. Man könnte dies sehr gut mit einem Renderer vergleichen der bei 4 Samples/Pixel die Bitgenauigeit erhöht.
zB: Lade Blender und schiesse 1 Sample, und dann 4, das Bild wird Klarer.
Der unterschied zwischen MultiSampling und SubSampling ist dass das erste die Information temporal, und das zweite spatial erlangt.
Mehr ist auch nichts hinzuzufügen.

Und auch 10bit, ist streng genommen NIE der gleiche Wert vom CMOS. Da es QUANTISIERT wird von 12 oder 14 ADC des Sensors. Nur RAW. Aber puristisch gesehen ist sogar RAW von der Realität digital quantisiert! LOL So gesehen hast nie die GENAUE Naturwerte.

Das interessiert deine Augen aber nicht, die sind objektiv. Und darum geht es hier: Eine Genauigkeit der Rekonstruktion die präzise GENUG ist zum original, und nicht absolut.

Puhh... hoffentlich hast du es verstanden. Ich kann nicht mehr :-D Freunde ?



Antwort von WoWu:

Da kommen schon die Einschränkungen im Bereich von 60% und die Haarspaltereien und irgendwelchen nebulösen Nachbearbeitungen beim Grading.
Mit andern Worten ... eine Reproduktion ist nicht gewährleistet.
Sag ich doch.

Falsifizier doch einfach die obige Darstellung.

Puhh... (...) Ich kann nicht mehr :-D Freunde ?

Das glaube ich Dir gern, weil die logischen Argumente fehlen.



Antwort von wolfgang:

Na klar, der Theorie glaube ich das sofort dass es da keine eineindeutige Lösung gibt. Aber die Frage ist eher, wie weit die Annäherungen der anderen Lösungen von der theoretisch präzisen Lösung weg sind. Sprich -sieht man einen Unterschied und wenn ja, wie markant ist der eigentlich? Ich vermute er wird nicht enorm gross sein.



Antwort von iasi:

Ich hab den Anschluss verloren.

Es geht ja wohl hier gerade nicht mehr, um den Unterschied zwischen 10bit mit und ohne V-log am Ausgang der GH4?
Oder etwa doch?

Die Beiträge sind eben doch ziemlich lang und ich eher lesefaul.



Antwort von Spaceman:

Das Problem ist hier dass keiner den wirklichen Sinn von Log verstanden hat. Ich habs aufgegeben mich da einzuschalten, hilft nix mehr...

Und je weniger Plan die Leute haben desto länger das pseudotechnische Geschwafel... Da merkt man halt doch schnell dass der Horizont deutlich im Video GammaGamma im Glossar erklärt geschränkt ist ;-)



Antwort von Spaceman:

Alleine so Aussagen wie: jetzt sind bei Log die Lichter bei 70% also hab ich ja weniger Dynamik sind an Dämlichkeit kaum mehr zu überbieten...



Antwort von iasi:

Das Problem ist hier dass keiner den wirklichen Sinn von Log verstanden hat. Ich habs aufgegeben mich da einzuschalten, hilft nix mehr...

Und je weniger Plan die Leute haben desto länger das pseudotechnische Geschwafel... Da merkt man halt doch schnell dass der Horizont deutlich im Video GammaGamma im Glossar erklärt geschränkt ist ;-)

Eigentlich interessiert mich eher eine Bewertung von V-log der GH4, als eine von Leuten.



Antwort von Spaceman:

Was gibt's denn bei V Log zu bewerten?

Log ist immer geil und die Grundlage für echtes Kino.

(Gradingkenntnisse vorausgesetzt)

Hier mal die Bewertung der Log Kurven:

Kodaks Cineon -> Super
Arris Log C -> Super
Canon"s C-Log -> Super
Blackmagics Log -> Super
Sony"s S-Log -> Super
Panasonics V-Log -> Super
... x Log -> Super



Antwort von Stephan82:

Mir ist schon ganz schwindelig von der Technikdiskussion. Deshalb mal paar ganz einfache Fragen zu V-Log L, die mir noch nicht ganz klar sind.

1. Wird V-Log L für die interne 8Bit und externe 10Bit Aufzeichnung wählbar sein?

2. Gilt das auch für 4K oder nur 1080p?

3. Der Shogun ist mir viel zu teuer. Wird es möglich sein mit der GH4 + Atomos Ninja Star (nur 250€) in V-Log-10Bit aufzuzeichnen? Kann das der Recorder (eventuell auch in 4K)?



Antwort von wolfgang:

So wie ich es verstehe - und ohne Gewähr:

1) ja und ja

2) ja und ja

3) nein, der Nina Star kann bisher kein log. Und auch kein 4K.

Das kleinste Produkt, welches für UHD und die GH4 aber völlig ausreicht, ist das gerade neu erschienen Produkt:
http://www.atomos.com/ninja-assassin/



Antwort von mash_gh4:

Alleine so Aussagen wie: jetzt sind bei Log die Lichter bei 70% also hab ich ja weniger Dynamik sind an Dämlichkeit kaum mehr zu überbieten...

aber das ist halt einer der besonderheiten von v-log-l. darin unterscheidet es sich ganz auffallend von anderen log varianten, bspw. sony s-log od. canon clog.

wenn in einem übertragungsspezifikation fast 50% der werte ungenutzt bleiben, hat das natürlich konsequenzen. man kann aber drüber diskutieren, für wie hinderlich man eine derartige einschränkung des tonwerteumfangs auf effektiv 7 od. 9 bit statt der verfügbaren aufzeichnungsauflösung von 8 und 10 bit in der praxis hält.



Antwort von mash_gh4:

3) nein, der Nina Star kann bisher kein log.

so lange er digitales video aufzeichnen kann, kann er natürlich auch daten, die von der kamera in log-kodierter form geliefert werden, aufzeichen... aber vielleicht meinst du irgendwelche darüber hin ausgehende features, wie die nutzbarkeit von LUTs für die voransicht od.ä.?



Antwort von Stephan82:

3) nein, der Nina Star kann bisher kein log.

so lange er digitales video aufzeichnen kann, kann er natürlich auch daten, die von der kamera in log-kodierter form geliefert werden, aufzeichen... aber vielleicht meinst du irgendwelche darüber hin ausgehende features, wie die nutzbarkeit von LUTs für die voransicht od.ä.?
Mhh, jetzt bin ich verwirrt. Ich habe schon gehört, dass der Shogun eine Vorschau-Lut usw hat. Das brauche ich aber gar nicht. Wollte nur wissen, ob ich das V-Log L-Bild mit dem Ninja Star in 10Bit auzeichnen kann. Du sagst "ja", Wolfgang eher "nein". Und jetzt? Aus der Beschreibung auf der Atomos Homepage werde ich nicht gerade schlauer...



Antwort von wolfgang:

3) nein, der Nina Star kann bisher kein log.

so lange er digitales video aufzeichnen kann, kann er natürlich auch daten, die von der kamera in log-kodierter form geliefert werden, aufzeichen... aber vielleicht meinst du irgendwelche darüber hin ausgehende features, wie die nutzbarkeit von LUTs für die voransicht od.ä.?

Aha, sehe gerade dass da Fragen offen geblieben sind. Hatte das übersehen.

Natürlich kann über HDMIHDMI im Glossar erklärt ein Signal übertragen und aufgezeichnet werden. Nur ist es so, dass der Ninja weder die Vorschau-Lut unterstützt, wie sie der Shogun hat; noch hat er die Einstellmöglichkeit, den Lut auf die Aufzeichnung entweder anzuwenden oder nicht. Da dürfte also lediglich das unveränderte Signal aufgezeichnet werden.

Die Frage ist, ob das praxistauglich ist. Denn damit fallen sämtliche Einstellmöglichkeiten weg, die man sonst hat - von Waveform über Vectorscope oder Falschfarbenansicht. Wir wissen ja gegenwärtig auch nicht ob die GH4 irgendeine Vorschau mitbringt, mit der man v-log dahingehend kontrollieren kann wie sie später mit rec709 aussehen würde.

Und zuletzt - das Auslösen der Aufnahme von der GH4 aus, was beim Shogun inzwischen funktioniert, dürfte bei den ganzen Ninjas noch nicht funktionieren (aber da bin ich mir nicht sicher).

Dann gibts noch andere Fragen: Geräte wie der Ninja Blade können kein 1080 50p - sondern maximal 1080 24p. Ich weiß nicht mal ob 1080 25p jetzt funktioniert (da gabs am Anfang Probleme und ob das behoben ist weiß ich nicht recht, da ich halt nur den Shogun an der GH4 nutze).

Abgesehen von all diesen Punkten können solche Rekorder grundsätzlich ein HD 10bit 422 Signal aufzeichnen. Man muss halt die GH4 auf 10bit Ausgabe stellen.

Buhhh, ich weiß nicht recht ob das hilft. Ich könnte nur bei Gelegenheit einen Ninja Blade an der GH4 ausprobieren... der steht bei mir noch herum. Weiß nur nicht genau wann ich da dazu komme.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Panasonic GH4 , V-Log Update, ofiziell
Näheres zum Panasonic GH4 V-Log Update
Panasonic DMC-FZ2000 - kleine GH4 mit fixer Zoomoptik?
Panasonic GH4 V-Log H
Interessante Gerüchte zum Panasonic DMC-FZ1000 Nachfolger
Blackmagic Resolve Micro Panel - Solides Grading-Pult für 1.100 Euro
Leica SL Firmware 1.2: Update für L-Log, ISO-Optimierung u.a.
Gerücht: Unglaubliches zum Canon C-Log-Update
Panasonic Lumix GH4 + Batteriegriff HDMI Lock ohne Rig
Endlich da: Firmware-Update für Canon EOS C300 Mark II mit C-Log 3
Update für Panasonic Lumix S1 bringt 10 Bit V-Log, LUT und Waveform-Monitor
Panasonic gibt UVP für AJ-PX230PJ bekannt: 4.250,00 Euro
Panasonic Lumix FZ82 – 4K Bridge-Kamera für 349 Euro // CES 2017
Panasonic: Weltweit lichtstärkstes, videoafines Leica DG Vario-Summilux F1.7 / 10-25mm für MFT - 10 Bit V-Log Update ink
Firmware-Update 1.1 für Panasonic G81
Panasonic Firmware Update für S1 und S1H Kameras für verbesserte V-Log Aufnahme
DaVinci Resolve Update 12.1: neue Funktionen für Cutter und Coloristen
Schon ein neues Firmware Update V 1.25 für die Panasonic AG-DVX200
Dynamikumfang: Internes 10 Bit V-Log mit der Panasonic S1 - neue Referenz beim Dynamikumfang?
Dynamikumfang: Panasonic S1H vs Sony A7 III: V-Log vs S-Log Vollformat Vergleich
Avid Media Composer 8.4.5 Update bringt neue Features für Artist DNxIO
Sony F5/F55 Firmware Update 7.01 bringt Schnellmenü und neue Features
Zubehör für Panasonic DMC-G81
DXO-Test der Panasonic DMC-GX80/85
Panasonic Lumix DMC-GH3 HDMI Output
Der neue Mac Pro kostet zwischen 6.499 und 62.568 Euro -- die Afterburner Karte gibt es für 2.400 Euro

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom