Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Infoseite // Welches Format ist das beste?



Frage von Aloha:


Hallo,

Meine neue Kamera kann in folgenden Formaten aufnehmen:
AVCHD XP und EP
MP4/MOV: MOV1080P. LPCM MP472. iFRAME720P

Welches ist das qualitativ hochwertigste Format?

Mit freundlichen Grüßen

Aloha

Space


Antwort von Skeptiker:

Welches ist das qualitativ hochwertigste Format? Aloha!

iFrame können, glaube ich, nur die Panasonics (ist es eine GH3 ?). Ist - als Apple-Format - eigentlich eher mit einem Mac und iMovie interessant. Wird vermutlich QuickTime voraussetzen. Vorteil: Vollbild-Format - Jedes Bild wird einzeln abgespeichert (Schnitt läuft flüssig). Nachteil: Benötigt vermutlich relativ viele Speicherplatz, ist nur 960x540 Pixel.

Bei AVCHD: XP (müsste bei 1080/50p eine Datenrate von 28 Mbps haben)
Bei MP4: Das Format (MOV1080P) mit der höchsten Datenrate. 'MOV' setzt jeweils QuickTime voraus.
MP472 klingt für mich nach Panasonics MP4 All-i (intra-frame = Einzelbilder) Format mit 72 Mbps. Von der Bildqualität vermutlich etwas weniger gut, als das inter-frame (= mit berechneten Zwischenbildern) MP4-Format mit 50 Mbps, dafür evtl. Vorteile bei flüssigen Schnitt.
LPCM ist Audio ohne Kompression.

Fazit: Falls einstellbar, wäre wohl MP4 in 1080/50p (oder auch 25p oder 50i) mit einer Datenrate von 50 Mbps das beste Format.

Space


Antwort von WoWu:

@Aloha
Sag doch lieber mal, welche Kamera das ist, dass man mal nachschauen kann, was sie eigentlich wirklich macht.
Das ist doch völliger Blindflug.

Space


Antwort von Aloha:

Hallo,

Es ist die JVC GX-PX100BE

Aloha

Space


Antwort von WoWu:

Also, wenn ich das richtig deute, macht sie 1920x1080p50 in 40 Mbit/sec in einem .mov Container. Frage ist nun, ob sich das I-Frame Format darauf bezieht.
Dann wären 40 Mbit/s deutlich zuwenig, um gute Bilder zu geben.
Das .mov deutet auch mehr auf MPEG2 GoP hin. Das passt besser, wäre aber nicht der bessere Codec denn AVCHD mit 28Mbit/s ist in der Effizienz den 40 Mbit/s weit voraus und hat die bessere Bewegung- und Farbauflösung.

Nach wie vor ist nicht ganz klar, worauf sich der I-Frame Video Modus bezieht. Das müsste man mal herauskriegen.

Edit:
Da unten steht mehr. Alles klar.
Mein Favorit wäre danach dann:
AVCHD Progressive (1920x1080/50p 28 MBit/s)

Space


Antwort von Chrigu:

allgemein gilt: wenn du für mehrere endformate filmst, ist die höchst mögliche einstellung empfehlenswert, jedoch auch ziemlich speicherintensiv..

am idealsten wäre es aber, wenn du das selbe format einstellst, wie du es schlussendlich haben willst (DVD, Bluray, HD-digital, youtube...). zeit- und platzsparend (kein neu neuberechnen)

Space


Antwort von WoWu:

Man kann leider nicht von einer "höchst mögliche einstellung " sprechen, weil die Effizient der Codecs ausgesprochen Unterschiedlich ist.
Die Zahl (Mbhit/s) sagt also nur herzlich wenig aus.

Ein H.264 ist gegenüber MPEG2 etwa 3 mal so effizient.
Das bedeutet das ein 28 Mbit/s H.264 etwa einem 90 Mbit/s MPEG2 Codec entspricht.

Die Zahl sagt also leider nicht viel, bei unterschiedlichen Codecs.

Space


Antwort von ennui:

@Wowu

Dann frag ich mich nur, warum zb. Canon in die C300 den MXF/Mpeg2-Codec (4:2:2) einbaut, in die C100 aber "nur" AVCHD (4:2:0), um diese Kamera eher dem "Prosumer"-Lager zuzuschlagen und von der C300 mit ihrem "Proficodec" zu differenzieren. Wie man so liest, verträgt das MXF-aterial ja auch mehr Grading, ist anspruchsloser im Schnitt, und wirkt auch sonst weniger... matschig?

Deinen Ausführungen zufolge hätte die C300 mit der Bitrate ja eindeutig den schlechteren Codec...

Space


Antwort von WoWu:

Da spielen jetzt gleich mehrere eine Rolle.
Erst einmal ist AVCHD sowieso ein (na sagen wir) Pro-Sumer Format, weil 4:2:2 gar nicht definiert ist.
Dazu kommt, dass es unterschiedliche Filter darin zur Anwendung kommen, die es zwar für MPEG2 auch gibt aber nicht benutzt wurden weil sie sehr umständlich zu implementieren waren.
MPEG2 ist ausserdem ein Entgegenkommen, schwachen Rechnern gegenüber, die es ja immernoch geben soll.
Klar ist es leichter, ein I-Frame in den Speicher zu laden, das Bild abzuarbeiten und den Speicher dann wieder zu flashen, als (meistens) 6 Frames, den Speicher entsprechend länger zu halten und auf Einzelteile aller 6 Bilder zuzugreifen. Die GoP Abarbeitung ist in H.264 unbestritten komplizierter, solange man sich mit schwachen Rechnern und alten Softwarearchitekturen rumschlagen muss.
Wie man so liest, verträgt das MXF-aterial ja auch mehr Grading, MXF ist es eigentlich egal, was da drin steckt, denn das ist lediglich ein Container. und wirkt auch sonst weniger... matschig? Die "Matschigkeit" kommt von der Filtereinstellung der Loop-Filter, die man einstellen oder rausnehmen kann, wenn man sie nicht braucht.

Die deutlichsten Unterschiede aber bestehen eben in den Bewegungs- und Farbauflösungen. Auch die Macroblockgrössen unterscheiden sich.
Im Endeffekt bedeutet das eben, dass der H.264 um 2,7 bis 3,5-fach effizienter ist.
Weil AVCHD aber kein 4:2:2 Profile bietet, nehmen Firmen noch MPEG2, auch wegen der einfacheren Verarbeitung.
Das bedeutet aber nicht, dass der Codec besser ist, ganz im Gegenteil.

Dasselbe betrifft dann auch Intermediates, denn I-Frame-only nimmt dann nochmal das 3-fache der Datenrare ein.
Da ist man dann mit einem 28 Mbit/s Codec schnell bei 250 Mbit/s und hat noch keine bessere Bildqualität, wohl aber ein simpel aufgebautes Bild, das auch noch jeder "Taschencomputer" verarbeiten kann und wenig komplizierte Softwarearchitektur (auch im OS) voraussetzt.

Man darf sich also von den höheren Zahlen nicht täuschen lassen.
In höheren Zahlen steckt eben nicht immer mehr Qualität sondern oft sogar weniger.

Space



Space


Antwort von Jott:

Dann frag ich mich nur, warum zb. Canon in die C300 den MXF/Mpeg2-Codec (4:2:2) einbaut Weil die Kamera für Broadcast gedacht ist, und da ist XDCAM 422 (was die C300 verwendet) nun mal üblich. Der große Erfolg der Kamera (auch bei Verleihern) gibt Canon recht, sie wurde eben passend zur einer heute bestehenden Infrastruktur gebaut. Dass die veraltet sein mag, wie wowu nicht müde wird zu bemerken, tut nichts zur Sache.

Die durchaus anspruchsvolle Zielgruppe ist mit der Kamera offensichtlich höchst zufrieden. Drüber gemault wird nur von Leuten, die nie damit gedreht haben. Eine Kamera besteht aus mehr als einem Codec. Man kann Canon schon unterstellen, dass sie wissen, was sie tun.

Space


Antwort von WoWu:

MPEG2 ist auch deutlich billiger.
MPEGLA vergibt seit etwa 2 Jahren die MPEG2 Lizenzen fast kostenlos.

Space


Antwort von ennui:

Danke für die Erklärungen!

Space


Antwort von ennui:

OT

@Jott

Das mit der C300 und Broadcast habe ich jetzt ja schon oft gelesen. Liegt wohl auch an der euphorischen BBC-Bewertung damals. Die Kamera wurde ja anfangs erst als "Cinema Eos" inklusive Präsentation/Büro in Hollywood eingeführt, mit Kurzfilmen, und alles an ihr schrie marketinmäßig "Kino". Das hat sich merkwürdig verschoben, jetzt ist sie beim Fernsehen gelandet. Aber manche bemängeln ja auch einen "Videolook" an ihr, wobei das meiner Ansicht nach eher eine Sache der Einstellungen und/oder natürlich der Postproduktion ist. Es gibt ja inzwischen auch sehr "filmisches" Material aus der Kamera auf den diversen Videoplattformen zu sehen, oder auch zuletzt in Cannes. Und für viele TV-Sachen ist das doch wiederum eigentlich garnicht die ideale Kamera, das geht ja schon los mit dem mangelnden Autofocus. Wie kam es zu dieser Schwerpunkt-Verschiebung, nur reines Marketing?

Space


Antwort von JoDon:

Und für viele TV-Sachen ist das doch wiederum eigentlich garnicht die ideale Kamera, das geht ja schon los mit dem mangelnden Autofocus.mangelnden Autofocus?

S35 Look ist nun mal gefragt und die C300 ist die einzige Kamera, die das in einem praxisgerechten Paket für TV Produktion liefert.

Space


Antwort von Jott:

Autofokus? Gibt's nicht bei hochwertigen Sachen. Der "Witz" an der Kamera ist die Mischung aus Filmlook (und den bekannt schönen Canon-Farben) ohne DSLR-Nachteile mit dem weltweit gängigen Broadcastcodec. Das bietet die F5 zwar inzwischen auch, aber nicht so kompakt und reduziert auf's Wesentliche.

Die ursprüngliche Markteinführung als Kinokamera war seltsam daneben, da hast du natürlich recht.

Space


Antwort von ennui:

Naja, bei den diversen Trashdoku-, Reality- und Bauer-sucht-Millionär-im-Dschungel-Formaten oder beim Videojournalismus kommt wohl schon auch mal der Autofokus zum Einsatz, wenns mal spontan schnell gehen muss. Da wäre die Kamera aber auch bischen Overkill. Aber die C300 ist dann wohl eher für den Tatort und ähnliche Serien und szenischen Degetokram? Da verschwimmen aber doch sowieso längst die Grenzen zwischen "TV" und "Kino".

Space


Antwort von WoWu:

Tatort in 8 Bit ?
Hat's das schonmal gegeben ?

Space


Antwort von HT:

Tatort in 8 Bit ?
Hat's das schonmal gegeben ? Jede Woche neu in der ARD Mediathek ;-).

Space



Space


Antwort von ennui:

Das entzieht sich meiner Kenntnis, aber die 8 Bit haben jedenfalls dieses Jahr in Cannes gewonnen.

http://www.fdtimes.com/2013/05/28/canon ... in-cannes/

Space


Antwort von WoWu:

Tatort in 8 Bit ?
Hat's das schonmal gegeben ? Jede Woche neu in der ARD Mediathek ;-). Witzbold... Ich meinte natürlich die Produktion .... nicht die Ausstrahlung denn nach wie vor schreibt die ARD 10 Bit für Premiumproduktion vor.

Ist Tatort nicht das Flaggschiff der Eigenproduktionen ?

Space


Antwort von handiro:

Der Degeto Bande trau ich alles zu :-) Und solange der Sender mit dem einen (rest)Auge mit seinem Zoom Format mit den 8 bit DSLR"s dreht.....?
Dann die Drohnenaufnahmen.....

Space


Antwort von WoWu:

Na ja, es gibt eben sehr viel Mist, für die selbst 4 Bit noch ausreichen würden, (immer hübsch kontrastreich und bunt)
-da würde man in den Spielzeugkameras sogar noch Rechenpower haben, um den Kamera-Entwackler einzuschalten.

Aber ihre Premiumproduktionen sind doch die heilig Kuh.

Space


Antwort von ennui:

Es ist sicher eine Frage der Maßstäbe, aber in my book spielt ein Cannes-Gewinner in einer ganz anderen Liga als noch die teuerste ARD-Premiumproduktion. Das müsste dann also 16, besser noch 24 Bit sein, metaphorisch gesprochen. Es waren aber schlanke 8.

Space


Antwort von WoWu:

Cannes prämiert ja auch Inhalte.
Aber wenn es nach den Nostalgikern ginge, hätten sich die Entwickler in den Firmen, die an MPEG4 gearbeitet haben, die 20 Jahre Entwicklungszeit sparen können.
Zum Glück geht es nicht danach, sonst hätten wir heute noch s/w Fernsehen... wenn überhaupt.

Space


Antwort von HT:

Die Medienparodie "Walulis sieht fern" wurde in der ersten Staffel nach eigenen Angaben auf einer 5D gedreht. Staffel zwei wurde dann in der ARD (Eins Plus) zur besten Sendezeit gezeigt. Nach Wikipedia-Bild zu schließen scheint es aber auch nur eine C300 gewesen zu sein, und da wurde ziemlich heftige Nachbearbeitung betrieben.

Erstaunlich wie viele professionelle Produktionen heute bei allem RAW Hype noch mit 8-bit gedreht werden. Den Unterschied sieht - meiner Meinung - kaum jemand (mal solche Banding-Kameras wie die GH2 ausgenommen)

Space


Antwort von WoWu:

Na ja, spätestens in der Nachbearbeitung siehst (erfährst) Du den Unterschied. Am TV Gerät sowieso nicht, weil das ist 8 Bit. Da wird man zwangsläufig keinen Unterschied sehen.

Space


Antwort von HT:

Na ja, spätestens in der Nachbearbeitung siehst (erfährst) Du den Unterschied. Am TV Gerät sowieso nicht, weil das ist 8 Bit. Also ich habe auch schon viel 8-bit Material mit vielen tollen Filtern belegt. Sah trotzdem noch gut aus. Nichtsdestotrotz habe ich bei 10-bit Material den Eindruck es reagiert einen tick unempfindlicher auf Lumakurven-Spielereien. Wahrscheinlich weil mir inzwischen oft genug eingeredet wurde dass das bei 10-bit so sein muss...
Im Ernst: 10-bit macht durchaus Sinn als Aquiseformat. Nichtdestotrotz - um zu deinem Vergleich mit dem Farbfernsehen zu kommen - scheint mir momentan ein Punkt erreicht zu sein, in dem die Qualität einfach gut genug ist. Das menschliche Auge ist nun mal nicht perfekt - s/w und Farbe dagegen unterscheiden sich deutlich. Ich denke wenn es nicht gerade Premiumfernsehen ist (nicht zu vergessen, nach dem Ausspielen gibt es dort noch die ein oder andere Wandlung) oder eine Multi-Million-$ Hollywoodproduktion sollte 8-bit in einigen Fällen ausreichen.
Technisch ist 10-bit besser als 8-bit, alles andere ist letztendlich ein philosophischer Diskurs.

Space



Space


Antwort von WoWu:

Das stimmt, jeder muss wissen, womit er selbst klar kommt.
Aber spätestens bei (4K) UHD-1 ist das ohnehin vorbei, denn da ist gar kein 8 Bit mehr definiert. Das geht erst bei 10 Bit los.
Aber der Mensch kann schon mehr als 8 Bit.

50-100 Helligkeitsstufen, um vom Betrachter nicht als Abstufung wahrgenommen zu werden.
Bei einer Blendendynamik von rd. 10 Blenden entspricht dies etwa 1000 Schritten, also rd. 10bit (1024).

Wenn man das erreicht, wäre es auch sinnvoll.
Alles darüber hinaus ist vermutlich nur noch in der Nachbearbeitung von Nutzen.

Space


Antwort von Aloha:

Hallo,

Darf ich bescheiden dazwischen funken um ein schlichtes Danke zu sagen und mich aus dem zum Disput ausgewachsenen thread verabschieden?

Was hab ich da was ausgelöst mit meiner unschuldigen Frage!

Aloha

Space


Antwort von Aloha:

Hallo,

Darf ich bescheiden dazwischen funken um ein schlichtes Danke zu sagen und mich aus dem zum Disput ausgewachsenen thread verabschieden?

Was hab ich da was ausgelöst mit meiner unschuldigen Frage!

Aloha

Space


Antwort von WoWu:

Nee, gar nicht.
Es gibt nun mal die Fronten zwischen Nostalgie und Fortschritt.
Ebenso wie es noch viel gibt, die vielleicht DV nutzen, so gibt es auch die, denen neue Technik und Formate nicht wie "Teufelszeug" vorkommen.
Solche Diskussionen sind hier normal und werden heisser gekocht, als sie gegessen werden.

Also, viel Spass mit Deiner neuen Kamera.

Space


Antwort von ennui:

Für mich ist das keine Frage von Nostalgie, sondern von "good enough".

Space


Antwort von WoWu:

:-)
Warte mal, bis du regelmässig 10 Bit siehst.
Wir machen nun seit rd. 10 Jahren 10 Bit. Damals brauchte man noch Zusatzkarten in den Kameras.
Aber wenn heute mal 8Bit Material dazwischen geschnitten wird, blinzelt jeder erst mal mit den Augen.
-"good enough" ist immer eine Frage der Gewohnheit.-

Da ist schon was dran, dass für 4k erst gar kein 8 Bit mehr angedacht wurde.

Space


Antwort von ennui:

Derzeit habe ich leider keinen 10-Bit-Monitor, aber ich bezweifle nicht, dass das noch etwas besser aussieht. Nur, wie gesagt, ich fände es vermessen, für meine Arbeit eine noch höhere technische Qualität zu verlangen als der Cannesgewinner. Ich nehm mal nicht an, dass da das Publikum schaudernd eine Banding-Orgie betrachtete.

Im Übrigen ist interessant, was Canon selbst dazu sagt: "If the video processing in the camera has been well implemented at higher bit-depths (and appropriately rounded to the 8-bit representation) then the postproduction processes will not see much distinction from a full 10-bit interface. The Canon-Log curve was optimized for this 8-bit coding. This optimization reflected theoretical studies in addition to extensive subjective testing in collaboration with the major post-production house Imagica Inc.”

(zitiert nach http://blog.abelcine.com/2012/10/05/wor ... canon-log/)

Space


Antwort von Bruno Peter:

Welches Format ist denn nun das beste?

Space


Antwort von WoWu:

@ ennui
Das sind mal wieder so richtige Marketingsprüche:
Motto: wir haben 8 BIt so toll implementiert, dass man in der Post nicht viel Unterschied zu 10 Bit sieht".
"not see much distinction" entsteht sowieso im Auge des Betrachters und durch die Ansprüche, die er an sein Produkt stellt.
Dazu kommt natürlich, dass man es auch auf 10 Bit Monitoren sehen muss, auf den üblichen 8Bit Monitoren kann man es quasi gar nicht sehen.
Und wenn sie sagen, sie haben ihre Gammakurve optimal angepasst, dann können sie die zusätzlichen rd. 700 zusätzlichen Farbabstufungen auch nicht aus dem Hut zaubern.
Aber es ist eben so, und ich gebe Dir da Recht, nicht alle Produkte brauchen unbedingt 10 Bit, weil sie im Kontrast bereits "ersticken".
Dier Frage stellt sich aber dann auch, warum die Leute nach flachen Gammkurven hecheln .... Das ist ein Widerspruch in sich denn es geht den Meisten ja nicht um den, dadurch eigentlich gewonnenen Störabstand. Den Zugewinn sehen sie ohnehin bei ihren Kameras nicht.
Na, nun sind die Entscheidungen ja gefallen und die 8 Bit Diskussion wird sich irgendwann ebenso in Luft auflösen, wie die Frage, ob Bandmaterial gebraucht wird. Da gab es dieselben Diskussionen.

@Bruno
Ein BESTES Format gibt es so nicht.
Jeder wird seinen Favoriten finden müssen.
Und wer wirklich am Thema interessiert ist, hat sich schon lange mal um die Weiterentwicklungsergebnisse bei Codecs bemüht und wird die zahlreichen Unterschiede kennen, denn 20 Jahre gehen ja an einem Codec nicht spurlos vorbei.
Frage ist eben nur, ob sein Produkt / Anspruch gut/hoch genug ist, es auch nutzen zu können.

Space



Space


Antwort von ennui:

Sicher ist das Marketing, aber wenn man mal footage anschaut, dann habe ich folgenden Eindruck: Wenn ich bei der 7D an der Luminanzkurve rumziehe oder den Weißabgleich verdrehe, bekomme ich schnell Banding und das Bild "zerfällt". Es ist zwar etwas Spielraum da, aber er ist nicht allzu groß. Beii dem MXF-Material der C300 hat man gefühlt etwa doppelt bis dreimal soviel Spielraum. Irgendwann zerfällt auch da das Bild, aber das sind dann schon extremere Eingriffe. Nehme ich Raw, zerfällt das Bild nicht mal, wenn ich extremste Eingriffe vornehme.

Je nach Einstellungen und Blendenumfang einer Szene sieht das Original, bzw. LUT-Bild aller drei "out of cam" aber erstmal ziemlich ok aus in allen 3 Fällen, wenn man ordentlich belichtet hat. Bei der 7D natürlich mit den bekannten Schwächen belastet. Aber eigentlich zeigen sich die Schwachstellen eben erst, wenn man intensiv herumgradet, das habe ich aber gar nicht vor, jedenfalls nicht in einer Weise, die einen völlig neuen Look ergeben sollte.

Und dass Canon ihr Log und einen bestimmten ISO empfiehlt, hat ja am ehesten damit zu tun, dass die Kamera unter diesen Bedingungen eben die maximale Dynamik bietet. Wobei ich mich schon auch frage, welchen Sinn das haben soll, wenn ich in einer Szene unter kontrollierten Bedingungen vielleicht nur einen Kontrast von 5, 6 Blenden habe, ob ich da dann mit Log nicht Farb- und Luminanzauflösung verschenke bzw. in Bereichen aufnehme wo gar nix ist. Das ist mir noch nicht ganz klar.

Space


Antwort von ennui:

@Aloha
Sorry, hat wohl alles nur noch wenig mit deiner Ausgangsfrage zu tun...

Space


Antwort von WoWu:

Genau das ist das Problem.
Die meisten arbeiten sowieso so kontrastreich, dass es kaum Unterschiede gibt und -ich gebe Dir Recht- die Kamerabilder auch bei 8 Bit sehen ganz manierlich aus.
Aber Du beschreibst auch die Problematik. Eine Bearbeitung und etwas Wertverschiebung bei 220 Stufen führen eben dazu, dass einige der Bereiche zu grob werden .... oder einen Roundtrip über 10 Bit und schon hat man 500 Bereiche mit Dither gefüllt und die Farben bei der Rücktransformation weiter indiziert.

Das würde bei 10 Bit eben nicht der Fall sein.
Es gibt wenig Gründe, den Sprung nach 10 Bit nicht zu machen, eher genügen Gründe dafür. Spätestens, wenn Material bearbeitet werden soll.

@Aloha
Ich schliesse mich dem "sorry" an.

Space


Antwort von ennui:

In der Theorie würde ich sicher gerne auch nur das beste verwenden, in der Praxis muss ich da Kompromisse mit dem Bankkonto und den realen Anforderungen meiner Arbeit machen. Ich bevorzuge auch eine möglichst realistisch-natürliche bis kontrastärmere/"weichere" Bildgestaltung, und hinterher nur mal bischen die Gradiation oder den WB ändern, oder eine Blende rauf/runter, aber nichts dramatisches und keine "Sommer-Blockbuster-Looks" und dergleichen. Selbst bei der 7D bin ich mit der Arbeitsweise nur gelegentlich mal ins Banding gerutscht, von daher meine Überlegung, dass dieser Zugewinn an Spielraum für mich schon völlig reichen würde. Ich bin mir aber auch noch nicht sicher, ob man dafür wirklich durchgehend ein Log mit seiner Dynamiksteigerung einsetzen sollte, oder soweit wie möglich schon in der Kamera das Bild erzeugen würde, was man am Ende will, was ja eben mehr Kontrast statt maximalem Blendenumfang bedeuten würde, aber anderersets würde man nach meinem Verständnis etwa bei geringerem Szenenkontrast die kostbaren 8 Bits eben sinnvoller verteilen. Muss ich noch mal testen.

Für einen heute üblichen Post-Workflow mit allen Schikanen wie im Kino derzeit üblich wären aber natürlich die vollen 10 Bit wohl sinnvoller. Soweit ich es verstanden habe, vermarktet Canon ja nun die C500 in der Richtung.

Space


Antwort von WoWu:

Diese Log-Geschichten wirken sich ausschliesslich auf den Störabstand aus und erweitern ihn zwischen 0,2 und etwa 1,8 db.
Sie bringen keinen einzigen Farbwert zusätzlich ins Spiel und verschieben lediglich die Werte, die zur Verfügung stehen in andere Bereiche.
Es ist also eine reine Geschmacksache, führen aber um den geringen Wertebereich nicht herum und lösen das Problem nicht.
Der Umgang mit 8 Bit ist in Roundtrips, z.B nach AE in 10 Bit, schon problematisch bei kritischem Material.
Da ist Deine Beobachtung, dass Du das bei RAW nicht hast, schon ganz richtig.
Nur sind heutzutage 10 Bit auch nicht mehr unbezahlbar. Monitore fallen drastisch im Preis, Recorder gibt es auch schon günstig und die meisten NLEs sind sowieso auf 10 Bit ausgelegt. (ProRes z.B. kann gar keine 8 Bit daher ist dieser Roundtrip sowieso immer kritisch).
http://www.finalcutprofi.de/phpboard/vi ... hp?t=72777

Aber die Weichen sind ja, wie gesagt, ohnehin nach 10 Bit gestellt und in einpaar Jahren wird 8 Bit wie ein Exot sein.
Wir gaben vor 10 Jahren mit 10 Bit angefangen und werden so das Material auch noch ein paar Jahre verwenden können. Bei 8 Bit, sähe das schon anders aus.
Wie gesagt. 10 Bit kostet heute nicht mehr soviel mehr und wer es einmal gemacht hat, lässt die Finger ohnehin nicht mehr davon.

Space


Antwort von ennui:

Aber das verstehe ich nicht, wieso ist das eine Geschmacksfrage? Wenn ich die maximalen 12 Blenden (bei Log) auf die 8 Bit verteile, im Bild aber nur 5 Blenden Kontrast habe, dann würde ich doch in den Schatten und Lichtern Bandbreite verschenken, da da garnichts ist, was ich hinterher ggf. zurückholen wollen würde. Meine 5 Blenden Dynamik, wo "waas ist", wären aber "gröber" aufgelöst. Und die restlichen 7 Blenden wären "leer", also quasi verschenkt, da sie nur wertlose Information speichern.

Wenn ich nun (rein theoretisch) in dem Fall die Kamera auf eine Dynamik von nur 5 Blenden einstellen könnte, würde die selbe 8-Bit-Bandbreite nur zur Speicherung dieser 5 Blenden Dynamik verwendet werden, somit auch feiner abgestuft. Dafür würden aber Schatten und Lichter viel schneller untergehenbzw. ausbrennen. Oder ist da irgend ein Denkfehler drin?

Space


Antwort von WoWu:

Blenden, also Lichtmengen sind in diesem Zusammenhang "Schall und Rauch", weil man eine Kurve so flach legen kann, dass man quasi unendlich viele Blenden aufnehmen kann, aber die dazugehörigen Quantisierungswerte dann beliebig klein werden müssten.
Werden sie aber nicht.
Du hast nur 220 Werte im Videobereich.
Mehr als diese 220 Werte kannst Du nunmal nicht verteilen. Entweder legst Du sie so, dass im Dunkelbereich eine hohe Auflösung liegt, dann hast Du um die Spitzlicher grobe Ringe, oder Du legst sie in den hellen Bereich, dann sind Schatten nicht durchgezeichnet.
Beides geht nicht.
Und wenn Firmen damit werben, 2, 3 oder 4 Blenden mehr zu machen, dann geht das immer zulasten anderer Bereiche.
Wie gesagt, Du kannst soviele Blenden erweitern, wie Du willst. Du hast aber immer dieselbe Menge an Werten.
Wozu die LOG Kurven eigentlich mal gedacht waren, war die Erweiterung des Störabstandes, denn wenn Du bei der Bearbeitung die Korrekturkurve auflegst, drückst Du das Rauschen noch einwenig. (0,2-1,8 db. Also nur den Bruchteil einer Blende).
Die Log-Kurven werden nur eben so eingesetzt, wie eine Farbkorrektur ... was sie eigentlich nicht sind denn mit jeder drittklassigen Farbkorrektur bekommt man in der Post so eine Einstellung auch aus einem (quasi) linearen Signal.

Space


Antwort von Jott:

8Bit AVCHD mit S-Log - auch so was geht.

http://www.dvxuser.com/V6/showthread.ph ... codec-test

Space


Antwort von WoWu:

Warum auch nicht.
Eine Gammafunktion ist ja nicht von der Auflösung abhängig.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Antworten zu ähnlichen Fragen //


Sony Vx2100 wie ändere ich das Format?
SLATE: digitale Filmklappe aus E-Paper - das beste aus zwei Welten?
The Substance - Goldene Palme für das beste Drehbuch
Großer Vergleichstest: Upscaling per KI - welches Tool ist am besten (und kostenlos)?
Was ist die beste Lösung für längere HDMI-Strecken?
Die aktuell beste Video-KI ist ab sofort kostenlos in YouTube Shorts integriert
Google Veo 2: Die beste aller Video-KIs ist ab sofort allgemein zugänglich
1570 Film vs Laser Digital Format
Neuer ARRI EF-Mount (LBUS) für Large-Format-und Super-35-Kameras
Verpixelte Videos im Format 1080x1350
Briefing Raw Cam 4k60p mit AF S5+ Ninja oder R5 oder? Format für Resolve
Tokina Cinema Vista 65mm T1.5 ergänzt Large Format Objektivreihe
Fujinon erweitert Large Format Objektivserie um Premista 19-45mm T2.9 Zoom
( Proxies ) Adobe Premiere / nach rendern probleme mit Format und Qualität
Edius wird nicht bei Pluraleyes als Export Format angezeigt
Acer XV431CP: Ultrabreiter 43.8" Monitor im 32:9 Format mit 3.840 x 1.080
ARRI ALEXA Mini LF -- SUP 7.1 Beta bringt anamorphotisches 2.8K LF 1:1 - 2.8K Format




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash