Hallo P.Paralkar hat geschrieben: ↑Fr 18 Mär, 2022 11:20 Hattet Ihr irgendwelche Problem mit dem M1 Max Macbook die AXS Karten zu finden und zu kopieren (hab schon öfters von fehlenden Treibern für Apple Silicon gelesen, bei manchen klappts die Karten zu finden und zu kopieren, bei manchen nicht)
Wie waren eure debayering Settings, full debayring?
Wieviel Frames/s Renderspeed konntet ihr mit dem M1 Max Bsp.: bei ner 4k Timeline zu 4k h264/5 erreichen bzw. gerne auch Full HD Timeline zu Full HD h264/5 oder ProRes
hm vielleicht legt Sony weniger Wert auf das Wort als das Slashcam Forum :)pillepalle hat geschrieben: ↑Fr 18 Mär, 2022 10:04 Was ist an X-OCN denn anders als bei 'normalem RAW'. Ist das schon debayert? Denn komprimiert werden die andere RAW Formate ja auch.
VG
Vielleicht gehört Geschwurbel bissel dazu. Blackmagic schmeißt auch mit dem RAW um sich.pillepalle hat geschrieben: ↑Fr 18 Mär, 2022 14:11
RAW bedeutet ja nur das es sich um die undebayerten, nicht veränderbaren Sensordaten handelt. Um sie dauerhaft zu ändern, muss man sie in einem anderen Format speichern. Mir ist schon klar, dass das Red-Patent vermutlich damit zu tun hat, denn ohne Kompression ist RAW im Filmbereich ja eher witzlos. Nur ändert das ja nichts daran, dass man dem Nutzer sagen könnte was für Daten er bekommt, bzw inwieweit sie verändert wurden.
Das liegt glaube ich stark daran, dass das keine Kameras sind, wo sich Foren voll Leute die Finger über die exakte Auslegung des Wortes 'Raw' wund schreiben, sondern die "Werkzeug"-Sichtweise überwiegt:pillepalle hat geschrieben: ↑Fr 18 Mär, 2022 14:11 RAW bedeutet ja nur das es sich um die undebayerten, nicht veränderbaren Sensordaten handelt. Um sie dauerhaft zu ändern, muss man sie in einem anderen Format speichern. Mir ist schon klar, dass das Red-Patent vermutlich damit zu tun hat, denn ohne Kompression ist RAW im Filmbereich ja eher witzlos. Nur ändert das ja nichts daran, dass man dem Nutzer sagen könnte was für Daten er bekommt, bzw inwieweit sie verändert wurden.
So technikfern denken diese Leute aber eben doch nicht.andieymi hat geschrieben: ↑Fr 01 Apr, 2022 14:09
Das liegt glaube ich stark daran, dass das keine Kameras sind, wo sich Foren voll Leute die Finger über die exakte Auslegung des Wortes 'Raw' wund schreiben, sondern die "Werkzeug"-Sichtweise überwiegt:
Wer zum ersten Mal darauf drehen will, geht sowieso üblicherweise mehr als einen Tag testen und schaut sich die eigenen Tests in der gewünschten Umgebung an. Ist das Kino, auch im Kino.
Nichts für ungut, ich hab das bei Leuten die auf nichts anderem Drehen (Arri, Sony, Red vl noch weniger) nie so wahrgenommen, dass das wen interessiert. Es ist legitim die Fragen zu stellen, aber eigentlich interessiert es vor allem Foristen.
Ich glaub, so viele Allwissen suggerierende „eben“ hast du noch nie in einem Post untergebracht! :-)iasi hat geschrieben: ↑Fr 01 Apr, 2022 16:22
So technikfern denken diese Leute aber eben doch nicht.
Denen ist eben schon auch klar, dass sie bei Arri unkomprimiertes Raw bekommen, dann aber eben auf hohe Auflösungen verzichten müssen.
Bei Sony erhalten sie nun eben eine für 4k ideale Bayer-Auflösung von 8k, aber eben kein unkomprimiertes Raw.
Das ist bei Red dasselbe.
Diese Leute setzen sich eben durchaus mit ihren Werkzeugen auseinander. Wie zu Negativ-Zeiten wählen sie sehr genau das "Aufnahmematerial".
Und ein Roger Deakins war dann eben auch zunächst erschrocken, als er hörte, dass Skyfall auch im IMAX in 4k gespielt werden sollte. Denn er fürchtete vor allem um die Farbwiedergabe des ARRIRAW 2.8K source-Materials.
Ein Messerschmidt quält dann eben das ProRes Raw der DJI 4D mit garstigem Licht, um zu sehen, wie sich das 12bit-Material verhält.
Was nicht sonderlich ins Gewicht fällt, sind die Datenmengen, die während des Drehs erzeugt werden.
Aber die Datenrate von unkomprimiertem Raw bekommt man eben auch heute noch nicht bei einer Auflösung von 8k weggeschrieben.
Das hat nichts mit "allwissend" zu tun, sondern mit "belegbar".Jott hat geschrieben: ↑Fr 01 Apr, 2022 20:26Ich glaub, so viele Allwissen suggerierende „eben“ hast du noch nie in einem Post untergebracht! :-)iasi hat geschrieben: ↑Fr 01 Apr, 2022 16:22
So technikfern denken diese Leute aber eben doch nicht.
Denen ist eben schon auch klar, dass sie bei Arri unkomprimiertes Raw bekommen, dann aber eben auf hohe Auflösungen verzichten müssen.
Bei Sony erhalten sie nun eben eine für 4k ideale Bayer-Auflösung von 8k, aber eben kein unkomprimiertes Raw.
Das ist bei Red dasselbe.
Diese Leute setzen sich eben durchaus mit ihren Werkzeugen auseinander. Wie zu Negativ-Zeiten wählen sie sehr genau das "Aufnahmematerial".
Und ein Roger Deakins war dann eben auch zunächst erschrocken, als er hörte, dass Skyfall auch im IMAX in 4k gespielt werden sollte. Denn er fürchtete vor allem um die Farbwiedergabe des ARRIRAW 2.8K source-Materials.
Ein Messerschmidt quält dann eben das ProRes Raw der DJI 4D mit garstigem Licht, um zu sehen, wie sich das 12bit-Material verhält.
Was nicht sonderlich ins Gewicht fällt, sind die Datenmengen, die während des Drehs erzeugt werden.
Aber die Datenrate von unkomprimiertem Raw bekommt man eben auch heute noch nicht bei einer Auflösung von 8k weggeschrieben.
Es geht doch gar nicht so sehr um die Detailauflösung. Deakins fürchtete z.B., dass beim Upscaling auf 4k die Farben leiden würden.andieymi hat geschrieben: ↑Fr 01 Apr, 2022 20:10 Wir werden wohl nicht mehr übereinstimmen, aber selten so technizentrierte Argumentation gelesen.
Niemand macht sich auf dem Level Gedanken um ideale Bayer-Auflösungen. Nicht umsonst würde Arri einen UHD Upscale überhaupt kameraintern anbieten, da gibt sich jeder Bayer-Auflösungsfanatiker doch lieber die Kugel als sowas auch nur ohne Handschuhe anzugreifen.
Auflösung ist für jene DPs auch nur ein Mittel. Niemand, der mit Fincher arbeitet hat Letztentscheidung über Kadrage, deshalb lässt Fincher nur Extraction-Kadrage am Set zu, der Rest wird in der Post Pixelgeschubst. Drum dreht auch niemand für Fincher auf Arri, die Auflösung ist nicht da.
Keiner macht sich Gedanken über Bayer-Auflösung, während er aus dem Panavision Keller gekramte 60er Jahre Anamorphotem mit Randundschärfe wie Flaschenböden testet. Vielleicht mal 4K S35 gegen 6K FF gegen 8K S35. Aber auch dann passiert die Entscheidung resultatbasiert und nicht technik-a-priorisch. Vielleicht unterbewusst, aber da ist nie das Hauptkriterium, wetten? Sondern immer resultatbasierte Wahrnehmung statt technisch-zentriertem Vorwissen allein.
Nach der Logik gäbe es keine anderen Grund außer auf Arri zu drehen weil die das unkomprimierteste Raw haben. Das passiert oft (aber nicht deswegen!), aber es gibt genügend Großproduktionen auf Venice oder Red. Glaubst Du wirklich Fincher interessiert ob das Raw von Red komprimiert ist? Glaubst Du wirklich Miranda dreht Cruise für Top Gun auf Venice wegen Rialto und weint heimlich am Abend weil er kein unkomprimiertes .ari rausbekommt von der Footage, die dieser danach nie persönlich in die Finger bekommt, sondern 3 Tage heim Grading danebensitzt und die restlichen 3 Wochen passieren dann ohnehin ohne ihn.
In der Tat nicht.
Aufgrund meiner Tests die Einzige meiner Meinung nach richtige Antwort: Das hängt 100% vom Projekt ab. Als Dienstleister bist Du nicht verpflichtet, die technisch-möglich beste Qualität zu liefern (wenn es für den Kunden Verzögerungen oder Mehrkosten bedeutet, und dieser nichts vom Nutzen (selbst unterbewusst) mitbekommt, sondern die richtige und angemessene Qualität und das muss nicht immer HQ sein. Wenn deine Kunden Pendler sind, wirst Du aus dem Anspruch heraus das bestmöglichste Auto über Hubraum/Leistung zu definieren nicht weit kommen. Und tatsächlich hat Red da die Hausaufgaben gemacht, meine Erfahrungen decken sich 1:1 mit der Herstellervorgabe.
Aber dann bring doch einmal ein paar Beispiele, sagen wir von den besten der Branche wie ich es versucht habe, wo deine Argumentation untermauert wird. Wo sind die ASC-DPs die hinsichtlich Bayer-Auflösung testen, optikseitig alles auf höchste Auflösung optimieren - sich vielleicht sogar durch algorithmusseitiges Upscaling überlegt haben mehr Details rauszukitzeln.
Scheinbar eh nur klarere Kommunikation gegenüber den Benutzern. Ich glaube darüberhinaus mehr zu wollen wäre vermessen, es gab nie eine größere Zahl an quasi perfekten Kameras als zum heutigen Zeitpunkt.pillepalle hat geschrieben: ↑Fr 18 Mär, 2022 14:11 Es geht ja nicht um ein Wort, sondern einfach darum um was für eine Art Daten es sich dabei handelt. Warum wird das im Filmbereich so selten klar kommuniziert?
Wobei Helium bei 8k und 5.1 nur 24fps liefert.andieymi hat geschrieben: ↑Sa 02 Apr, 2022 11:21In der Tat nicht.
Mindhunter war 8:1 bei 6.5K Extraction aus dem 8K.
https://thefincheranalyst.com/2019/09/1 ... eason-two/
(Optimum wäre 5:1)
Wobei das ja nichts mit der Kompressionsrate zu tun hat.
Ich denke, dass hier das Ziel war, den weichen Kornfluß von Filmmaterial zu erhalten.andieymi hat geschrieben: ↑Sa 02 Apr, 2022 11:21
Fraser hat für Dune die Digital-Footage nach kurzem Grade noch Ausbelichten lassen, vom Film neu gescannt und dann erst in die Color gestartet:
https://postperspective.com/cinematogra ... m-process/
Letzteres ist auch eine technische Herangehensweise an Ästhetik, aber nicht aus dem Willen einer technischen Optimierung heraus. In der Praxis bedeutet das auf dem Level einfach fast immer das Gegenteil von dem, was Du machen würdest. Da geht's nicht um Bayer-Auflösung, sondern im Endeffekt um weniger nutzbare Auflösung in fast jedem Punkt der Pipeline, der kontrollierbar ist.
Abgesehen vom Zielmedium spielt aber eben auch der Bildinhalt und die Aufnahmesituation eine große Rolle.andieymi hat geschrieben: ↑Sa 02 Apr, 2022 11:21
Klar, keiner will Verlust durch schlechte Codecs, aber die Kompression wird auch so gewählt, dass das der Nutzen erfüllt ist (UND NICHT DARÜBER HINAUS!). Keiner will Verschlechterung durch verlustbehaftete Intermediate-Codecs (im Gegenteil: 32-Bit Blowup für VFX quasi Standard), aber da wo es kontrollierbar ist (Optiken, Filter(!), Digital-Film-Transfer) eher Auflösungsreduktion.
Deakins ist da tatsächlich oft eine Ausnahme, der ist auch gefühlt der einzige der ohne Filtration dreht, was aber auch daran liegen mag, dass er bisher immer Arri und "nur" 3.4K (Ausnahme 1917) gefahren ist und kein 6-8K. Die Sorge vor Upscaling kommt vermutlich aus einer Zeit, wo das tatsächlich ein No-Go gewesen wäre. Heute sind Algorithmen wirklich gut, werden immer besser und schneller, nicht umsonst würde Arri die Möglichkeit überhaupt anbieten, das ist so ziemlich die konservativste Firma im Kamerabereich (was nicht negativ gemeint ist, nur eine Haltung beschreibt, die umgekehrt extreme Verlässlichteit und Sicherheit zur Folge hat).
Aufgrund meiner Tests die Einzige meiner Meinung nach richtige Antwort: Das hängt 100% vom Projekt ab. Als Dienstleister bist Du nicht verpflichtet, die technisch-möglich beste Qualität zu liefern (wenn es für den Kunden Verzögerungen oder Mehrkosten bedeutet, und dieser nichts vom Nutzen (selbst unterbewusst) mitbekommt, sondern die richtige und angemessene Qualität und das muss nicht immer HQ sein. Wenn deine Kunden Pendler sind, wirst Du aus dem Anspruch heraus das bestmöglichste Auto über Hubraum/Leistung zu definieren nicht weit kommen. Und tatsächlich hat Red da die Hausaufgaben gemacht, meine Erfahrungen decken sich 1:1 mit der Herstellervorgabe.
("For high complexity scenes, VFX, and stills from motion workflows, RED recommends the HQ setting. For cinema (non-VFX) and high-end TV, RED recommends the MQ setting. For TV, online content, documentary and interviews, RED recommends the LQ setting.")
Ich kann in der Nutzung keinerlei Unterschiede in der Farbflexibilität gegenüber den einzelnen Stufen feststellen, das wäre tatsächlich ein KO-Kriterium. Es verbiegt aber auch niemand Sonnenlbumengelbe Pullis im Kostüm zu Navy-Blau im Grading weil man lustig ist, sowas passiert einfach am Set und dafür hat in der Post auch niemand Zeit, dafür gibt's das in camera Mantra. Und das ist auch auf keinem Level das Ziel.
Das bedeutet im Normalfall:
LQ für reinen Web-Content, der durch stärkere Kompression muss und oder extreme Drehrations oder Laufzeiten (Doku). Da ist tatsächlich als einziges ein visueller Verlust an feinsten Details (Zeichnung von Blättern auf Bäumen hinten in Totalen, Texturen, etc. zwischen LQ vs. MQ/HQ) vor Komprimierung sichtbar. Allerdings sind das Nuancen. Aber immerhin Nuancen.
MQ ist für alles gut genug was an den ORF geht und neben 20:15-Spielfilm (als Werbung) läuft bzw. im Kino vor den eigentlichen Filmen.
HQ für alles mit Keying (allerdings dann auch oft Einstellungs-Spezifisch als Ausnahme), für normales Compositing / Retusche etc.
Wo man im Unterschied zum bisherigen Wavelet tatsächlich einen Unterschied merkt ist wie LQ bei Unterbelichtung eher wegbricht, das deckt sich auch mit meinen Erfahrungen zu X-OCN, bei Belichtung an der Grenze zeigen sich schon Vorteile von LQ vs ST/XT. Blöd, weil alles was dokumentarischer (ich sag nicht Doku) gedreht wird, gleichzeitig von höheren Stufen profitieren kann, aber das hilft nichts.
Man muss doch nicht das Rad jedesmal neu erfinden.andieymi hat geschrieben: ↑Sa 02 Apr, 2022 11:21Aber dann bring doch einmal ein paar Beispiele, sagen wir von den besten der Branche wie ich es versucht habe, wo deine Argumentation untermauert wird. Wo sind die ASC-DPs die hinsichtlich Bayer-Auflösung testen, optikseitig alles auf höchste Auflösung optimieren - sich vielleicht sogar durch algorithmusseitiges Upscaling überlegt haben mehr Details rauszukitzeln.
Man muss nicht für alles, was man als Kenntnis voraussetzen können muss, ein Beispiel bringen.andieymi hat geschrieben: ↑Sa 02 Apr, 2022 11:21
Mich würde das wirklich interessieren, denn bis jetzt ist alles was Du machst "eben" behaupten, alle würden das technisch-bestmögliche automatisch verwenden und ich habe schon mittlerweile genügend Beispiele gebracht, wo das von branchenweit anerkannten DPs, Academy-Award-Preisträgern anders gemacht wird.
Es wäre mal an der Zeit, statt deine Argumentationen mit "eben" zu versehen, auch mal Beispiele oder Quellen zu nennen.
... digitalen Kameras ...andieymi hat geschrieben: ↑Sa 02 Apr, 2022 11:21Scheinbar eh nur klarere Kommunikation gegenüber den Benutzern. Ich glaube darüberhinaus mehr zu wollen wäre vermessen, es gab nie eine größere Zahl an quasi perfekten Kameras als zum heutigen Zeitpunkt.pillepalle hat geschrieben: ↑Fr 18 Mär, 2022 14:11 Es geht ja nicht um ein Wort, sondern einfach darum um was für eine Art Daten es sich dabei handelt. Warum wird das im Filmbereich so selten klar kommuniziert?
Und der Preis für die größte Anzahl an Beiträgen, die nichts mit dem Thema zu tun haben, geht an klusterdegenerierung.klusterdegenerierung hat geschrieben: ↑Sa 02 Apr, 2022 21:53 Herzlichen Glückwunsch, sie haben hiermit den längsten Post auf slashcam verfasst, sie erhalten einen Gewinn in Höhe von 346DM!
Vergessen sie nicht ihre Kontonummer anzugeben.