Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Apple Final Cut Pro X 10.1.2 zusammen mit ARRI ALEXA ProRes 4444 XQ Recordi



Newsmeldung von slashCAM:


Apple Final Cut Pro X 10




Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Apple Final Cut Pro X 10.1.2 zusammen mit ARRI ALEXA ProRes 4444 XQ Recording vorgestellt


Space


Antwort von DV_Chris:

Apropos: so nebenbei hat Apple Aperture abgekündigt.

Space


Antwort von rob:

Hallo DV_Chris,

... sind wir gerade am Nachtragen in der News :-)

Viele Grüße

Rob

Space


Antwort von Jott:

Und den Nachfolger schon angekündigt.

Space


Antwort von Valentino:

Wenn das immer noch ein DCT basierter Codec ist, dann ist das im Jahr 2014 ein echtes Armutszeugnis.

Klar 12bit sind schon eine Hausnummer, aber bei der Datenrate kann man auch gleich zu Arri RAW greifen und 12bit hat das "alte" ProRes 4444 auch schon.

Dazu ist dieser XQ Codec nur mit den neuen Alexa XTs möglich und die können auch Arri RAW direkt aufzeichnen.
Auf eine Alexa XT kommen knapp vier bis sechs ältere Alexas, die die Datenrate von XQ Codec nicht wegschreiben können.
Sind die Lizenz und Entwicklungskosten eines HEVC Intra Codec wirklich so hoch, das es sich nicht lohnt so einen in die Alexa zu integrieren.

Dann braucht es noch knapp ein halbes bis ganzes Jahr, bis dieser Codec auch von den Colorgrading Systemen unterstützt wird.

Außer einen Kurzfilm oder Werbeclip wird auch keiner an einem FCP-X einen 90minüter nativ schneiden wollen, das ist schon bei ProRes4444 das Datengrab schlecht hin.

Space


Antwort von iasi:

ja - da kam mir auch in den Sinn:
Weshalb nicht gleich Raw?
Welchen Grund könnte es geben, ProRes 4444 XQ zu nutzen?

Space


Antwort von Jan Reiff:

... zumindest merke ich keinen Unterschied im Schnitt von FCPX, ob es Red Raw ist oder Prores Alexa ... das Red Raw schneidet sich mittlerweile locker flüssig, vor 3 Jahren gab"s vielleicht noch Argumente gegen diesen Workflow, aber die Zeit bleibt eben nicht stehen.

Space


Antwort von Valentino:

Wie FCP-X das RedRAW intern skaliert bzw. interpretiert(8bit oder 10bit) ist dabei noch nicht ganz klar.

ARRI Raw hat halt eine sehr hohe Datenrate und die ist auch mit einem neuen MacPro ohne schnellem Raid nicht zu bewältigen.

Space


Antwort von Jott:

Dass Arri ihre Kundschaft/ihre Nutzer und deren Wünsche gut kennt, kommt euch nicht in den Sinn? Die wissen, was sie tun, so wie die Konkurrenz auch. Muss ja keine Schnittmenge bilden.

Space



Space


Antwort von Jott:

Welchen Grund könnte es geben, ProRes 4444 XQ zu nutzen? Steht im White Paper. Und wenn der Codec von Arri gleich angeboten wird, dann wohl weil es einen Bedarf dafür gibt. Oder meint ihr wirklich, die machen das nur zum Spaß?

Space


Antwort von Jan Reiff:

Wie FCP-X das RedRAW intern skaliert bzw. interpretiert(8bit oder 10bit) ist dabei noch nicht ganz klar.

ARRI Raw hat halt eine sehr hohe Datenrate und die ist auch mit einem neuen MacPro ohne schnellem Raid nicht zu bewältigen. was ja auch egal ist was FCPX macht, solange ich flüssig schneide kann der Rechner parallel Signale ins All senden, is mir alles wurscht ...

Space


Antwort von otaku:

ich habe das gefuehl das ist sowohl auf arri als auch auf apple seite nochmal ein versuch technische innovation vorzugaukeln die nicht wirklich da ist.

prores war ein grosses argument fuer die alexa als man red zeugs noch mit red rocket stunden lang umwandeln musste, die zeit ist vorbei, jetzt wo jeder medium pc das in realtime verarbeitet muss da von arri langsam etwas mehr kommen.

arri kennt ihre kunden die wissen was sie tuen, naja, halte ich fuer ein komisches argument. das hat man vor einigen jahren auch von quantel gesagt, und wo sind die jetzt...?

der trend geht zu hohen aufloesungen und guenstigeren kameras. red ist high end vom preis als auch von der qualitaet. arri hat inzwischen den doppelten preis bei halber aufloesung, das scheint mir bei aller liebe zu arri nicht so richtig weitsichtig zu sein.

Space


Antwort von merlinmage:

Weil ja keine Alexa mit 4k angekündigt wurde und keiner mehr mit der Alexa dreht, weil zu teuer. Oh, warte.

Space


Antwort von Jott:

"das hat man vor einigen jahren auch von quantel gesagt, und wo sind die jetzt...?"

Bei ProRes (Pablo). Lustig, nicht?

Space


Antwort von Jan Reiff:

ich sage nur Tesla, ...

Space


Antwort von iasi:

Welchen Grund könnte es geben, ProRes 4444 XQ zu nutzen? Steht im White Paper. Und wenn der Codec von Arri gleich angeboten wird, dann wohl weil es einen Bedarf dafür gibt. Oder meint ihr wirklich, die machen das nur zum Spaß? Was steht da drin?

Jedenfalls kann ich nicht ganz verstehen, warum jemand diesen Mittelweg gehen will ...das wirkt für mich wie: nicht Fisch, nicht Fleisch

500 Mb/s für HD ist üppig ... sehr üppig ...


Es könnte natürlich auch sein, dass dies ein Vorgriff auf die 4k-Arri-Kamera ist.
Vielleicht will Arri ja diesen Weg gehen und dadurch komprimiertes Raw umschiffen.

Space


Antwort von Valentino:

Das Whitepaper ist für die Katz. Die haben das letzte Whitepaper von 2009 einfach um den neuen XQ Codec erweitert, viel Neues steht da aber nicht drin.

ProRes ist immer noch eine DCT basierender Codec wie DV und MotionJpeg und gehört technisch gesehen in die Nuller, wenn nicht sogar in die 90er Jahre.

Das gerade ProRes 4k kein Zuckerschlecken mehr ist, hat schon jeder BMPC Kamerabesitzer am eigenen Leib erfahren dürfen.

Panasonic und Sony sind da mit ihren AVC-Intra Codecs schon um einiges weiter, integrieren aber auf der Druck der Masse ProRes, weil es günstig und unkompliziert in der Codierung ist.
Das alles macht aber ProRes zu keinen neuem Codec, sondern zeigt leider nur wie schwer sich die Masse damit tut alte Zöpfe ab zu schneiden.

Fakt ist, das AVC-Intra und XAVC die besseren Codecs sind und dazu um Längen effektiver sind als es je ein DCT Codec sein wird.

Diese AVC Codecs sind die Teslas und i3er der Videoformate und nicht die ollen DCT und Wavelet basierenden, seit Jahren nicht mehr weiterentwickelten, aber gerne von Firmen als innovativ angepriesenen Codecs.

Arri hat sich bei dem Codec einfach nur gedacht, das es ein "nice-to-have" Feature ist, mit dem man neue Kunden gewinne kann.
Die Arri RAW Entwickler sind sich aber durchaus bewusst, das ihre "real" 4k Alexa mit 4k ProRes kein Blumentopf gewinnen wird.

Space


Antwort von Paralkar:

Irgendjemand hat hier doch mal behauptet (ich glaub wowu wars) das der bisherige ProRes 4444 12 bit codec, auch nur mit ner 10 bit Farbtiefe aufzeichnet und die letzten 2 Bit für den Alphakanal sind?

Dementsprechend wäre ein wirklicher 12 bit 444 Prores Codec doch ne gewisse Steigerung,

Letzteres muss ich mein Vorrednern recht geben, die Datenraten sind zu hoch, würd mich interessieren ob das Alexa XT Processing XAVC 422 oder 444 schaffen würde.

Space



Space


Antwort von CameraRick:

Fakt ist, das AVC-Intra und XAVC die besseren Codecs sind und dazu um Längen effektiver sind als es je ein DCT Codec sein wird. Ist aber auch irgendwie diskussionswürdig find ich.

Ich hab den XAVC der F55 richtig gut gefunden, auf dem Papier. Dann haben wir mal ein Projekt drauf gedreht; kann ja sein dass wirklich 10bit 422 ist, aber ich habe selten so schlechtes Material zum Verarbeiten gehabt. Da laden die einfachsten Keys zur Feinjustage ein und alles blockt weg. Und dann rauscht der Käse noch wie nichts gutes (wobei das eher an Kamera/Sensor liegen dürfe). War ich gar nicht zufrieden mit; diese Probleme haste nicht mal mit RED, mit nativem Prores schon gar nicht.

Space


Antwort von Valentino:

Nochmal zum Vergleich, das unkomprimierte 2,8k ArriRAW kommt bei 24p und 16:9 auf knapp 605GB pro Stunde.
Jetzt kann man diese Auflösung nur schlecht mit 2k ProRes QX vergleichen, der mit knapp 204 Gigabyte bei 24p ca. 1/3 so groß ist, aber weder die Vorteile von RAW noch die ganzen 2,8k auflösen kann.
Theoretisches 2,8k ProRes XQ wird bei knapp der Hälfte von 2,8k ArriRAW, also 300 Gigabyte liegen, komprimiert aber mit 1:4,5.
Hier ist einem doch gerade bei Green und anderen VFX Shoots jede Komprimierung ein Dorn im Auge und die doppelte Datenrate wird durch die leicht höher Auflösung und die diversen Vorteilen von RAW meist in Kauf genommen werden.

Natürlich könnte die XT mit dem richtigen Chip auch XAVC wegspeichern, die F55 kann es ja auch und diese verbraucht dazu sogar nur halb so viel Strom wie eine Alexa.
Ob man die internen FPGAs dazu benutzen kann ist mir aber nicht bekannt.
Es wäre intern auch JPEG2000 möglich oder z.B. ein externer AVC-I Rekorder von Panasonic über HD-SDI.

@CameraRick
War es wirklich 4k XAVC oder nur der ältere HDCAM-SR Codec, der auch auf MPEG4 basiert, aber schon über 10 Jahre alt ist?
Was für Aufnahmen, wie komplex war die Post?
Wenn es um einen Key geht, sollte man tunlichst nicht zu 422 greifen, da hat auch ProRes ganz klar seine Grenzen.
So was kann man auch nur richtig vergleichen, wenn man das Bild nebenher als ProRes mitnimmt und mal ein Differenzkey macht.

Space


Antwort von Axel:

Es folgt die Sicht eines Amateurs, der so Gott will nie in den fragwürdigen Genuss kommen wird, ProRes XQ zu verwenden.
Weshalb nicht gleich Raw? Genau. Weshalb nicht? Ich zitiere sinngemäß Michael Cioni: Klassische NLEs sind Timelines mit einer Pfadliste zu den Medien, FCP X ist ein zentraler Medienorganisator, der obendrauf noch eine Timeline hat.

Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch.

Bescheidenes Amateurbeispiel: Die Bearbeitung von BlackMagic DNGs. Ohne beispiels- und naheliegenderweise Resolve als Dreh- und Angelpunkt mit FCP X nicht möglich. Dann schneide ich mit Proxies. Ich weiß nicht, ob irgendjemand bei einer großen Produktion nochmal einen Praktikanten abstellt, der die Proxies in den bereits von Resolve erstellten Ordnern zusätzlich aufwändig sortiert, ich jedenfalls erspare mir das.

Aber davon abgesehen ist auch der Schnitt für die XML-Rückgabe nach Resolve nur noch in der Kastratenversion sinnvoll, Stichwort Compounding. Einfachen Schnitt aber beherrscht Resolve immer besser. Ich las nur von der in Version 11 hinzugekommenen Funktion, dass der Cursor je nach Position um den Schnittpunkt herum automatisch zu einem speziellen Trimmwerkzeug wird. Es sind solche scheinbar banalen Kleinigkeiten, die das Leben schöner machen.

Was lese ich daher in diversen Foren? In Resolve werden keine Proxies geliefert, sondern weitgehend fertig gegradete ProResHQs oder ProRes4444s. Man gleicht den Rest in FCP X noch ein bisschen aneinander an. Wow, was für ein windschnittiger Workflow!

Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen.

Was war noch unter den Neuerungen?

Freie Wahl, welche Dateien in der Mediathek abgelegt werden. Klingt äußerst banal, ist es aber nicht. Apple bastelt weiter an der Verbesserung der Organisation, verirrt sich aber m.E: auch auf Nebenschauplätzen ("Finder-Tags", so, als würde jeder Zahnarzt seine vorsortierten Kundendaten in FCP X einpflegen wollen - oder was habe ich da missverstanden?).

Es ist nämlich für einige - sind es noch so wenige? - völlig schnuppe, wo mir FCP X erlaubt, Ordner anzulegen, wenn ich zuvor gezwungen bin, mein Footage in einen Mediapool zu importieren, nach klassischer Buchhalterart händisch durch Ordnerpfade.

Space


Antwort von Paralkar:

Also ich bin kein VFXler, aber ich hatte im Grading bei dem XAVC 10 bit 2k Material einer F5, nicht das Gefühl schlechter dazustehen als bei ProRes 422 10 bit hq.

Space


Antwort von Jott:

Valentino: "ProRes ist immer noch eine DCT basierender Codec wie DV und MotionJpeg und gehört technisch gesehen in die Nuller, wenn nicht sogar in die 90er Jahre."



Das hast du von wowu abgeschrieben, und es interessiert trotzdem niemanden. Hast du mal nachgeschaut, welche Firmen in letzter Zeit alle ProRes lizensiert haben? Das sind Dutzende. Alles wohlklingende Namen aus der "Oberklasse". Du kannst persönlich ProRes gerne scheiße finden und das als Assistent am Set mit einem Megaphon rausbrüllen. Aber es bleibt trotzdem nur eine Meinung, die von sehr vielen - meistens die mit der Kohle, die die Workflows bezahlen - nun mal nicht geteilt wird. Ganz einfach. Du wirst damit leben müssen! :-)

Ergänzend: XAVC flutscht auf aktueller Technik natürlich auch prima, da gibt es nichts zu rütteln.

Space


Antwort von iasi:


Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen.
wobei so richtig gut funktioniert eigentlich auch bei Adobe nur die Kombination Premiere-Speedgrade ... nur muss man Speedgrade eben mögen lernen

Space


Antwort von iasi:

Valentino: "ProRes ist immer noch eine DCT basierender Codec wie DV und MotionJpeg und gehört technisch gesehen in die Nuller, wenn nicht sogar in die 90er Jahre."



Das hast du von wowu abgeschrieben, und es interessiert trotzdem niemanden. Hast du mal nachgeschaut, welche Firmen in letzter Zeit alle ProRes lizensiert haben? Das sind Dutzende. Alles wohlklingende Namen aus der "Oberklasse". Du kannst persönlich ProRes gerne scheiße finden und das als Assistent am Set mit einem Megaphon rausbrüllen. Aber es bleibt trotzdem nur eine Meinung, die von sehr vielen - meistens die mit der Kohle, die die Workflows bezahlen - nun mal nicht geteilt wird. Ganz einfach. Du wirst damit leben müssen! :-)

Ergänzend: XAVC flutscht auf aktueller Technik natürlich auch prima, da gibt es nichts zu rütteln. Bleib mal bitte sachlich - warum nur fühlst du dich immer so schnell persönlich auf den Schlipps getreten.

ProRes XQ erzeugt große Datenraten und nimmt einem dennoch die Vorteil von Arri-Raw.
Und das alles nur, weil Apple nicht im Stande ist, Arri-Raw nativ zu unterstützen.
Da sag ich doch mal:
Wem Raw zu aufwändig ist, der bleibt doch eh besser bei den "kleinen" ProRes-Versionen.
Wer wirklich Wert auf die maximalen Möglichkeiten legt, der nutzt Raw.

Ich dachte immer Arri und Alexa-Nutzer wären kompromislos - das sieht mir hier aber nicht so aus.

Space


Antwort von Axel:

Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen. wobei so richtig gut funktioniert eigentlich auch bei Adobe nur die Kombination Premiere-Speedgrade ... nur muss man Speedgrade eben mögen lernen Was heißt das? Ich kann nicht mit komprimierten DNGs einen Schnitt (ohne Titel, Effekte, etc) machen, dann ein XML nach Resolve schicken, komplett graden, in (ähm, ja, was nehme ich für Windows statt ProRes?) irgendwas Solides rendern, wieder XML zurückschicken und in Premiere onlinen?

Space


Antwort von Jott:

Iasi, du bist völlig verpeilt. Ich fühle mich doch von niemandem auf den Schlips getreten (besitze gar keinen), wundere mich nur über all diese Weisheiten, die so oft nur aus einer Mischung aus Ergoogeltem, Nachplappern und einer Prise Verschwörungstheorien bestehen. Gerade bei selbsternannten Fachleuten.

ProRes schwappt auch zu anderen Kameraherstellern. Ebenso gehören ProRes und fcp schon lange nicht mehr de facto zusammen, das hat sich längst verselbständigt. Die ganzen US-TV-Serien zum Beispiel, wo Alexa auch wegen ProRes dominiert, werden natürlich nur selten auf fcp x geschnitten. Oder etwa doch? Hui, das nächste Minenfeld! :-)



Übrigens:

"ARRIRAW QuickTime Components

The ARRIRAW QuickTime Component will perform all of the importing, playback, de-bayer, and color correction functions to the movie. All applications that use Apple’s QuickTime libraries can access all aspects of the ARRIRAW image sequences. Applications ranging from Final Cut Pro right down to iMovie, can import and play these files without any sort of conversion or preprocessing steps."

Space



Space


Antwort von Axel:

"ARRIRAW QuickTime Components" Von Arri als Plugin entwickelt, nicht? Genauso wie das RED plugin von RED. CinemaDNG ist ja open source, oder? Ursprünglich von Adobe entwickelt. Also wäre es an BlackMagic, das anzubieten? Anscheinend hat es mal sowas gegeben, für FCP 7. Nun nicht mehr. FCP X zeigt ja DNGs (als Einzelbilder) an, aber nicht als Bildsequenz (kann man eine draus machen, Dauer 1 Frame pro importiertes Einzelbild, hab ich mal mit der Brawley-Billardfrau probiert), aber keine komprimierten der Pocket. Und schneiden kann man's so auch nicht.

Blöd.

Space


Antwort von CameraRick:

@CameraRick
War es wirklich 4k XAVC oder nur der ältere HDCAM-SR Codec, der auch auf MPEG4 basiert, aber schon über 10 Jahre alt ist?
Was für Aufnahmen, wie komplex war die Post?
Wenn es um einen Key geht, sollte man tunlichst nicht zu 422 greifen, da hat auch ProRes ganz klar seine Grenzen.
So was kann man auch nur richtig vergleichen, wenn man das Bild nebenher als ProRes mitnimmt und mal ein Differenzkey macht. Es war XAVC. Und Du darfst nicht annehmen, dass jeder Key automatisch ein Greenscreen ist - es gab keinen Greenscreen im ganzen Film. Man keyed im Alltag eben so einiges, nicht nur grün und blau :o)

Unser Freelance-Smoker war auch recht entsetzt, und fragte etwas verbittert "was ist das denn für Material"
Einen empirischen Vergleich kann ich natürlich nicht machen. Aber den ganzen Tag tu ich unter der Woche nichts anderes als Pixel zu schubsen, und da fällt Dir dann schon auf welches Material da eher mit macht, und welches nicht. ARRIRAW ist auch ganz vorzüglich - wobei man das ja auch nicht in der Software die man nachher nutzt debayern (sollte). Gleiches gilt für RED; man kann das zB zwar im Nuke laden, der Unterschied zwischen dem was man dort kriegt und was man aus dem Resolve bekommen hätte ist aber auch nicht so klein.

Beim Grading war ich nicht dabei, da sehe ich nur das Ergebnis (da sind wir wieder beim Rauschen, aber das ist nicht die Schuld des Codecs). Abgesehen vom Rauschen hat das Bild gut mitgemacht im Grading, der Look war eher... nennen wir es mal, "flaue 60s". Ändert für mich nichts daran, wie sich das Material ansonsten verhalten hat.

Space


Antwort von sgywalka:

Dann haben se es halt!

Der Hersteller kann den Motor auch mit Wodka fahren
( weil er einen Entzuckerungsreiniger mit eingebaut hat-falls wer-
und ja ich habe auf meinem Boot eine Tesla mit-genug Zeit den
über die bordeigen Solaranlage zu tanken--:)..gut) und
im normalen Fall dan auch mit Super. ist doch toll.
Im Zeitalter von EINFALT ( und Einfallslosogkeit, wo die spiesigen
Hausmeister als ex. Stasi-lager-wärter nun gelangweilt in ihrem
Arsch rumbohren und dann monchrome Internetglaubensbekenntnisse
abgeben is des echt toll = FILMSTOFF " das bucklige Arschloch denunziert
seinen Nachbarn"...früher war es halt der Graf von Montechristo) scheint
bei jeder Kamera jedem Computer und bald jedem Ärtepfl (( dt: das ist
eine Kartoffel..) gemosertt zu werden, warum es nicht in die omnipräsente
"REINHEIT" von igs passt und net im Takt der kollektiven...
" gemeinsam gehn wir gemeinsam scheissen und betrachten ancher unsern
Schiss"- sager sich im LIKE des WE ARE ONE selbstinszenieren.
Die Knarre kanne s halt und fertig.

Monte Christo... ich werf mal den Anker..
out

Space


Antwort von iasi:

Iasi, du bist völlig verpeilt. Ich fühle mich doch von niemandem auf den Schlips getreten (besitze gar keinen), wundere mich nur über all diese Weisheiten, die so oft nur aus einer Mischung aus Ergoogeltem, Nachplappern und einer Prise Verschwörungstheorien bestehen. Gerade bei selbsternannten Fachleuten.
Das ist doch das Problem: wir reden hier über einen Codec und du ziehst imme alles auf eine persönliche Ebene herunter und wirst dann auch noch beleidigend - dieser Stil nervt nicht nur, er bringt niemandem etwas.

Frag dich doch mal, warum du nicht beim Thema bleiben kannst ...
Scheinbar erträgst du es nur schwer, wenn andere nicht deine Meinung vertreten und dann keilst du reflexartig aus.

Space


Antwort von iasi:

Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen. wobei so richtig gut funktioniert eigentlich auch bei Adobe nur die Kombination Premiere-Speedgrade ... nur muss man Speedgrade eben mögen lernen Was heißt das? Ich kann nicht mit komprimierten DNGs einen Schnitt (ohne Titel, Effekte, etc) machen, dann ein XML nach Resolve schicken, komplett graden, in (ähm, ja, was nehme ich für Windows statt ProRes?) irgendwas Solides rendern, wieder XML zurückschicken und in Premiere onlinen? da gehst du davon aus, dass XML immer schön zu 100% das Projekt übersetzt - leider tut"s dies eben nicht - das funktioniert nur bei relativ simplen Projekten.
Der XML-Workaround ist eine ziemliche Krücke.
Das hat Adobe mit Premiere&Speedgrade weit besser gelöst. Schade nur, dass mir Resolve weit mehr liegt als Speedgrade.

Space


Antwort von cantsin:

Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch. Die Frage ist, inwiefern das eine grundsätzliche Design-Limitierung von FCP X ist, weil das Programm ja intern alles nach ProRes umrechnet, das bei Raw-Videomaterial zum Flaschenhals wird.

Ich würde mich aber sowieso nie auf die Materialorganisation eines Bearbeitungsprogramms einlassen, weil man sich damit zum Systemgefangenen macht. Würde mich mal interessieren, wie hoch in dieser Hinsicht die Akzeptanz von FCPX bei professionellen Anwendern ist. Eigentlich müsste man mit dem Klammerbeutel gepudert sein, wenn man seine internen Workflows auf die Mediendatenbank und -verschlagwortung von FCPX aufsetzt, ohne von Apple langjährige Garantien, Roadmaps und damit Investitionsschutz zu erhalten.

Aperture ist ein aktuelles Beispiel dafür, was in solchen Fällen passieren kann.

Space


Antwort von motiongroup:

Was ist den passiert mit Aperture? Es wird nicht weiterentwickelt , man darf es aber weiterverwenden uuuuuund die RAW Adaptionen wird weiter geführt..

Erstmals ist Aperture eine Organisationshilfe und in zweiter line ein nondestruktiver (auch) RAWbildbetrachterausarbeitungskorrekturtool und kein Bildbearbeitungsprogram like Ps oder Pixelmator.. Der Funktionsumfang der aktuellen Version wird auch noch die nächsten Jahre ausreichen wie eben auch für viele noch fcp NOCH IMMER !!!!!!! trotz Mavericks den Dienst versieht..
Das sollte sich manch ein Windowslobpreiser vor Augen halten. Die Canonuser die Adobes Ligthroom und adobes Cam.RAW verwenden wissen ein Lied davon zu singen.. Alte SW neue Cam is nich...Upgrade kaufen oder Finger im Arsch abbrechen..

Noch wundersamer ist der Aufschrei um diese neue Software.. Kein Mensch kennt deren Umfang und Leistung.

Die Prores Diskussion an sich kommt mir irgendwie vor wie die von trotzigen Jungs, die weil ihre Erwartungshaltung von den Herstellern so gar nicht erfüllt werden.... So quasi ja das gibts ja nicht, haben diese Idiotien meinen hilfespendenden Ruf nicht gehört.. Unlängst gab's mit einem vfx Spezi der am aktuellen Nolan arbeitet so einen kleinen Zusammenschnitt, quasi ne Übersicht wie sich das ganze so darstellt. ...eines vorweg, denkt nochmals über hohe Datenraten nach..

Space


Antwort von iasi:

Apple begräbt Aperture - so lautet die Nachricht und man kann es auch nicht beschönigen.

Adobe hat mit seinem Abo-Modell ein System eingeführt, bei dem man jederzeit mit der aktuellsten Software-Version arbeiten kann.

Warum sollte man denn nicht von Fortschritten profitieren wollen, die sich nun einmal ergeben?
Also ich ziehe z.B. mein RedRaw-Material auf die Premiere-Timeline und fertig. Es lässt sich damit so gut und flüssig arbeiten, wie mit ProRes. Weshalb sollte ich dann eigentlich die Einschränkungen von ProRes in Kauf nehmen? Zumal die Datenmenge bei XQ selbst bei HD-Auflösung weit größer ist, als bei RedRaw bei 4k.

Space


Antwort von Valentino:

Auf die Gefahr mich zu wiederholen, der neue ProRes XQ Codec läuft nur auf der neuen Alexa XT Reihe und nicht auf den ganzen Serien davor.

Die XT Kameras werden knapp so 10% aller verkauften Alexa ausmachen,
da einige Kunden dann doch zur AMIRA greifen oder auf die true 4k Alexa warten.

Man konnte auch seine alte Alexa Classic auf XT umrüsten, hat dann aber immer noch keine vollwertige XT, glaub 4:3 Sensor-Mode und Opengate funktionieren auch nach einem Upgrade nicht.
Aus diesem Grund haben sich die meisten Verleiher gleich eine bis zwei XTs gekauft und die ganz alten Classics für 25 bis 40k Euro verkauft.

Privat werden sich nur wenige Kameraleute eine XT zugelegt haben, da einfach zu teuer und die AMIRA gerade für Doku und TV eine günstigere Alternative ist.

Die Vorteile der XT sind in erster Linie die RAW Aufzeichnung mit 120fps und der 2,8k 4:3, so wie der 3,2k Opengate Mode.
Beim QX Codec ist aber bei 2k 4:3 das Ende der Fahnenstange erreicht und man verliert dazu noch die Vorteile von RAW.

Space



Space


Antwort von Jott:

Die Redaktion hat dazu im Artikel geschrieben:

"Laut Angaben von ARRI umfasst ProRes 4444 XQ die Tonwerte von Log C in vollem Umfang bei gleichzeitiger, gewohnt unkomplizierter Verarbeitung von ProRes-Material."

Kannst du wirklich nicht verstehen, dass es Leute gibt, die genau so was wollen?

Jeden Tag entstehen weltweit Filme, TV-Serien, sonstige Programme, Werbespots auf RED oder Canon, Arri oder Sony oder sonst was, raw oder durch, alle kommen ans Ziel und spielen Geld ein. Jede Entscheidung für Workflow X oder Y kann richtig sein. Abhängig von Projekt, Budget, Zeitrahmen und vielem mehr. Arri bedient mit dem neuen (zusätzlichen) Codec-Angebot einen dieser denkbaren Workflows, sicher wissend, dass das Angebot gern angenommen wird. Andere werden folgen. Müssen muss aber niemand. Worauf genau gründet sich daher die Empörung darüber? Vor allem: wer ist empört? Potentielle Arri-Kunden oder nur - öhm - ...

Space


Antwort von Axel:

Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch. Die Frage ist, inwiefern das eine grundsätzliche Design-Limitierung von FCP X ist, weil das Programm ja intern alles nach ProRes umrechnet, das bei Raw-Videomaterial zum Flaschenhals wird. Nö. Nix wird intern umgerechnet. Sag mal, du hast das Programm doch benutzt? Zuerst wird alles erst einmal nativ abgespielt (einige Formate brauchen dazu ein QT-Plugin, das ist ja bekannt). Dann, beim Import, hast du die Möglichkeit, im Hintergrund in optimierte Medien zu wandeln (=ProRes), in die Mediathek zu kopieren (eine Kopie im Original-Codec, aber in einem QT-Container wird auf das zugewiesene Volume geschrieben) oder die Dateien am ursprünglichen Ort zu belassen (Alias-Dateien werden in den Original-Media-Ordner geschrieben). Für letztere Option hängt die Performance von deinem Rechner und vom Material ab, aber auf meinem vergleichsweise lahmen Rechner habe ich nie irgendwas nicht nativ geschnitten. Ich würde, wenn das ginge, DNGs schneiden und nach Resolve schicken, das dann mit den Originalen weitermachen könnte.
Ich würde mich aber sowieso nie auf die Materialorganisation eines Bearbeitungsprogramms einlassen, weil man sich damit zum Systemgefangenen macht. Die anderen NLEs haben keine Materialorganisation. Sie haben ein antiquiertes System, das auf unintelligentes Verteilen von Material auf Ordner beruht und allenfalls rudimentäre Verknüpfungen dazwischen erstellt.
Würde mich mal interessieren, wie hoch in dieser Hinsicht die Akzeptanz von FCPX bei professionellen Anwendern ist. Eigentlich müsste man mit dem Klammerbeutel gepudert sein, wenn man seine internen Workflows auf die Mediendatenbank und -verschlagwortung von FCPX aufsetzt, ohne von Apple langjährige Garantien, Roadmaps und damit Investitionsschutz zu erhalten. Für Firmen größeren Umfangs mag das seine Berechtigung haben, für kleine und zumal für Privatnutzer hat es null, und Roadmaps werden entweder in dem Moment über den Haufen geworfen, da sich zeigt, dass das System endgültig überholt ist oder es wird auf konservatives Festhalten an alten Karten gesetzt. Wer langjährige Garantien erwartet, der glaubt auch, dass die Rente sicher ist.

Space


Antwort von motiongroup:

Iasi, Apple hat sich selbst begraben ... Apple ist tot, Apple hat fcp beerdigt..Apple hat fcpx als Totgeburt auf den Markt geworfen.. Apple, Apple, Apple ... Black Magic ist böse, Black Magic ist schlecht .. Studio London , Paris, Valentino, wowu, motiongroup der Antichrist, motiongroup der Idiot, DV_Chris, die Jubelperser, bashboys, trolle usw.. Die Welt steht still, die Welt geht unter, Edgar die Russen kommen und der Nolan dreht seine Filme auf ?aha..

Iasi Isch Nehm's Nimma Ernst

Space


Antwort von Valentino:

@Jott
Das mit den 12bit und dem gesamten Tonwert von Log-C tut aber anscheinend laut Arri auch der kleinere ProRes4444 und das bei halber Datenrate.
Bis heute hat das für jede nicht RAW Produktion auch völlig ausgereicht, also für was dann dieser neue Codec, der fast so viele Speicher wie RAW benötigt, aber die die Vorteile und Auflösung nicht liefern kann.

Wenn du einen VFXler fragst wird er immer OpenEXR aus RAW am besten als 3,2k Opengate nehmen.
Für die restlichen TV Produktionen ohne viel VFX reicht meiner Meinung sogar ProRes HQ völlig aus.

Space


Antwort von WoWu:

@ Valentino

Der bisherige 4:4:4:4 war ein 10 Bit Codec.
Jedenfalls nach dem Material, das wir hier mit dem Codec bekommen haben.
LOG -C ist darin mangels ausreichender Zwischenwerte nicht abgebildet worden.

Space


Antwort von Jott:

Es ist doch nur ein Angebot, das keiner wahrnehmen muss. Arri drängt das doch niemandem auf, oder empfindest du das anders? Juckt es dich in den Fingern, vor den ARRI-Toren eine Demo zu organisieren, Pappschilder mit "Kein ProRes 4444 XQ für die Alexa!!!!" hochzuhalten und das lauthals zu skandieren? Das wär mal was.

Space


Antwort von WoWu:

White-Papers und vor allem die Grafiken, die darin abgebildet sind, muss man genau lesen.

Space


Antwort von Valentino:

@ Valentino

Der bisherige 4:4:4:4 war ein 10 Bit Codec.
Jedenfalls nach dem Material, das wir hier mit dem Codec bekommen haben. Ja das hast du schon mal erzählt, wundere mich dann nur warum auch im neuen Whitepaper und der Arri Homepage trotzdem vom 12bit RGB die Rede ist: Apple ProRes 4444 XQ and Apple ProRes4444 support image sources up to 12 bits and preserve alpha sample depths up to 16 bits. http://www.arri.de/uploads/pics/ProRes- ... ecs_03.jpg

Hat Arri es bei den älteren Alexas einfach nicht hin bekommen, die vollen 4096 Werte zu mappen?
Der DNxHD 444 Codec ist ja auch nur auf 10bit limitiert.

Also woher stammt deine Informationen, bzw. stammte das ProRes444 Material von einem externen Rekorder und es wurde ein 422 10bit Signal auf 4444 aufgeblasen?

Space


Antwort von WoWu:

LOG C ist ja eigentlich eine 10 Bit Kurve. Der Rest ist dann eine Frage der Menge der Samples und im alten Codec fing der Alphachannel oberhalb von 10 Bit an.
Insofern hat der Codec schon 12 Bit in einem 16 Bit (2Byte) Format übertragen, aber nicht als Nutzsignal.
Mal sehn, wie der neue Codec das macht. Noch gibts davon ja keinen Content.

DerContent war Footage, soweit ich mich erinnere, also Recordersignal.
Aus der verlinkten Liste geht leider nicht hervor, wo der Alpha-Channel liegt und wie breit er ist.
Es ist also immer eine Frage, wie man die 12 Bit verwendet. 16 Bit braucht man immer, egal was da drin ist, weil man das 2. Byte braucht.
Insofern sagen solche Listen herzlich wenig aus. Nur dass man mehr als 10 Bit benutzt, aber dafür auch die 4. 4 unterstützt.

Space



Space


Antwort von iasi:


Iasi Isch Nehm's Nimma Ernst man kann die Augen eben auch schlicht verschließen und unbekümmert weiterträumen

es ändert aber eben nichts an Tatsachen, wie diesen:
http://www.heise.de/newsticker/meldung/ ... 42773.html

Space


Antwort von Valentino:

Aber ProRes4444 ist schon vorher in der Lage gewesen 12bit Video zu speichern, nur die Alexa Classic nutzt mit Log-C nur 10bit.

Am Ende gelten die 12bit einfach nur für die neueren XTs, da hier dann auch Log-C noch mal ein Update erfahren hat.

Glaub schon, das die bei Arri 12bit RGB(ohne Alpha) hinschreiben und es dann auch echte 12bit sind.

Werde diesbezüglich mal eine Mail an den technischen Support schicken.

Space


Antwort von WoWu:

@Iasi

Freuen wir uns doch und sehen das Positive darin.
Wenigstens unterstützen sie jetzt sehr aktiv

HDV
AVC-Intra
DVC-Pro
und noch ein paar Formate mit ihrem Up-Date.

Das ist doch alles positiv.Werde diesbezüglich mal eine Mail an den technischen Support schicken. Gute Idee. Sag mal Bescheid, was dabei raus kommt ?
Kann natürlich sein, dass die Kamera da der begrenzende Faktor war, nur dann stellt sich natürlich wirklich die Frage, was der neue Codec soll, wenn der "alte" es doch schon angeblich konnte ?

Space


Antwort von motiongroup:


Iasi Isch Nehm's Nimma Ernst man kann die Augen eben auch schlicht verschließen und unbekümmert weiterträumen

es ändert aber eben nichts an Tatsachen, wie diesen:
http://www.heise.de/newsticker/meldung/ ... 42773.html Ich brauch ned träumen ich resp wir verwenden es einfach, lies dir mal deine x Milliarden Jammerbeiträge und red nochmals vom träumen..
Übrigens zu deinem Link und zur reißerischen Aussage "Begraben"

Du hast falsch verlinkt..

http://www.heise.de/newsticker/foren/S- ... 1918/list/

Das ist der richtige zu dir passende Link... Vielleicht kennst den einen oder anderen von hier.. *gggg und vielleicht geht dir gar ein Licht auf...

Space


Antwort von otaku:

@Jott

Wenn du einen VFXler fragst wird er immer OpenEXR aus RAW am besten als 3,2k Opengate nehmen.
Für die restlichen TV Produktionen ohne viel VFX reicht meiner Meinung sogar ProRes HQ völlig aus. genau so ist es. after effects ist meines wissens nach die einzige vfx software die mit quicktime sehr gut klar kommt. alle anderen tuen das nicht.
nuke, shake, flame da ist quicktime komplett pain in the ass. selbst ein smoke on mac kann zwar quicktime aber einzelbilder laufen deutlichst besser.

also aus vfx sicht brauchen wir den neuen codec so dringend wie ein loch im kopf.

Space


Antwort von WoWu:

So, wie es aussieht, ist die ARRI ja auch die einzige Kamera, die den Codec überhaupt unterstützt und vor Herbst des Jahres gibt es wohl auch gar keine Geräte dafür ... das heisst also, dass jemand, der mit der Kamera 12 Bit aufnimmt, ausgerechnet das Material auf einem FCP schneiden möchte.

Ob das alles so kommt weiss heute auch noch keiner und vielleicht sieht die Welt im nächsten Jahr schon wieder ganz anders aus und kein Hahn kräht mehr nach so einer Kombination aus einer bestimmten ARRI Kamera mit einem bestimmten Apple Format.
Ich tippe mal drauf, dass die Kamera auch alternativen anbietet.
Und bis dahin ist die Werbekampagne lange verpufft, wenn sich Praktiker für ein Format entscheiden können. Denn die klassischen ARRI Anwender werden nicht vor Dank auf die Knie fallen, wenn ihnen ein Codec als "Pflichtübung" vor die Nase gesetzt wird, den kein professionelles NLE beherrscht.

Also, warten wir doch mal ein Jahr, bis überhaupt die ersten Bilder da sind, die von Profis gedreht wurden und nicht von irgendwelchen Blog-Betreibern irgendwelche lächerlichen Vergleiche.

Space


Antwort von Jott:

Sie reden von Public Beta jetzt im Juli und finaler Software im August. Bilder dürften also recht schnell auftauchen. Bei den ganzen Bloggern kann man sich ja dann auf diejenigen beschränken, deren Resultate einem in den Kram passen! :-)

Space


Antwort von WoWu:

Auftauchen vielleicht ... aber es ist schon viel aufgetaucht, das dann auch rasch wieder in der Versenkung verschwunden ist.
Es ist eine Frage der Marktakzeptanz.
Und, ie ich oben schon geschrieben habe. Die klassischen ARRI Anwender werden nicht vor Dankbarkeit auf die Knie fallen, wenn ihnen ein Codec angeboten wird, den kein professionelles NLE beherrscht.
Gerade auch weil Apple dafür bekannt ist, erst 2-3 Jahre später Bugs aus ihren Software-Implementierungen zu beseitigen ... wenn überhaupt.

Space


Antwort von Jott:

Wenn die neue Variante jetzt zum bisherigen ProRes-Paket gehört (weiß nicht, ob es so ist, aber warum nicht?), steht der Codec ab sofort allen Lizenznehmern zur Verfügung. Also durchaus nicht nur in fcp.

Wen's interessiert, hier eine nicht mal aktuelle Liste der Lizenznehmer:
http://support.apple.com/kb/HT5959

Space



Space


Antwort von WoWu:

Dann schau mal, wer ausser FCP ProRes kodieren kann.
Es geht ja nicht darum, das Format in einem Player für die Wiedergabe zu implementieren.
Apple versucht vermutlich einen Codec zu schaffen, der das Intermediate Image los wird und bedient sich der Hilfe von ARRI.
Wahrscheinlich können dann nur ARRI Laser das Master lesen, vorausgesetzt, andere NLEs und Bearbeitungsprogramme lizensieren den Codec, um das Format generieren zu können denn sonst landet es ohnehin in irgendeinem kompatiblen Format.

Sonst hat man toll kodiertes Footage, ein Pflicht NLE und die Möglichkeit, das auf speziellen ARRI Geräten auch weiterverarbeiten zu können.

Lass uns also mal abwarten, ob die "Foundrys" oder "Autodesks" dieser Welt das Spiel mitspielen.

Space


Antwort von Jott:

Dann schau mal, wer ausser FCP ProRes kodieren kann. Viele. Siehe Liste. Man kann den Links zu den Lizenznehmern folgen und dort weiterlesen. Da geht es bei fast allen ums Encoden, auch unter Windows.

Space


Antwort von WoWu:

Komisch, dass man dann von soviel NLEs hört, auf denen man PR noch weiterverarbeiten kann.
Aber warten wir es einfach mal ab. Es gibt bisher ja noch nichts, über das man überhaupt reden kann, ausser ein paar Marketingankündigungen.
Lehnen wir uns also noch ein Jährchen zurück, bis es aussagekräftige Ergebnisse gibt.

Space


Antwort von Jott:

Autodesk-Produkte sind doch ein gutes Beispiel, wo ProRes längst implementiert ist, auch das Encoding?

Und bist du nicht ein Freund des Hauses Quantel?
http://www.studiodaily.com/2014/04/quan ... -encoding/

Space


Antwort von iasi:


Iasi Isch Nehm's Nimma Ernst man kann die Augen eben auch schlicht verschließen und unbekümmert weiterträumen

es ändert aber eben nichts an Tatsachen, wie diesen:
http://www.heise.de/newsticker/meldung/ ... 42773.html Ich brauch ned träumen ich resp wir verwenden es einfach, lies dir mal deine x Milliarden Jammerbeiträge und red nochmals vom träumen..
Übrigens zu deinem Link und zur reißerischen Aussage "Begraben"

Du hast falsch verlinkt..

http://www.heise.de/newsticker/foren/S- ... 1918/list/

Das ist der richtige zu dir passende Link... Vielleicht kennst den einen oder anderen von hier.. *gggg und vielleicht geht dir gar ein Licht auf... und was sollen mir diese Forumsbeiträge nun sagen?

da halte ich mich doch lieber an objektive Meldungen
http://www.zdnet.de/88197262/apple-stel ... rture-ein/
http://www.social-secrets.com/2014/06/a ... ntwickeln/

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?

Space


Antwort von motiongroup:

und was sollen mir diese Forumsbeiträge nun sagen?

da halte ich mich doch lieber an objektive Meldungen
http://www.zdnet.de/88197262/apple-stel ... rture-ein/
http://www.social-secrets.com/2014/06/a ... ntwickeln/

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?
Dir nichts,........ Du solltest eventuell darüber nachdenken was " Der Ton macht die Musik " bedeutet... Anscheinend ist dir der Geschmackliche Unterschied zwischen Apple Begräbt und Apple stellt die Entwicklung gar nicht aufgefallen... Das ist BildNiveau und spiegelt sich in dieser typen Frage deinerseits wieder..

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?


Space


Antwort von WoWu:

@ Jott

Warten wir es einfach mal ab.

Und Quantel , bietet nun mal, anders als FCP alle verfügbaren Codecs und auch File-Übergabeformate dem Kunden, unabhängig von ihrer qualitativen Nutzbarkeit weil der Kundenkreis schon unterscheiden kann, was Quantels Schuld ist und die anderer Hersteller.
Wenn es da nach Qualität ginge, sähe das sicher noch etwas anders aus.

Aber warten wir das kommende Jahr doch einfach ab.

Erstens wird man dann gesehen haben, wie die Implementierung ist,
zweitens wird man dann wissen, was der Codec überhaupt leistet,
drittens werden wir dann wissen, wie sich andere Codecs im Verhältnis dazu in der Anwendung machen,
viertens werden wir wissen, ob die Karawane nicht schon längst weitergezogen ist und
fünftens werden wir wissen, wie die Benutzbarkeit im wirklichen Leben eigentlich ist.

Bisher gibt es nicht einmal die Auskunft darüber, wieso eigentlich ein weiterer Codec nötig ist, wenn ihr vorher das doch schon alles konnte.
Da hat Valentino schon völlig Recht.
Oder sie haben von ARRI gesagt gekriegt, dass sie das alte Zeug nicht mehr in die Kameras einbauen, wenn sie nicht die Mängel beseitigen. Und weil das so eine Sache, auch mit der eigenen Kompatibilität bei Apple ist, .... dann doch lieber einen neuen Codec.

Alles ist möglich, wir wissen es nicht.

Also warten wir, bis wir es erfahren haben.

Space


Antwort von Jott:

Bezogen auf die neue, sechste Geschmacksrichtung, ja. Bezogen auf ProRes allgemein spürt man bei dir schon eine gewisse Realitätsverweigerung, aber das ist ja nichts Neues.

Für 4K sehe ich ProRes übrigens auch nicht. Da werden die Files für meinen Geschmack dann wirklich zu groß, das nervt. Da mag ich inzwischen XAVC (Intra, nicht die Consumervariante) mit seinem 422 10Bit, gut zu handeln und wider Erwarten eigentlich gar keine Herausforderung. Läuft selbst auf einem schnellen aktuellen iMac recht gut.

Space


Antwort von iasi:

und was sollen mir diese Forumsbeiträge nun sagen?

da halte ich mich doch lieber an objektive Meldungen
http://www.zdnet.de/88197262/apple-stel ... rture-ein/
http://www.social-secrets.com/2014/06/a ... ntwickeln/

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?
Dir nichts,........ Du solltest eventuell darüber nachdenken was " Der Ton macht die Musik " bedeutet... Anscheinend ist dir der Geschmackliche Unterschied zwischen Apple Begräbt und Apple stellt die Entwicklung gar nicht aufgefallen... Das ist BildNiveau und spiegelt sich in dieser typen Frage deinerseits wieder..

die Weiterentwicklung einzustellen, bedeutet nun mal das Ende einer Software ... und "begraben" ist dafür ein durchaus passender Methapher ...

Apple will eben letztlich alles auf die Berührungsschirmchen umstellen - mit Lifestil verdient Apple eben die meiste Kohle.
Eine Workstation, bei der das Design derart wichtig ist, wie beim MacPro hat etwas von Luxustransporter - deren pratischer Wert ist eben auch eingeschränkt ... für den Handwerk sind die jedenfalls nichts ...

Space



Space


Antwort von WoWu:

@Jott

Das hättest Du schon seit 10 Jahren als AVC-I haben können und dann auch noch in 10 Bit-gleich von der Kamera.

Nein, mit Realitätsverweigerung hat das nichts zu tun, weil wir seit 10 Jahren mit AVC arbeiten und ProRes nie vermisst haben, ganz im Gegenteil, die Vorteile dessen nutzen zu können, auf die Du ja, wie es scheint auch mittlerweile kommst.

Du hast nur ProRes als alternativlos angesehen, weil Du nichts anderes kanntest.
Aber so ist das wohl mit dem "alternativlos"... wie in der Politik ... es ist alles relativ und irgendwann finden sie alle mal die Alternative.
Manche eben später ... aber besser als nie.

Space


Antwort von Jott:

Du glaubst im Ernst, ich kannte P2 nicht? Lass stecken, spring in den Pool.

Space


Antwort von WoWu:

Von kennen spreche ich ja nicht, von Nutzen spreche ich und wenn in den Produktionskosten ein paar Speicherchips eine Rolle spielen, dann ist das auch sicher egal, ob man AVC oder MPEG2 benutzt.
Wahrscheinlich müssen die Mitarbeiter dann auch für das Catering bezahlen, wenn man schon am Speicherchip sparen muss.

Space


Antwort von motiongroup:

iasi iasi, es wird vorangekündigt das die Entwicklung eingestellt wird.. Und was passiert, die selbe dümmliche Madigmacherei wie damals als fcp OHNE VORANKÜNDIGUNG eingestellt wurde... Es ist im Prinzip vollkommen egal wie auch immer, es wird immer wieder jemanden geben der die passenden Worte findet.

Berührungsschirmchen? Mir kannst mit so spaßigen blumigen Umschreibungen keinen aha Effekt entlocken.. Ich bin weder auf ipad noch iphone eingeschworen und hämmere meine dummen Schreibereien auch mit nem Androiden ins Textfeld..
Und weilst das so dümmlich darstellst, dir ist schon klar das hunderttausende Smartphones und Tabletts weltweit zu renderclustern zusammengefasst ihre Dienste verrichten..
Mir ist's auch sch*** Egal ob die Geschichte unter Ubuntu. Windows oder OSX läuft weil hier so oder alles rumsteht was uns eigentlich unsere Lebenszeit vernichtet..

Die Geschichte kommt mir fast so vor wie die Aussage RED verwendet martialische Produktbezeichnungen und drum bekommst auf den macpro matsch keine Antwort weil dazu schon alles gesagt wurde..

Space


Antwort von iasi:

iasi iasi, es wird vorangekündigt das die Entwicklung eingestellt wird.. Und was passiert, die selbe dümmliche Madigmacherei wie damals als fcp OHNE VORANKÜNDIGUNG eingestellt wurde... Es ist im Prinzip vollkommen egal wie auch immer, es wird immer wieder jemanden geben der die passenden Worte findet.

Berührungsschirmchen? Mir kannst mit so spaßigen blumigen Umschreibungen keinen aha Effekt entlocken.. Ich bin weder auf ipad noch iphone eingeschworen und hämmere meine dummen Schreibereien auch mit nem Androiden ins Textfeld..
Und weilst das so dümmlich darstellst, dir ist schon klar das hunderttausende Smartphones und Tabletts weltweit zu renderclustern zusammengefasst ihre Dienste verrichten..
Mir ist's auch sch*** Egal ob die Geschichte unter Ubuntu. Windows oder OSX läuft weil hier so oder alles rumsteht was uns eigentlich unsere Lebenszeit vernichtet..

Die Geschichte kommt mir fast so vor wie die Aussage RED verwendet martialische Produktbezeichnungen und drum bekommst auf den macpro matsch keine Antwort weil dazu schon alles gesagt wurde.. Warum windest du dich denn so?

Die Weiterentwicklung wird eingestellt - Punkt aus. Und dies bedeutet das Ende dieses Programmes.

Der Aufschrei der Mac-User bzgl. fcp war ja wohl nicht umsonst so laut - auch das musst du jetzt nicht herunterspielen.

Der MacPro lässt die Nutzung des Technisch möglichen nicht zu - wo bei anderen Workstations mehrere CPUs ackern, da ist beim MacPro eben z.B. bei einer schon Schluss.
Dass das Gehäuse im Hochglanz daher kommt, sagt doch zudem schon alles - es passt natürlich dadurch in die Produktline von Apple ...
Wie heißt es hier doch so schön:
"Doch da bei der Kaufentscheidung für Apple-Produkte Kriterien wie "stylisch" und "must have" ausschlaggebend sind, spielt die Ausstattung eher eine untergeordnete Rolle."
http://www.heise.de/newsticker/meldung/ ... 42743.html

Ginge es allein um praktischen Nutzen, könnte man die schicken Tablets doch auch zur Mediensicherung oder als Vorschaumonitor nutzen - aber das bleibt einem natürlich trotz Rechenleistung und tollen Displays versagt.

Space


Antwort von cantsin:

Nö. Nix wird intern umgerechnet. Sag mal, du hast das Programm doch benutzt? Zuerst wird alles erst einmal nativ abgespielt (einige Formate brauchen dazu ein QT-Plugin, das ist ja bekannt). Dann, beim Import, hast du die Möglichkeit, im Hintergrund in optimierte Medien zu wandeln (=ProRes), Ja, stimmt. Meine FCPX-Erinnerung lässt langsam aber deutlich nach. Ich hatte mit FCPX nie in nativen Formaten geschnitten, weil mein Rechner dafür zu langsam war.
Ich würde mich aber sowieso nie auf die Materialorganisation eines Bearbeitungsprogramms einlassen, weil man sich damit zum Systemgefangenen macht. Die anderen NLEs haben keine Materialorganisation.
Stimmt. Ich sehe es aber als ein großes Risiko an, Materialorganisation einem NLE zu überlassen. Genausowenig würde ich Dokumentenorganisation meinem Textverarbeitungsprogramm überlassen oder Organisation von Bilddateien einem Bildverarbeitungsprogramm. Deswegen hatte ich ja das Aperture-Beispiel gebracht. Wer da viel Zeit und Aufwand investiert hat, um darin seine Photos zu organisieren und verschlagworten, hat diese Arbeit umsonst gemacht. (Spätestens wenn Aperture auf zukünftiger Hardware nicht mehr läuft oder sich auf einem neuen Mac nicht mehr aus dem App Store installieren lässt.)
Ich würde sowas mit proprietärer Software nur machen, wenn die sich (a) an offene Standards hält (wie z.B. EXIF oder normierte XML-Metadatenformate) oder (b) der Hersteller eine Roadmap und Mindestgarantie für die Nutzbarkeit der Software liefert. Völlig egal, ob der Hersteller Apple oder anders heisst.

Space


Antwort von WoWu:

Das war einer, der ganz wesentlichen Gründe, warum wir (damals) gegen FCP entschieden haben, weil auch für externe Content Management Systeme keine Schnittstelle vorhanden ist und alles in dem proprietären Archivformat vorliegen muss. Auch das Einpflegen vorhandenen Materials ist in FCPx nicht ohne weiteres möglich, von Metadaten ganz zu schweigen.
Das ist wirklich ein kleiner "Stabilbaukasten". Mehr aber auch nicht und ich möchte auch nicht wissen, was mit Informationen geschieht, wenn man mal (z.B.) ein anderes NLE System darauf zugreifen lassen muss, weil man z. B. wechselt ... aber das ist wahrscheinlich auch die Absicht dahinter.

Space


Antwort von motiongroup:

Sag mal was ist mit dir los iasi, hier spielt keiner was herunter noch hinauf..

Die Entwicklung wird eingestellt Punkt.. Fcp wurde eingestellt Punkt. fcpx wurde als Nachfolger eingeführt Punkt. Combustion wurde eingestellt PUNKT , Shake wurde eingestellt PUNKT.. Encore eingestellt PUNKT, FAST Blue, Silver Purple eingestellt PUNKT. Cinegy extremePro eingestellt PUNKT, media 100 cinestream3.0 eingestellt PUNKT , Discreet Edit eingestellt PUNKT

Den selben shitstorm gab's bei der Umstellung von Premiere 6.5 auf PremPro


Und nun kommst du und erklärst das oooohne Multicpu und MultiGPU kein Krieg zu gewinnen ist .... Und auf der anderen Seite ein Compositing Sequence Supervisor bei Double Negativ am neuen Interstelar vom Nolan arbeitend in teilweise 8k auf i7 linux workstations ihr Auslangen finden müssen unter nukex, maya, renderman und mantra Einbindung ..

Alles klar ich weis was ich davon zu halten habe.. Wusste ich aber schon als von unserem workstation Spezi Numero UNO in einem anderen Forum leidenschaftlichen Ausführungen den Niedergang von Apples mobile Sparte prophezeite nur weil Flash bei Apple ausgesperrt ist und Windows und android durch die Flashunterstützung die Burner der Zukunft sind und wies der Teufel will Flash ab Kitkat ausgesperrt wurde..

Passt schon iasi.. Weitermachen

Space


Antwort von iasi:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

Und nur weil auch andere Software eingestellt wurde, ändert es doch nichts daran, dass Apple mit Aperture Schluss macht und stattdessen eine Foto-App bringt.

Dass Arri gerade auf Apple setzt, verwundert mich nicht - es geht eben bei XQ eben darum "in" zu sein. Da kann man dann die Brust rausstellen und sich vom üblichen ProRes abheben, muss sich aber nicht mit Raw befassen.

Ein Nolan hat in seinem Büro sicherlich einen Apfel-Eimer stehen und schaut sich darauf Sachen an - das gehört sich schließlich so, wie eben auch das iPhone in der Jackentasche.

Space



Space


Antwort von motiongroup:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

Und nur weil auch andere Software eingestellt wurde, ändert es doch nichts daran, dass Apple mit Aperture Schluss macht und stattdessen eine Foto-App bringt.

Dass Arri gerade auf Apple setzt, verwundert mich nicht - es geht eben bei XQ eben darum "in" zu sein. Da kann man dann die Brust rausstellen und sich vom üblichen ProRes abheben, muss sich aber nicht mit Raw befassen.

Ein Nolan hat in seinem Büro sicherlich einen Apfel-Eimer stehen und schaut sich darauf Sachen an - das gehört sich schließlich so, wie eben auch das iPhone in der Jackentasche. Das fasst in etwa das zusammen was ich vorher angesprochen habe.. Alles klar.....

Space


Antwort von Axel:

Die anderen NLEs haben keine Materialorganisation Stimmt. Ich sehe es aber als ein großes Risiko an, Materialorganisation einem NLE zu überlassen. Du hattest deine Gründe, von FCP zu Adobe zu wechseln.
Das war einer, der ganz wesentlichen Gründe, warum wir (damals) gegen FCP entschieden haben, weil auch für externe Content Management Systeme keine Schnittstelle vorhanden ist und alles in dem proprietären Archivformat vorliegen muss. Auch das Einpflegen vorhandenen Materials ist in FCPx nicht ohne weiteres möglich, von Metadaten ganz zu schweigen. Stichwort Roadmap: Eine offizielle gibt es vielleicht nicht, aber mit 10.1.2 kann das Problem der so genannten "proprietären" Materialorganisation als beantwortet gelten. Hatte ich mich weiter oben über den Sinn von "Finder-Tags" gewundert, wo doch FCP X selbst bestens geeignet ist, hereinkommendes Footage nicht nur zu verschlagworten (zweiter Schritt), sondern auf Volumes zu verteilen und Backups zu erstellen, wird jetzt in Kombination mit der neuerdings von der Mediathek völlig befreiten Speicheroption ein Schuh daraus. FCP X übernimmt die händische Vorsortierung in Finder-Ordnern. Weiß ich, dass das Material in anderen Programmen - oder, was das betrifft, auf einer anderen Plattform - weiter verarbeitet werden muss, habe ich eben in meiner Mediathek nur noch Verweise auf die Originale. Und kann trotzdem, für den reinen Schnitt, Clips weiterhin taggen, synchronisieren, compounden. Für Resolve und ProTools sind brauchbare Übergabeprotokolle vorhanden, der Rest entzieht sich meiner Kenntnis. Diese sind gewiss nicht vergleichbar mit Adobes Dynamic Links (iasi erwähnte Premiere und Speedgrade), aber wenn man auf der einen Seite positive Alleinstellungsmerkmale als proprietären Quatsch bezeichnet, muss dies auch umgekehrt gelten. Bridge nützt mir in Resolve nix mehr, und ehrlich gesagt, der nackte, seit Jahrzehnten bestehende Finder kann Footage mindestens so gut organisieren wie die ganze Prelude-Anwendung, wenn es um eine Sortierung "für Außenstehende" geht (bzw. könnte es, immer vorausgesetzt, das jeweilige Material kann von der Vorschau auch geöffnet werden).
Deswegen hatte ich ja das Aperture-Beispiel gebracht. Wer da viel Zeit und Aufwand investiert hat, um darin seine Photos zu organisieren und verschlagworten, hat diese Arbeit umsonst gemacht. (Spätestens wenn Aperture auf zukünftiger Hardware nicht mehr läuft oder sich auf einem neuen Mac nicht mehr aus dem App Store installieren lässt.)
Ich würde sowas mit proprietärer Software nur machen, wenn die sich (a) an offene Standards hält (wie z.B. EXIF oder normierte XML-Metadatenformate) oder (b) der Hersteller eine Roadmap und Mindestgarantie für die Nutzbarkeit der Software liefert. Völlig egal, ob der Hersteller Apple oder anders heisst. Von praktisch allen iLife-artigen Apple-Apps gibt es Klone. iTunes, iPhoto. Sie sind nicht schlechter als die Originale, haben aber einen Nachteil für Apple-Nutzer: Sie synchronisieren sich nicht untereinander. Der ganze Schicki-Micki-Kram ist nicht vernetzt, iPhones, iPods, iPads, MacBooks und iMacs. Jedem das Seine.

Das ist proprietär, ohne Frage. Ich selbst nutze es nur teilweise, finde es aber praktisch. Man kann Apple-Geräte, auch iPhones, mit kleinen Desktop-Apps im Festplattenmodus nutzen und Musik, Bilder, Kontakte und Videos von Hand irgendwo reinkopieren. Aber erstens schätze ich (noch nie ein Android benutzt), dass es vergleichbare Synchro-Tools überall gibt und zweitens ist das die Aufregung nicht wert.

Auch woanders erleben wir, dass Software nicht weiterentwickelt wird. Was für ein höhnisches TamTam, als DVD-Authoring von Apple eingestellt wurde! DSP lässt sich aber in mittlerweile drei neueren Betriebssystemen weiterhin nutzen, und dass CC kein Encore mehr enthält, wird von Adobe-Nutzern in deren Foren lapidar beantwortet mit: Benutz halt das aus CS6 weiter.

Aperture ist vielleicht noch am ehesten ein "iPhoto Pro", wobei ich mir einerseits nicht vorstellen kann, dass jemals ein Fotograf es als Alternative zu Photoshop gesehen hat und zweitens nicht, dass "Photos" die Aperture-Bibliotheken nicht übernimmt.

Space


Antwort von motiongroup:

http://alex4d.com/notes/item/fcpx-10-1- ... -workflows

Von Alex Golner übersichtlich zusammengestellt...

Space


Antwort von DV_Chris:

@motiongroup:

Media 100 ist nicht eingestellt. Media 100 gehört jetzt BorisFX. Was fast schon rührig ist, denn der Gründer von Boris hat als Media 100 Mitarbeiter begonnen.

http://www.borisfx.com/media100/

Space


Antwort von motiongroup:

http://en.m.wikipedia.org/wiki/EditDV

Media 100 editDV aka cinestream ist wirklich tot... Ich und Marco hatten es lange genug in Verwendung..

Ebenso wie speedrazor und Blade.. Ich hab noch beide Schachteln im Keller wie auch die Storm 2 , eine fastAVmaster ne pinnacle Dv500, ne matrox G Auswahl usw usw.. Tote Geleise.. Wie sagt man so schön Beerdigt..

Ach ja weil Begräbniszeit zu sein scheint...

http://futurezone.at/apps/google-stellt ... 72.657.356

Ich muss sofort mein asus phonepad der Verbrennung zuführen.....

Space


Antwort von thyl:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

. Das finde ich etwas übertrieben. Immerhin gibt es ihn mit 2 Tahiti XT und einer 12-Core CPU a 2.7 GHz. Damit reicht im CPU-Bereich die Rechenleistung bis zu etwa 45-50% von dem, was zB mit Dual-Prozessor-Systemen möglich wäre. Aber ob man 24 Kerne mit der meisten Software ausreizen könnte? Und so richtig gefunden habe ich auch gerade nix mit 24 Kernen, mh. Das gibt es bestimmt, aber schon komisch.

Space


Antwort von iasi:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

. Das finde ich etwas übertrieben. Immerhin gibt es ihn mit 2 Tahiti XT und einer 12-Core CPU a 2.7 GHz. Damit reicht im CPU-Bereich die Rechenleistung bis zu etwa 45-50% von dem, was zB mit Dual-Prozessor-Systemen möglich wäre. Aber ob man 24 Kerne mit der meisten Software ausreizen könnte? Und so richtig gefunden habe ich auch gerade nix mit 24 Kernen, mh. Das gibt es bestimmt, aber schon komisch. na ja ... es geht eben durchaus auch noch mehr
http://www.anandtech.com/show/7757/quad ... 20-threads

Space


Antwort von DV_Chris:

http://en.m.wikipedia.org/wiki/EditDV

Media 100 editDV aka cinestream ist wirklich tot... Ich und Marco hatten es lange genug in Verwendung.. Das sage ich gleich dem Boris ;-)

Ich denke, dass Features wie

•Support for dozens of video standards in SD, HD, 2K, and 4K resolutions at rates from 23.98 to 60 FPS.

•Work with native 2K and 4K REDCODE (R3D) media in real-time without transcoding. A smooth and simple workflow for shops that shoot in 4K and deliver in HD.

klar gegen den Tod einer Software sprechen. Media 100 und Avid haben sich lange den Markt unter sich aufgeteilt.

Space


Antwort von motiongroup:

Wird nichts daran ändern...cinestream aka editDv und die ganzen anderen anderen Tools wie rotoDV kamen von Radius/Digital Origin zu media 100 und wurden an Discreet weitergegeben um dann unter autodesk komplett eingestampft zu werden.. Von Radius gab's sogar ne eigene proprietäre FireWire Card die unter NT4.0 lief und zwar anders als die TI basierenden Karten wie die von bspw EXsys....

http://www.amazon.com/MEDIA-100-23130-C ... B00005A1P7

http://www.epi-centre.com/reports/9801cs.html

http://www.hidefproductions.net/VideoVision.html

Space



Space


Antwort von Frank Glencairn:

ich sage nur Tesla, ... Kann der jetzt auch ProRes XQ?

Space


Antwort von Jan Reiff:

Exakt

Space


Antwort von Frank Glencairn:


Genau. Weshalb nicht? Ich zitiere sinngemäß Michael Cioni: Klassische NLEs sind Timelines mit einer Pfadliste zu den Medien, FCP X ist ein zentraler Medienorganisator, der obendrauf noch eine Timeline hat.

Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch. Michael "Hoffsteadter" Cioni redet oft ne Menge Mist, wenn er damit seine Produkte pushen kann - was ich ihm nicht verüble, er muß halt seinen Laden umtreiben. Aber man darf deshalb nicht alles für Gottes Wort nehmen, was er sagt.

Nur dadurch das man ein paar Worte für einen griffigen Marketing Satz umstellt, wird der Blödsinn auch nicht zur Wahrheit.

FCPX organisiert gar nix, das muß man wie bei jedem anderen Programm schon selber machen. Wenn ich mich hinsetze und bei Premiere oder Resolve die zig Metadatenfelder ausfülle, dann kann ich meine Clips auch nach unzähligen Kriterien filtern und damit "organisieren lassen"

Ich weiß nicht, ob irgendjemand bei einer großen Produktion nochmal einen Praktikanten abstellt, der die Proxies in den bereits von Resolve erstellten Ordnern zusätzlich aufwändig sortiert, ich jedenfalls erspare mir das.. Ja, das nennt sich Schnittassistent und ist seit ungefähr 100 Jahren die Regel. Resolve erstellt selber gar keine Ordner (außer dem Masterordner) den Rest kannst du dir einrichten wie du lustig bist - Handbuchlesen hilft.


Was lese ich daher in diversen Foren? In Resolve werden keine Proxies geliefert, sondern weitgehend fertig gegradete ProResHQs oder ProRes4444s. Man gleicht den Rest in FCP X noch ein bisschen aneinander an. Wow, was für ein windschnittiger Workflow!

. Selten so einen Blödsinn gelesen - selbstverständlich liefert Resolve Proxies. Immer schon. Auch hier - Handbuch lesen.

Premiere macht es vor: Native Formatunterstützung ( Premiere hat nur eine sehr eingeschränkte unterstützung von DNG raw. RedRaw dagegen geht sehr gut.

Was heißt das? Ich kann nicht mit komprimierten DNGs einen Schnitt (ohne Titel, Effekte, etc) machen, dann ein XML nach Resolve schicken, komplett graden, in (ähm, ja, was nehme ich für Windows statt ProRes?) irgendwas Solides rendern, wieder XML zurückschicken und in Premiere onlinen? Selbstverständlich, das ist der ganz normale Workflow.

Space


Antwort von Frank Glencairn:


Ebenso wie speedrazor und Blade.. .... Ach ja Speedrazor - der hatte die FCPX Timeline schon vor 12 Jahren.

Space


Antwort von Axel:

FCPX organisiert gar nix, das muß man wie bei jedem anderen Programm schon selber machen. Wenn ich mich hinsetze und bei Premiere oder Resolve die zig Metadatenfelder ausfülle, dann kann ich meine Clips auch nach unzähligen Kriterien filtern und damit "organisieren lassen" Stimmt genauso wenig wie deine damalige Behauptung, FCP X habe Spuren. FCP X organisiert von dem Moment an, wo ich eine Festplatte/Karte anschließe. Es lässt mich festlegen, ob und wenn wohin ich alles kopiere, es legt im Hintergrund Ordner und Unterordner an (kann man sich später programmextern interessehalber mal angucken, eine so komplexe Medienverwaltung würde man mit Premiere nie machen). Nun ist unser Problem, dass du nicht fit in FCP X bist und ich nicht in Premiere. Sagen wir darum um des Friedens willen, Premiere hat nachgebessert und sein Taggingsystem modernisiert.
Ich weiß nicht, ob irgendjemand bei einer großen Produktion nochmal einen Praktikanten abstellt, der die Proxies in den bereits von Resolve erstellten Ordnern zusätzlich aufwändig sortiert, ich jedenfalls erspare mir das.. Ja, das nennt sich Schnittassistent und ist seit ungefähr 100 Jahren die Regel. Resolve erstellt selber gar keine Ordner (außer dem Masterordner) den Rest kannst du dir einrichten wie du lustig bist - Handbuchlesen hilft. Soll dieser Schwachsinn denn auch die nächsten 100 Jahre nötig sein? Bei Resolve meinte ich Zielordner für Delivery, z.B. "Proxies".

Das ist es ja. Bei jedem Bearbeitungsschritt en detail sagen die Nicht-FCP Xler, ooch, das ist aber eigentlich nicht so nötig, haben wir die letzten 100 Jahre auch nicht gebraucht.
Was lese ich daher in diversen Foren? In Resolve werden keine Proxies geliefert, sondern weitgehend fertig gegradete ProResHQs oder ProRes4444s. Man gleicht den Rest in FCP X noch ein bisschen aneinander an. Wow, was für ein windschnittiger Workflow! Selten so einen Blödsinn gelesen - selbstverständlich liefert Resolve Proxies. Immer schon. Auch hier - Handbuch lesen. Nein, Frank, genauer lesen. Ich kritisierte FCP X, das mit DNGs einen Proxy-Workflow mit Resolve eigentlich nötig macht, aber einige (langes Fädchen, faules Mädchen) dazu verführt, in Resolve lediglich Raw zu "entwickeln" - zu ProResHQ oder 4444.

Space


Antwort von Frank Glencairn:


Stimmt genauso wenig wie deine damalige Behauptung, FCP X habe Spuren. FCPX hat immer noch Spuren, nur hat Apple ihnen einen anderen Namen gegeben, aber das Wording ändert nix an den Tatsachen, auch wenn du dich auf den Kopf stellst.

Stimmt genauso wenig wie deine damalige Behauptung, FCP X habe Spuren. FCP X organisiert von dem Moment an, wo ich eine Festplatte/Karte anschließe. Es lässt mich festlegen, ob und wenn wohin ich alles kopiere, es legt im Hintergrund Ordner und Unterordner an (kann man sich später programmextern interessehalber mal angucken, eine so komplexe Medienverwaltung würde man mit Premiere nie machen). Genau wie Premiere.
Wie komplex du deine Medianverwaltung ist und wie du deine Unterordner anlegst, ist dein Privatvergnügen.
Weil ich mit anderen (VFX usw) zusammenarbeiten muß, bestimme ich lieber selbe was genau in welchem Ordner liegt (ich hab verschiedene Templates dafür), das ist aber nicht für jeden nötig.
Premiere hat nachgebessert und sein Taggingsystem modernisiert. Premiere hat seit zig Versionen gefühlte 500 Tagging Felder - die meisten wissen das bloß nicht weil sie es nicht brauchen, keinen Bock haben das Zeug auszufüllen oder einfach das Handbuch nicht lesen.

Space


Antwort von Jott:

Déjà-vu.

fcp x: für Neueinsteiger easy, intuitiv und rasend schnell, für alte Sä.. -äh, Hasen unzugänglicher Unfug, der völlig überflüssig mit Cutter-Traditionen bricht.

So wie sich der eine in verquasten Diskussionen um Bittiefen und Banding verliert, legt der andere mit zwei verlachten C300 (interne 8-Bit-MPEG 2-Aufzeichnung, nix externes Geraffel!) einen schön gegradeten (geht doch gar nicht!) Spielfilm hin, der eine goldene Palme und viel sonstigen Glitzerkram absahnt.

Jeder findet sein Glück.

Space


Antwort von Axel:

... legt der andere mit zwei verlachten C300 (interne 8-Bit-MPEG 2-Aufzeichnung, nix externes Geraffel!) einen schön gegradeten (geht doch gar nicht!) Spielfilm hin, der eine goldene Palme und viel sonstigen Glitzerkram absahnt. Interessant. Wer wo was?

Space


Antwort von cantsin:

Interessant. Wer wo was? La vie d'Adèle/Blue Is the Warmest Color

Space


Antwort von Jott:

Yep:
http://www.fdtimes.com/2013/05/28/canon ... in-cannes/

Zeigt, wie sinnlos es ist, sich über Werkzeuge zu streiten. Oder zu meinen, ohne "den Dragon" könne man sein Kurzfilmchen nicht gebacken kriegen und mit so was wie ProRes im Weg (igitt, Apple!) schon gar nicht.

Space


Antwort von Frank Glencairn:

Déjà-vu.

fcp x: für Neueinsteiger easy, intuitiv und rasend schnell, für alte Sä.. -äh, Hasen unzugänglicher Unfug, der völlig überflüssig mit Cutter-Traditionen bricht.

. Diese "Neueinsteiger" sind halt meistens One-Man-Shows, die vom DSLR filmen kommen und noch nie mit einem großen Team in Arbeitsteilung gearbeitet haben.

Mit welcher "Cutter Traditionen" FCPX angeblich brechen soll kann ich nicht sehen.
Cutten findet nach wie vor im Kopf des Cutters statt, das Werkzeug ist dabei völlig zweitrangig. Solange es einen Clip auseinander schneiden kann und an einer anderen Stelle wieder zusammenkleben, kann man jeden Blockbuster damit herstellen. Alles andere ist Marketing.

So wie sich der eine in verquasten Diskussionen um Bittiefen und Banding verliert, legt der andere mit zwei verlachten C300 (interne 8-Bit-MPEG 2-Aufzeichnung, nix externes Geraffel!) einen schön gegradeten (geht doch gar nicht!) Spielfilm hin, der eine goldene Palme und viel sonstigen Glitzerkram absahnt.

. Sag ich doch schon die ganze Zeit, so ziemlich alle aktuellen Kameras sind gut genug für alles - Story und das persönliches Können ist alles was zählt.

Ich hab gerade auf meiner FS100 in der Ägyptischen Wüste gedreht - ist halt ein anderes arbeiten als mit raw, sieht aber trotzdem klasse aus, wenn man weiß weiß man tut.

Space


Antwort von Jott:

Tageslaune?
Irgendwas in einem Long GOP codec aufzunehmen ist in meinen Augen sowieso bizarr.
Ansonsten:
Diese "Neueinsteiger" sind halt meistens One-Man-Shows, die vom DSLR filmen kommen und noch nie mit einem großen Team in Arbeitsteilung gearbeitet haben. Ja eben! Die sind unbelastet und werden massiv davon profitieren, nicht die eingefahrenen Abläufe der "Alten" aufgezwungen zu kommen. Auch du warst mal Neueinsteiger, oder? Als ich angefangen hatte, war ein "AVID" so was wie vielleicht heute fcp x. Mann, was hatten sie alle gelacht, als der doofe Jott sich in 1991 einen hingestellt hatte! Jahrelang! Und sie hatten nichts kapiert. Das soll schneller gehen als mit MAZen? Mit einer Maus statt BVE 900? Prust!

Lass sie nur machen, die DSLR-Neueinsteiger. Da gibt's verdammt gute drunter. Selbst Daimler beschäftigt welche für seine Kommunikation. Zum Beispiel. Und die Resultate knallen.

Space


Antwort von Frank Glencairn:

Nicht mit einem Samurai hinten dran ;-)

Auch wenn nur 8 bit aus der FS100 kommen.

Space


Antwort von Jott:

Vor drei Jahren hatte dir noch der Long Gop-Bordcodec der FS100 gefallen, da war's noch nicht bizarr. Aber man wächst mit seinen Aufgaben.

http://frankglencairn.wordpress.com/201 ... hing-else/


Und ja: Können und Story schlagen Technikergeschwafel immer in die Flucht.

Space


Antwort von Frank Glencairn:

da hatte ich auch noch kein raw-Blut geleckt

Space


Antwort von Axel:

Blue hab ich im Kino verpasst, sieht gut aus.
Sag ich doch schon die ganze Zeit, so ziemlich alle aktuellen Kameras sind gut genug für alles - Story und das persönliches Können ist alles was zählt. Amen. Ich stimme dir aus vollem Herzen zu. In einem Thread, in dem es um heikle technische Finessen und minimale Qualitätsunterschiede diverser Kameras ginge, wäre dieser Spruch aber nervig und völlig off topic.
Cutten findet nach wie vor im Kopf des Cutters statt, das Werkzeug ist dabei völlig zweitrangig. Solange es einen Clip auseinander schneiden kann und an einer anderen Stelle wieder zusammenkleben, kann man jeden Blockbuster damit herstellen. Alles andere ist Marketing.

Und in einem Thread, in dem es um minimale Änderungen einer (je nach Auffassung) randständigen Schnittsoftware geht und der von null Allgemeininteresse ist, mit diesem göttlichen wahren Spruch zu kommen ...

Typisch, wenn denen, deren Angriffsargumente soeben sämtlich widerlegt wurden, nun keine mehr einfallen. Das Totschlagargument. FCP X ist nicht so schlecht? Okay, aber was soll's, man kann doch mit allem schneiden. Sammle was rar ist, nimm was da ist, sag was wahr ist!

Übrigens, ich habe eine der Stellen gefunden, in der der oben von mir erwähnte Workflow steht, in Resolve überhaupt nicht zu graden, sondern bloß die DNGs zu entwickeln und in FCP X zu schneiden und zu graden, hier.

Hier der Workflow:
POST PRODUCTION

Editing is where run-and-gun raw really gets difficult. Raw files are huge, requiring huge hard drives to store the files and fast CPU’s to decode them. Plus, Magic Lantern Raw requires several steps of transcoding to be editable: first from Raw to CinemaDNG, then to ProRes or similar for actual editing. Many people will then round-trip their files back to CinemaDNG for final color grading.

Note: Adobe Premiere has support for natively editing CinemaDNG files, but I have heard it is plagued with bugs.

My workflow is as simple as possible: transcode to ProRes HQ via DaVinci Resolve, then edit and color grade in FCP X. No After Effects, no ACR, no round-tripping back to Resolve. With real-time shape and color masking, FCP X can be quite robust for color grading.
Wie der Name der Seite sagt, ein Run-Gun-Shooter, eine One-Man-Show, keine Zeit, in dem (was die Werkzeuge betrifft) eigentlich viel besseren Resolve zu graden, und trotzdem vorzeigbare Ergebnisse:


Ein Neueinsteiger ist es auch nicht, er lebt seit sechs Jahren von der Videografie ("About").

Avid ist anscheinend mehr etwas für die großen Firmen, bei denen bis in die Puppen Praktikanten Material organisieren und (etwa im Studio London) eine Sparbüchse in der Kantine steht, in die jedesmal ein Penny kommt, wenn jemand FCP X sagt oder einen Schluckauf hat.*¹

Adobe, der hundertfach runderneuerte Leasing-Allwetterreifen, kommt wahrscheinlich all denen intuitiv und effektiv bedienbar vor, die ihre Socken zu bügeln pflegen.*²

*¹*² Ist nur Spaß. Was sich liebt, das neckt sich ...

Space


Antwort von Frank Glencairn:


Typisch, wenn denen, deren Angriffsargumente soeben sämtlich widerlegt wurden, nun keine mehr einfallen. Das Totschlagargument. FCP X ist nicht so schlecht? Okay, aber was soll's, man kann doch mit allem schneiden. Sam Ich hab doch nicht mit "dem brechen von Cutter Traditionen" angefangen und die Antwort auf, was denn da brechen soll hab ich auch noch nicht bekommen.


Magic Lantern Raw requires several steps of transcoding to be editable: first from Raw to CinemaDNG, then to ProRes or similar for actual editing....

My workflow is as simple as possible: transcode to ProRes HQ via DaVinci Resolve, then edit and color grade in FCP X. Spätestens da hat er sich komplett disqualifiziert.

Der hat nur ein 15" Laptop ohne kalibrierten externen Monitor, mit dem er "on the run" im Starbucks arbeiten muß - natürlich - der kann mit sowas gar nicht in Resolve graden, selbst wenn er wollte.
smaller. better. cheaper. faster. was soll man da noch sagen?

Sorry, aber eindeutig Prädikat "Nicht Satisfaktionsfähig

Space


Antwort von Axel:

My workflow is as simple as possible: transcode to ProRes HQ via DaVinci Resolve, then edit and color grade in FCP X. Spätestens da hat er sich komplett disqualifiziert.
smaller. better. cheaper. faster. was soll man da noch sagen?

Sorry, aber eindeutig Prädikat "Nicht Satisfaktionsfähig Er hat 8-bit als Zielformat. Er hat ML Raw als Ausgangsformat.

Hmmm ...

Ich kann erst seit knapp einem Monat Raw in Resolve bearbeiten (größere GraKa).

Jetzt lehne ich mich aus dem Fenster, weiß ich, aber ich persönlich glaube, dass es ein Mythos ist, dass Raw > 8bit und Raw > ProRes 10bit > 8bit einen signifikanten Unterschied bedeuten (ich erwartete, dass der Unterschied von Pocket-ProRes zu Raw größer wäre, in Bezug sowohl auf Bearbeitungsoptionen als auch sichtbare Qualität. Mit ACR bearbeite ich seit Jahren Fotos in Raw). Für einen nicht satisfaktionsfähigen Stümper? Ganz genau. Wie auch für den erfahrensten Coloristen.

Warum er nicht den Roundtrip macht? Vielleicht hat er gemerkt, dass die Qualitätsvorteile zu vernachlässigen sind, bzw. nicht erkennbar?

Weil er ein solcher Resolve-Stümper ist?

Das kann sein (der Clip sieht zwar m.E. sehr gut aus, wir wissen aber nicht, was genau davon Raw war und was RX100 bzw. GoPro). Nun haben wir das nächste Problem: Da ich selbst eingestandenermaßen kein Resolve-Experte bin, kann ich meine Behauptung (ohnehin bewusst provokativ) nicht beweisen, sondern muss die Experten bitten, sie zu widerlegen.

Space


Antwort von Frank Glencairn:

Ich hab nicht gesagt daß er ein Resolve Stümper ist, aber mit der Hardware geht's halt nicht.

Und ja, selbstverständlich machst du deine Farbkorrektur im original raw Material, weil raw zu drehen sonst keinen Sinn macht, wenn du - aus reiner Bequemlichkeit (oder weil sein "schnell-billig-klein Dogma das nicht zulässt) das Potential von raw nicht ausschöpfen willst, und am ende doch wieder mit hoch komprimierten lowbit Material arbeitest.

Und wie soll er den auf seinem billigen 8bit Laptop Monitor irgendwelche "signifikanten Unterschiede" erkennen? Das Teil kann die Unterschiede halt einfach nicht mehr darstellen.

Space


Antwort von WoWu:

first from Raw to CinemaDNG, then to ProRes or similar for actual editing. Many people will then round-trip their files back to CinemaDNG for final color grading. Wahrscheinlich hat der Autor noch gar nicht mitbekommen, dass CineDNG lediglich ein Container aber kein Codec ist und dass man in CineDNG auch die original RAW Daten ablegen kann, um daraus hinterher das Original zu rendern. Natürlich kann man auch mit dem Proxy hinterher ein original machen, nur dass das ein komisches Verständnis ist, wenn ich es auch aus Originalmaterial fertigen kann. My workflow is as simple as possible: transcode to ProRes HQ via DaVinci Resolve, then edit and color grade in FCP X. No After Effects, no ACR, no round-tripping back to Resolve. With real-time shape and color masking, FCP X can be quite robust for color grading. Tja und irgendwann, spätestens beim Kunden wird der Roundtrip dann durchgeführt denn ich kenne keine Set Top Box, die ProRes dekodieren kann.

Also doch Round Trip.
Der Autor hat nur zu früh aufgehört zu denken.

Space


Antwort von Axel:

Und wie soll er den auf seinem billigen 8bit Laptop Monitor irgendwelche "signifikanten Unterschiede" erkennen? Das Teil kann die Unterschiede halt einfach nicht mehr darstellen. Ein guter Einwand, der zu dem passt, was ich vor Jahr und Tag über das Consumerzeugs (8-bit, von mir), das ich selbst als digitaler Filmvorführer auf großer Leinwand im Vergleich sah und von dem ich nicht in der Auflösung, sondern in der Farbdarstellung enttäuscht war.

Wer allerdings weder für TV noch für Kino dreht, wird zu guter Letzt in 8-bit bleiben.

Wäre also z.B. für mich ein 10-bit-Monitoring nicht akademisch?

Und wenn nicht, was wäre die günstigste vertretbare Lösung für Resolve? Eine Decklink Mini Monitor-Karte und ein 10-bit-fähiger Monitor über HDMI? Reichte das?
first from Raw to CinemaDNG, then to ProRes or similar for actual editing. Many people will then round-trip their files back to CinemaDNG for final color grading. Wahrscheinlich hat der Autor noch gar nicht mitbekommen, dass CineDNG lediglich ein Container aber kein Codec ist und dass man in CineDNG auch die original RAW Daten ablegen kann, um daraus hinterher das Original zu rendern. Natürlich kann man auch mit dem Proxy hinterher ein original machen, nur dass das ein komisches Verständnis ist, wenn ich es auch aus Originalmaterial fertigen kann. My workflow is as simple as possible: transcode to ProRes HQ via DaVinci Resolve, then edit and color grade in FCP X. No After Effects, no ACR, no round-tripping back to Resolve. With real-time shape and color masking, FCP X can be quite robust for color grading. Tja und irgendwann, spätestens beim Kunden wird der Roundtrip dann durchgeführt denn ich kenne keine Set Top Box, die ProRes dekodieren kann.

Also doch Round Trip.
Der Autor hat nur zu früh aufgehört zu denken. Es ist ein überall empfohlener Workflow, mit Resolve einen mehrfachen Roundtrip (wobei du sonst mit Roundtrip 8bit>10bit>8bit zu meinen scheinst) zu machen. Nehmen wir 14-bit ML Raw mal als Beispiel.

1. Das Material wird in Resolve importiert und dort mit einem LUT normalisiert und evtl. leicht angegradet.

2. Es wird clipweise als Proxy für den Schnitt in einem NLE exportiert, für Premiere nimmt man vielleicht, was weiß ich, H.264 in selber Bildgröße und Bildrate, in FCP X etwa ProResLT. Falls das NLE in der Lage wäre, das Raw zu verwenden, könnte man sich den ersten Arbeitsschritt und die Proxy-Wandlung sparen ...

3. Es findet im NLE ein Schnitt ohne Effekte und anderes Gedöns statt, mit den Proxies. Davon wird ein XML exportiert.

4. Das wird in Resolve importiert, und jetzt tauscht man die Proxies mit dem Raw (nur ein Häkchen beim "Conformen"). Man gradet und rendert dann in einen NLE-freundlichen, aber nun hochwertigen Codec. Wieder wird ein XML gesichert.

5. Das Onlinen erfolgt natürlich in diesem Codec, Titel und Effekte kommen noch dazu. Auf Mac wäre dieser Codec üblicherweise ProRes. Nach deiner Auffassung ist die Wandlung von ProRes 10-bit des Masters in einen 8-bit Upload-Codec problematisch, aber ein eigentliches Hin&Her gibt es ja gar nicht. Die Farbtiefe wird immer weiter reduziert.

Space


Antwort von iasi:

die Alternative könnte eben auch so aussehen:
1. RedRaw direkt rein in Premiere
2. kompletter Schnitt
3. Grading in Speedgrade
4. und raus damit

1b. wär noch von Premiere aus zu RedcineX und dort Einstellungen vornehmen, die man in Premiere übernimmt.

Da muss nichts gewandelt werden - und irgendwelche XML-Import-Export-Spielchen sind auch nicht nötig.

alle Programme verstehen sich blendend und harmonieren:
- Speedgrade öffnet die Premiere-Timeline
- Premiere übernimmt Speedgrade-looks
- Premiere übernimmt die RedcineX-Einstellungen

Und alles läuft flüssig.

Schade, dass Resolve nicht genauso eingebettet ist, wie Speedgrade oder zumindest RedcineX - denn dann wäre es für mich perfekt.

Space


Antwort von WoWu:

@Axel

Ich bin völlig bei Dir und ein anderer Thread hat es auch wieder gezeigt, dass die unterschiedlichen Systeme, auch (und speziell) wenn man VFX mit einbezieht.
Torsten (otaku) hat das an seinem Workflow einmal sehr deutlich beschrieben.
Wir können also noch lange hin und her diskutieren, es wird, solange es (auch speziell) für RAW keinen Standard oder zumindest einen standardisierten Rahmen gibt, ohne solche qualitativen Zwischenschritte (Verluste) nicht gehen.

Nun gibt es ja mittlerweile neue Versuche, sowas auf die Beine zu stellen, und die, die daran teilnehmen sind mal wieder die üblichen Verdächtigen, auch BMD, aber natürlich leider mal wieder viel zu wenige, als dass es schon jetzt nach einem Erfolg aussieht, weil die "Nabelspieler" die nur ihren eigenen Markt und Profit sehen, mal wieder nicht dabei sind.
Bleibt also zu hoffen, dass Hollywood diesmal mächtig genug ist, es zu richten.

Solange aber werden wir und mit individualisierten Wotkflows rumschlagen müssen und jeder auf seine Hard-und Software angepasste Lösungen zu finden haben.
Insofern gibt es den "Königsweg" auch nicht.
Wir haben damals, nach langen Überlegungen uns auch für eine Lösung entschieden, auch der Hardware angepasst, die so lange wie möglich nur die Metadaten kumuliert hat und das das Rohmaterial bis an den Punkt der Ausbelichtung durchgezogen hat. Allerdings geht das schon nicht mehr, wenn Du VFX dazwischen hast. Auch da besteht also noch Bedarf.
Insofern kann man hier alle möglichen Wege propagieren, ohne dass auch nur einer davon der Königsweg wäre.
Ich halte nur immer einen -nennen wir es mal- "präzisen" Umgang mit dem Material für eine der Voraussetzungen, ohne böse Überraschungen hinterher da zu stehen und vermeide unter alles Umständen die Fallen, die und Softwarehersteller heute vor die Füsse legen.
Manche gehen damit ja ziemlich locker um und es interessiert sie herzlich wenig, was die Software mit ihren Bildern eigentlich macht ... hauptsache hinten kommt ein Bild raus und wenn das auch ihren NLE Monitoren noch passabel aussieht, umso besser.
Mich interessiert mehr, wie das Bild beim Kunden aussieht.

Space


Antwort von iasi:

@Axel

Ich bin völlig bei Dir und ein anderer Thread hat es auch wieder gezeigt, dass die unterschiedlichen Systeme, auch (und speziell) wenn man VFX mit einbezieht.
Torsten (otaku) hat das an seinem Workflow einmal sehr deutlich beschrieben.
Wir können also noch lange hin und her diskutieren, es wird, solange es (auch speziell) für RAW keinen Standard oder zumindest einen standardisierten Rahmen gibt, ohne solche qualitativen Zwischenschritte (Verluste) nicht gehen.
also Adobe ist da schon ziemlich nah dran.

"qualitative Zwischenschritte" gibt es da nicht mehr - zumindest für einige Raw-Formate

After Effekts ist ebenso mit Premiere verknüpft wie Speedgrade.
Premiere-Projekte lassen sich direkt öffnen, bearbeiten und wieder zurück an Premiere geben.
Welche "qualitativen Zwischenschritte" siehst du da also noch?

Bedauerlich ist aber wirklich, dass kein genereller Standard in Sicht ist - wie sollte der auch aussehen?
Die Programme sind derart komplex, dass sie mittlerweile in keinen standardisierten Rahmen mehr passen.

Space


Antwort von WoWu:

also Adobe ist da schon ziemlich nah dran. Wenn ich an ihre RAW Entwickler denke, sind sie aber meilenweit von Qualität entfernt.

Space


Antwort von Axel:

Dazwischengefragt: Wenn man in Premiere Raw nativ schneidet (evtl. bei nicht direkter Unterstützung auch mit einem Plugin, hieß das für ML Raw nicht Ginger?) und danach nach Resolve schickt, kann man dasselbe auch nach dem Grading wieder zurückschicken? Also ehrlich gesagt würde mir dieser Workflow nicht mehr als sehr problematisch vorkommen. Nur für's Grading kein Dynamic Link, na davon geht die Welt nicht unter.

Space


Antwort von iasi:

also Adobe ist da schon ziemlich nah dran. Wenn ich an ihre RAW Entwickler denke, sind sie aber meilenweit von Qualität entfernt. ihre RAW Entwickler?
Welche?

Space


Antwort von Frank Glencairn:

Du renderst das ganze nach der CC aus Resolve raus (als eizelnes File oder einzelne Clips - ganz wie's beliebt) und holst es dir danach wieder in deine NLE.

Space


Antwort von iasi:

Dazwischengefragt: Wenn man in Premiere Raw nativ schneidet (evtl. bei nicht direkter Unterstützung auch mit einem Plugin, hieß das für ML Raw nicht Ginger?) und danach nach Resolve schickt, kann man dasselbe auch nach dem Grading wieder zurückschicken? Also ehrlich gesagt würde mir dieser Workflow nicht mehr als sehr problematisch vorkommen. Nur für's Grading kein Dynamic Link, na davon geht die Welt nicht unter. Du kommst von Resolve nicht mehr ohne Rendern zurück nach Premiere.
Du must aber zuerst mal zurück nach Pemiere, da du die Feinarbeiten in Premiere erst nach dm Grading in Resolve vornehmen kannst.
Und somit renderst du gerendertes Material.

Dieses "Zwischenrendern" fällt mit dem Zusammenspeil von Premier und Speedgrade weg.
Nur ist Speedgrade eben leider nicht auf der Höhe mit Resolve - aus meiner Sicht.

Das "Zwischenrendern" kostet eben leider auch Zeit und Speicherplatz.

Leider wird sich Adobe bzgl. einer Zusammenarbeit mit BMD eher zugeknöpft geben und kaum etwas dafür tun, dass Resolve ähnlich wie Speedgrade Premiere-Projekte direkt und vor allem vollständig öffnen kann.

Space


Antwort von Axel:

Du renderst das ganze nach der CC aus Resolve raus (als eizelnes File oder einzelne Clips - ganz wie's beliebt) und holst es dir danach wieder in deine NLE. Ach so, na klar, weil Premiere die CC von Resolve nicht nachvollziehen kann. Okay, aber dann ist der Proxy-Workflow auch nicht so viel schlimmer, zu dem ich in FCP X gezwungen bin.

Wäre schön, wenn es eine große Cloud gäbe, in der sich alle intelligente Software trifft und ihre Schnittstellen streichelt. Ne, zu abgedreht.

Space


Antwort von WoWu:

ihre RAW Entwickler?
Welche?
Lightroom z.B.Wäre schön, wenn es eine große Cloud gäbe, in der sich alle intelligente Software trifft und ihre Schnittstellen streichelt. Ne, zu abgedreht. Dann würden einige Firmen aber ganz schön blass aussehen, weil sie davon leben, dass sie nicht kompatibel sind.

Space


Antwort von Frank Glencairn:

Mein workflow sah bisher so aus:

Alles rein in Reslove - 709LUT über die gesamte Timeline und als DNX-Proxies rausrendern.

In Premiere schneiden - XML raus

XML in Resolve laden und Timeline graden - als TIFF/DPX Sequenzen in bester Qualität ausgeben.

Zurück nach Premiere, alles wieder per XML in die Timeline laden, Titel, Blenden, Firlefanz drauf.

Premiere Projekt in AE aufmachen und als TIFF/DPX Sequenz rausrechnen.

So weit, so gut.

Trotzdem werde ich demnächst mal ein längeres Projekt (90min) komplett in Resolve zu machen. Die Editing Tools sind mittlerweile besser als in Premiere, und die Medienorganisation ist in etwa gleich.

Ich würde dabei allerdings nur einmal Proxies und einmal TIFF rechnen sparen, dafür aber mit dem fehlen von Dynamic Link zu AE und Audition bezahlen.

Space


Antwort von iasi:

ihre RAW Entwickler?
Welche?
Lightroom z.B. ich dachte wir reden hier über Film und nicht Foto

also der RAW Entwickler für RedRaw kommt von Papa

Space


Antwort von iasi:

Bei Red läuft eine Diskussion über Codecs und Datenmengen

http://www.reduser.net/forum/showthread ... -vs-4K-R3D

"10 bit 4:2:2 and 12 bit 4:4:4 HEVC for TV work" wird hier auch gewünscht - und Red sei dran, meint Jarred Land.

Wenn die Datenmenge eine größere Rolle spielt, wäre ein HEVC sicher sinnvoller als ProRes. Andernfalls scheint mir Raw die beste Wahl.
ProRes bewegt sich irgendwie dazwischen.

Space


Antwort von motiongroup:

Hier wird in ersten Ansätzen erklärt was sich generell beim mediamanagement
Geändert hat..
http://www.fcp.co/final-cut-pro/tutoria ... o-x-10-1-2

Space


Antwort von Frank Glencairn:

Hier wird in ersten Ansätzen erklärt was sich generell beim mediamanagement
Geändert hat..
http://www.fcp.co/final-cut-pro/tutoria ... o-x-10-1-2 Cool, jetzt haben sie es endlich so gemacht wie es bei Premiere schon seit zig Versionen ist. Anscheinend hat Apple endlich eingesehen, daß das bisherige (angeblich so überlegene) System nicht so das Gelbe vom Ei war.

Space


Antwort von motiongroup:

Ja ist da wirklich ein Licht am Ende des Tunnels...*gggg mir ist's Wurst und dir muss es Wurst sein zumal du weder mit fcpx arbeitest und Premiere bei dir auf's. Abstellgeleise fährt da du jetzt so oder so alles mit Ressolve umsetzt, was seit der 11 nun dies DIE ultimative Waffe für alles ist....aallles klar..

Space


Antwort von motiongroup:

Teil zwei der Übersicht

http://www.fcp.co/final-cut-pro/tutoria ... o-x-10-1-2

noch ein bisschen mehr davon von alex4d

http://alex4d.com/notes/item/fcpx-10-1- ... -workflows

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


ARRI ALEXA Update 9.0 mit ProRes 4444 120 fps und Open Gate
Arri Alexa: ProRes Optionen und Broadcast
Final Cut Pro für iPad und Final Cut Pro Update 10.6.6 ab sofort verfügbar
Prores 4444 Player
Apple: Final Cut Pro 10.6 und Logic Pro 10.7 mit neuen Funktionen und M1 Pro, M1 Max Update
Apple: Kommt Final Cut Pro nächstes Jahr aufs neue iPad Pro/Ultra?
Apple Final Cut Pro und Logic Pro kommen noch im Mai aufs iPad - in neuer Version
Apple Final Cut Pro 10.5 Update: ohne X dafür mit M1 Support
Apple Macbook Pro, Final Cut oder Resolve
Apple: Update für Final Cut Pro und iMovie bringt verbessertes Sharing zu YouTube und Facebook
Colourlab Ai 2.0: KI Farbkorrektur jetzt auch für Adobe Premiere und Apple Final Cut Pro
Apple Final Cut Pro Update bringt Duplikat-Erkennung und Voice Isolation per KI
Apple stellt Updates für mehr Performance für Final Cut Pro, Compressor, iMovie u.a. vor
Apple stellt neue Final Cut Pro Versionen für iPad und Mac vor
Apple veröffentlicht Final Cut Pro 10.8 Werbeclip
ARRI ALEXA 35 in der Praxis: 17 Stops Dynamikumfang, Reveal Colorscience, ARRI RAW, 120 fps uvm.
SUP 1.3.0 für die ARRI ALEXA 35 bringt u.a. ProRes 3.8K 16:9
Canon R5 - 8K Workflow mit Final Cut Pro
Final Cut Pro: 2 Kameras mit unterschiedlichen Einstellungen aneinander anpassen
xml mit Multicam von DaVinci Resolve exportieren nach Final Cut pro




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash