Logo Logo
/// 

Apple Final Cut Pro X 10.1.2 zusammen mit ARRI ALEXA ProRes 4444 XQ Recordi



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Apple Final Cut Pro X 10


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Apple Final Cut Pro X 10.1.2 zusammen mit ARRI ALEXA ProResProRes im Glossar erklärt 4444 XQ Recording vorgestellt




Antwort von DV_Chris:

Apropos: so nebenbei hat Apple ApertureAperture im Glossar erklärt abgekündigt.



Antwort von rob:

Hallo DV_Chris,

... sind wir gerade am Nachtragen in der News :-)

Viele Grüße

Rob





Antwort von Jott:

Und den Nachfolger schon angekündigt.



Antwort von Valentino:

Wenn das immer noch ein DCTDCT im Glossar erklärt basierter CodecCodec im Glossar erklärt ist, dann ist das im Jahr 2014 ein echtes Armutszeugnis.

Klar 12bit sind schon eine Hausnummer, aber bei der DatenrateDatenrate im Glossar erklärt kann man auch gleich zu Arri RAW greifen und 12bit hat das "alte" ProResProRes im Glossar erklärt 4444 auch schon.

Dazu ist dieser XQ CodecCodec im Glossar erklärt nur mit den neuen Alexa XTs möglich und die können auch Arri RAW direkt aufzeichnen.
Auf eine Alexa XT kommen knapp vier bis sechs ältere Alexas, die die DatenrateDatenrate im Glossar erklärt von XQ CodecCodec im Glossar erklärt nicht wegschreiben können.
Sind die Lizenz und Entwicklungskosten eines HEVC Intra CodecCodec im Glossar erklärt wirklich so hoch, das es sich nicht lohnt so einen in die Alexa zu integrieren.

Dann braucht es noch knapp ein halbes bis ganzes Jahr, bis dieser CodecCodec im Glossar erklärt auch von den Colorgrading Systemen unterstützt wird.

Außer einen Kurzfilm oder Werbeclip wird auch keiner an einem FCP-X einen 90minüter nativ schneiden wollen, das ist schon bei ProRes4444 das Datengrab schlecht hin.



Antwort von iasi:

ja - da kam mir auch in den Sinn:
Weshalb nicht gleich Raw?
Welchen Grund könnte es geben, ProResProRes im Glossar erklärt 4444 XQ zu nutzen?



Antwort von Jan Reiff:

... zumindest merke ich keinen Unterschied im Schnitt von FCPX, ob es Red Raw ist oder Prores Alexa ... das Red Raw schneidet sich mittlerweile locker flüssig, vor 3 Jahren gab"s vielleicht noch Argumente gegen diesen Workflow, aber die Zeit bleibt eben nicht stehen.



Antwort von Valentino:

Wie FCP-X das RedRAW intern skaliert bzw. interpretiert(8bit oder 10bit) ist dabei noch nicht ganz klar.

ARRI Raw hat halt eine sehr hohe DatenrateDatenrate im Glossar erklärt und die ist auch mit einem neuen MacPro ohne schnellem Raid nicht zu bewältigen.



Antwort von Jott:

Dass Arri ihre Kundschaft/ihre Nutzer und deren Wünsche gut kennt, kommt euch nicht in den Sinn? Die wissen, was sie tun, so wie die Konkurrenz auch. Muss ja keine Schnittmenge bilden.



Antwort von Jott:


Welchen Grund könnte es geben, ProResProRes im Glossar erklärt 4444 XQ zu nutzen?

Steht im White Paper. Und wenn der CodecCodec im Glossar erklärt von Arri gleich angeboten wird, dann wohl weil es einen Bedarf dafür gibt. Oder meint ihr wirklich, die machen das nur zum Spaß?



Antwort von Jan Reiff:

Wie FCP-X das RedRAW intern skaliert bzw. interpretiert(8bit oder 10bit) ist dabei noch nicht ganz klar.

ARRI Raw hat halt eine sehr hohe DatenrateDatenrate im Glossar erklärt und die ist auch mit einem neuen MacPro ohne schnellem Raid nicht zu bewältigen.

was ja auch egal ist was FCPX macht, solange ich flüssig schneide kann der Rechner parallel Signale ins All senden, is mir alles wurscht ...



Antwort von otaku:

ich habe das gefuehl das ist sowohl auf arri als auch auf apple seite nochmal ein versuch technische innovation vorzugaukeln die nicht wirklich da ist.

prores war ein grosses argument fuer die alexa als man red zeugs noch mit red rocket stunden lang umwandeln musste, die zeit ist vorbei, jetzt wo jeder medium pc das in realtime verarbeitet muss da von arri langsam etwas mehr kommen.

arri kennt ihre kunden die wissen was sie tuen, naja, halte ich fuer ein komisches argument. das hat man vor einigen jahren auch von quantel gesagt, und wo sind die jetzt...?

der trend geht zu hohen aufloesungen und guenstigeren kameras. red ist high end vom preis als auch von der qualitaet. arri hat inzwischen den doppelten preis bei halber aufloesung, das scheint mir bei aller liebe zu arri nicht so richtig weitsichtig zu sein.



Antwort von merlinmage:

Weil ja keine Alexa mit 4k angekündigt wurde und keiner mehr mit der Alexa dreht, weil zu teuer. Oh, warte.



Antwort von Jott:

"das hat man vor einigen jahren auch von quantel gesagt, und wo sind die jetzt...?"

Bei ProResProRes im Glossar erklärt (Pablo). Lustig, nicht?



Antwort von Jan Reiff:

ich sage nur Tesla, ...



Antwort von iasi:


Welchen Grund könnte es geben, ProResProRes im Glossar erklärt 4444 XQ zu nutzen?

Steht im White Paper. Und wenn der CodecCodec im Glossar erklärt von Arri gleich angeboten wird, dann wohl weil es einen Bedarf dafür gibt. Oder meint ihr wirklich, die machen das nur zum Spaß?

Was steht da drin?

Jedenfalls kann ich nicht ganz verstehen, warum jemand diesen Mittelweg gehen will ...das wirkt für mich wie: nicht Fisch, nicht Fleisch

500 Mb/s für HD ist üppig ... sehr üppig ...

Es könnte natürlich auch sein, dass dies ein Vorgriff auf die 4k-Arri-Kamera ist.
Vielleicht will Arri ja diesen Weg gehen und dadurch komprimiertes Raw umschiffen.



Antwort von Valentino:

Das Whitepaper ist für die Katz. Die haben das letzte Whitepaper von 2009 einfach um den neuen XQ CodecCodec im Glossar erklärt erweitert, viel Neues steht da aber nicht drin.

ProRes ist immer noch eine DCTDCT im Glossar erklärt basierender CodecCodec im Glossar erklärt wie DV und MotionJpeg und gehört technisch gesehen in die Nuller, wenn nicht sogar in die 90er Jahre.

Das gerade ProResProRes im Glossar erklärt 4k kein Zuckerschlecken mehr ist, hat schon jeder BMPC Kamerabesitzer am eigenen Leib erfahren dürfen.

Panasonic und Sony sind da mit ihren AVC-Intra Codecs schon um einiges weiter, integrieren aber auf der Druck der Masse ProResProRes im Glossar erklärt, weil es günstig und unkompliziert in der Codierung ist.
Das alles macht aber ProResProRes im Glossar erklärt zu keinen neuem CodecCodec im Glossar erklärt, sondern zeigt leider nur wie schwer sich die Masse damit tut alte Zöpfe ab zu schneiden.

Fakt ist, das AVC-Intra und XAVC die besseren Codecs sind und dazu um Längen effektiver sind als es je ein DCTDCT im Glossar erklärt CodecCodec im Glossar erklärt sein wird.

Diese AVC Codecs sind die Teslas und i3er der Videoformate und nicht die ollen DCTDCT im Glossar erklärt und Wavelet basierenden, seit Jahren nicht mehr weiterentwickelten, aber gerne von Firmen als innovativ angepriesenen Codecs.

Arri hat sich bei dem CodecCodec im Glossar erklärt einfach nur gedacht, das es ein "nice-to-have" Feature ist, mit dem man neue Kunden gewinne kann.
Die Arri RAW Entwickler sind sich aber durchaus bewusst, das ihre "real" 4k Alexa mit 4k ProResProRes im Glossar erklärt kein Blumentopf gewinnen wird.



Antwort von Paralkar:

Irgendjemand hat hier doch mal behauptet (ich glaub wowu wars) das der bisherige ProResProRes im Glossar erklärt 4444 12 bit codec, auch nur mit ner 10 bit Farbtiefe aufzeichnet und die letzten 2 BitBit im Glossar erklärt für den Alphakanal sind?

Dementsprechend wäre ein wirklicher 12 bit 444 Prores CodecCodec im Glossar erklärt doch ne gewisse Steigerung,

Letzteres muss ich mein Vorrednern recht geben, die Datenraten sind zu hoch, würd mich interessieren ob das Alexa XT Processing XAVC 422 oder 444 schaffen würde.



Antwort von CameraRick:


Fakt ist, das AVC-Intra und XAVC die besseren Codecs sind und dazu um Längen effektiver sind als es je ein DCTDCT im Glossar erklärt CodecCodec im Glossar erklärt sein wird.
Ist aber auch irgendwie diskussionswürdig find ich.

Ich hab den XAVC der F55 richtig gut gefunden, auf dem Papier. Dann haben wir mal ein Projekt drauf gedreht; kann ja sein dass wirklich 10bit 422 ist, aber ich habe selten so schlechtes Material zum Verarbeiten gehabt. Da laden die einfachsten Keys zur Feinjustage ein und alles blockt weg. Und dann rauscht der Käse noch wie nichts gutes (wobei das eher an Kamera/Sensor liegen dürfe). War ich gar nicht zufrieden mit; diese Probleme haste nicht mal mit RED, mit nativem Prores schon gar nicht.



Antwort von Valentino:

Nochmal zum Vergleich, das unkomprimierte 2,8k ArriRAW kommt bei 24p und 16:9 auf knapp 605GB pro Stunde.
Jetzt kann man diese Auflösung nur schlecht mit 2k ProResProRes im Glossar erklärt QX vergleichen, der mit knapp 204 Gigabyte bei 24p ca. 1/3 so groß ist, aber weder die Vorteile von RAW noch die ganzen 2,8k auflösen kann.
Theoretisches 2,8k ProResProRes im Glossar erklärt XQ wird bei knapp der Hälfte von 2,8k ArriRAW, also 300 Gigabyte liegen, komprimiert aber mit 1:4,5.
Hier ist einem doch gerade bei Green und anderen VFX Shoots jede Komprimierung ein Dorn im Auge und die doppelte DatenrateDatenrate im Glossar erklärt wird durch die leicht höher Auflösung und die diversen Vorteilen von RAW meist in Kauf genommen werden.

Natürlich könnte die XT mit dem richtigen Chip auch XAVC wegspeichern, die F55 kann es ja auch und diese verbraucht dazu sogar nur halb so viel Strom wie eine Alexa.
Ob man die internen FPGAs dazu benutzen kann ist mir aber nicht bekannt.
Es wäre intern auch JPEG2000 möglich oder z.B. ein externer AVC-I Rekorder von Panasonic über HD-SDI.

@CameraRick
War es wirklich 4k XAVC oder nur der ältere HDCAM-SR CodecCodec im Glossar erklärt, der auch auf MPEG4 basiert, aber schon über 10 Jahre alt ist?
Was für Aufnahmen, wie komplex war die Post?
Wenn es um einen Key geht, sollte man tunlichst nicht zu 422 greifen, da hat auch ProResProRes im Glossar erklärt ganz klar seine Grenzen.
So was kann man auch nur richtig vergleichen, wenn man das Bild nebenher als ProResProRes im Glossar erklärt mitnimmt und mal ein Differenzkey macht.



Antwort von Axel:

Es folgt die Sicht eines Amateurs, der so Gott will nie in den fragwürdigen Genuss kommen wird, ProResProRes im Glossar erklärt XQ zu verwenden.

Weshalb nicht gleich Raw?

Genau. Weshalb nicht? Ich zitiere sinngemäß Michael Cioni: Klassische NLEs sind Timelines mit einer Pfadliste zu den Medien, FCP X ist ein zentraler Medienorganisator, der obendrauf noch eine TimelineTimeline im Glossar erklärt hat.

Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch.

Bescheidenes Amateurbeispiel: Die Bearbeitung von BlackMagic DNGs. Ohne beispiels- und naheliegenderweise Resolve als Dreh- und Angelpunkt mit FCP X nicht möglich. Dann schneide ich mit Proxies. Ich weiß nicht, ob irgendjemand bei einer großen Produktion nochmal einen Praktikanten abstellt, der die Proxies in den bereits von Resolve erstellten Ordnern zusätzlich aufwändig sortiert, ich jedenfalls erspare mir das.

Aber davon abgesehen ist auch der Schnitt für die XML-Rückgabe nach Resolve nur noch in der Kastratenversion sinnvoll, Stichwort Compounding. Einfachen Schnitt aber beherrscht Resolve immer besser. Ich las nur von der in Version 11 hinzugekommenen Funktion, dass der Cursor je nach Position um den Schnittpunkt herum automatisch zu einem speziellen Trimmwerkzeug wird. Es sind solche scheinbar banalen Kleinigkeiten, die das Leben schöner machen.

Was lese ich daher in diversen Foren? In Resolve werden keine Proxies geliefert, sondern weitgehend fertig gegradete ProResHQs oder ProRes4444s. Man gleicht den Rest in FCP X noch ein bisschen aneinander an. Wow, was für ein windschnittiger Workflow!

Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen.

Was war noch unter den Neuerungen?

Freie Wahl, welche Dateien in der Mediathek abgelegt werden. Klingt äußerst banal, ist es aber nicht. Apple bastelt weiter an der Verbesserung der Organisation, verirrt sich aber m.E: auch auf Nebenschauplätzen ("Finder-Tags", so, als würde jeder Zahnarzt seine vorsortierten Kundendaten in FCP X einpflegen wollen - oder was habe ich da missverstanden?).

Es ist nämlich für einige - sind es noch so wenige? - völlig schnuppe, wo mir FCP X erlaubt, Ordner anzulegen, wenn ich zuvor gezwungen bin, mein Footage in einen Mediapool zu importieren, nach klassischer Buchhalterart händisch durch Ordnerpfade.



Antwort von Paralkar:

Also ich bin kein VFXler, aber ich hatte im Grading bei dem XAVC 10 bit 2k Material einer F5, nicht das Gefühl schlechter dazustehen als bei ProRes 422ProRes 422 im Glossar erklärt 10 bit hq.



Antwort von Jott:

Valentino: "ProRes ist immer noch eine DCTDCT im Glossar erklärt basierender CodecCodec im Glossar erklärt wie DV und MotionJpeg und gehört technisch gesehen in die Nuller, wenn nicht sogar in die 90er Jahre."

Das hast du von wowu abgeschrieben, und es interessiert trotzdem niemanden. Hast du mal nachgeschaut, welche Firmen in letzter Zeit alle ProResProRes im Glossar erklärt lizensiert haben? Das sind Dutzende. Alles wohlklingende Namen aus der "Oberklasse". Du kannst persönlich ProResProRes im Glossar erklärt gerne scheiße finden und das als Assistent am Set mit einem Megaphon rausbrüllen. Aber es bleibt trotzdem nur eine Meinung, die von sehr vielen - meistens die mit der Kohle, die die Workflows bezahlen - nun mal nicht geteilt wird. Ganz einfach. Du wirst damit leben müssen! :-)

Ergänzend: XAVC flutscht auf aktueller Technik natürlich auch prima, da gibt es nichts zu rütteln.



Antwort von iasi:



Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen.

wobei so richtig gut funktioniert eigentlich auch bei Adobe nur die Kombination Premiere-Speedgrade ... nur muss man Speedgrade eben mögen lernen



Antwort von iasi:

Valentino: "ProRes ist immer noch eine DCTDCT im Glossar erklärt basierender CodecCodec im Glossar erklärt wie DV und MotionJpeg und gehört technisch gesehen in die Nuller, wenn nicht sogar in die 90er Jahre."

Das hast du von wowu abgeschrieben, und es interessiert trotzdem niemanden. Hast du mal nachgeschaut, welche Firmen in letzter Zeit alle ProResProRes im Glossar erklärt lizensiert haben? Das sind Dutzende. Alles wohlklingende Namen aus der "Oberklasse". Du kannst persönlich ProResProRes im Glossar erklärt gerne scheiße finden und das als Assistent am Set mit einem Megaphon rausbrüllen. Aber es bleibt trotzdem nur eine Meinung, die von sehr vielen - meistens die mit der Kohle, die die Workflows bezahlen - nun mal nicht geteilt wird. Ganz einfach. Du wirst damit leben müssen! :-)

Ergänzend: XAVC flutscht auf aktueller Technik natürlich auch prima, da gibt es nichts zu rütteln.

Bleib mal bitte sachlich - warum nur fühlst du dich immer so schnell persönlich auf den Schlipps getreten.

ProRes XQ erzeugt große Datenraten und nimmt einem dennoch die Vorteil von Arri-Raw.
Und das alles nur, weil Apple nicht im Stande ist, Arri-Raw nativ zu unterstützen.
Da sag ich doch mal:
Wem Raw zu aufwändig ist, der bleibt doch eh besser bei den "kleinen" ProRes-Versionen.
Wer wirklich Wert auf die maximalen Möglichkeiten legt, der nutzt Raw.

Ich dachte immer Arri und Alexa-Nutzer wären kompromislos - das sieht mir hier aber nicht so aus.



Antwort von Axel:

Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen.

wobei so richtig gut funktioniert eigentlich auch bei Adobe nur die Kombination Premiere-Speedgrade ... nur muss man Speedgrade eben mögen lernen

Was heißt das? Ich kann nicht mit komprimierten DNGs einen Schnitt (ohne Titel, Effekte, etc) machen, dann ein XML nach Resolve schicken, komplett graden, in (ähm, ja, was nehme ich für Windows statt ProRes?) irgendwas Solides rendernrendern im Glossar erklärt, wieder XML zurückschicken und in Premiere onlinen?



Antwort von Jott:

Iasi, du bist völlig verpeilt. Ich fühle mich doch von niemandem auf den Schlips getreten (besitze gar keinen), wundere mich nur über all diese Weisheiten, die so oft nur aus einer Mischung aus Ergoogeltem, Nachplappern und einer Prise Verschwörungstheorien bestehen. Gerade bei selbsternannten Fachleuten.

ProRes schwappt auch zu anderen Kameraherstellern. Ebenso gehören ProResProRes im Glossar erklärt und fcp schon lange nicht mehr de facto zusammen, das hat sich längst verselbständigt. Die ganzen US-TV-Serien zum Beispiel, wo Alexa auch wegen ProResProRes im Glossar erklärt dominiert, werden natürlich nur selten auf fcp x geschnitten. Oder etwa doch? Hui, das nächste Minenfeld! :-)

Übrigens:

"ARRIRAW QuickTime Components

The ARRIRAW QuickTime ComponentComponent im Glossar erklärt will perform all of the importing, playback, de-bayer, and color correction functions to the movie. All applications that use Apple’s QuickTime libraries can access all aspects of the ARRIRAW image sequences. Applications ranging from Final Cut Pro right down to iMovie, can import and play these files without any sort of conversion or preprocessing steps."



Antwort von Axel:

"ARRIRAW QuickTime Components"

Von Arri als PluginPlugin im Glossar erklärt entwickelt, nicht? Genauso wie das RED plugin von RED. CinemaDNG ist ja open source, oder? Ursprünglich von Adobe entwickelt. Also wäre es an BlackMagic, das anzubieten? Anscheinend hat es mal sowas gegeben, für FCP 7. Nun nicht mehr. FCP X zeigt ja DNGs (als Einzelbilder) an, aber nicht als Bildsequenz (kann man eine draus machen, Dauer 1 FrameFrame im Glossar erklärt pro importiertes Einzelbild, hab ich mal mit der Brawley-Billardfrau probiert), aber keine komprimierten der Pocket. Und schneiden kann man's so auch nicht.

Blöd.



Antwort von CameraRick:


@CameraRick
War es wirklich 4k XAVC oder nur der ältere HDCAM-SR CodecCodec im Glossar erklärt, der auch auf MPEG4 basiert, aber schon über 10 Jahre alt ist?
Was für Aufnahmen, wie komplex war die Post?
Wenn es um einen Key geht, sollte man tunlichst nicht zu 422 greifen, da hat auch ProResProRes im Glossar erklärt ganz klar seine Grenzen.
So was kann man auch nur richtig vergleichen, wenn man das Bild nebenher als ProResProRes im Glossar erklärt mitnimmt und mal ein Differenzkey macht.
Es war XAVC. Und Du darfst nicht annehmen, dass jeder Key automatisch ein Greenscreen ist - es gab keinen Greenscreen im ganzen Film. Man keyed im Alltag eben so einiges, nicht nur grün und blau :o)

Unser Freelance-Smoker war auch recht entsetzt, und fragte etwas verbittert "was ist das denn für Material"
Einen empirischen Vergleich kann ich natürlich nicht machen. Aber den ganzen Tag tu ich unter der Woche nichts anderes als PixelPixel im Glossar erklärt zu schubsen, und da fällt Dir dann schon auf welches Material da eher mit macht, und welches nicht. ARRIRAW ist auch ganz vorzüglich - wobei man das ja auch nicht in der Software die man nachher nutzt debayern (sollte). Gleiches gilt für RED; man kann das zB zwar im Nuke laden, der Unterschied zwischen dem was man dort kriegt und was man aus dem Resolve bekommen hätte ist aber auch nicht so klein.

Beim Grading war ich nicht dabei, da sehe ich nur das Ergebnis (da sind wir wieder beim Rauschen, aber das ist nicht die Schuld des Codecs). Abgesehen vom Rauschen hat das Bild gut mitgemacht im Grading, der Look war eher... nennen wir es mal, "flaue 60s". Ändert für mich nichts daran, wie sich das Material ansonsten verhalten hat.



Antwort von sgywalka:

Dann haben se es halt!

Der Hersteller kann den Motor auch mit Wodka fahren
( weil er einen Entzuckerungsreiniger mit eingebaut hat-falls wer-
und ja ich habe auf meinem Boot eine Tesla mit-genug Zeit den
über die bordeigen Solaranlage zu tanken--:)..gut) und
im normalen Fall dan auch mit Super. ist doch toll.
Im Zeitalter von EINFALT ( und Einfallslosogkeit, wo die spiesigen
Hausmeister als ex. Stasi-lager-wärter nun gelangweilt in ihrem
Arsch rumbohren und dann monchrome Internetglaubensbekenntnisse
abgeben is des echt toll = FILMSTOFF " das bucklige Arschloch denunziert
seinen Nachbarn"...früher war es halt der Graf von Montechristo) scheint
bei jeder Kamera jedem Computer und bald jedem Ärtepfl (( dt: das ist
eine Kartoffel..) gemosertt zu werden, warum es nicht in die omnipräsente
"REINHEIT" von igs passt und net im Takt der kollektiven...
" gemeinsam gehn wir gemeinsam scheissen und betrachten ancher unsern
Schiss"- sager sich im LIKE des WE ARE ONE selbstinszenieren.
Die Knarre kanne s halt und fertig.

Monte Christo... ich werf mal den Anker..
out



Antwort von iasi:

Iasi, du bist völlig verpeilt. Ich fühle mich doch von niemandem auf den Schlips getreten (besitze gar keinen), wundere mich nur über all diese Weisheiten, die so oft nur aus einer Mischung aus Ergoogeltem, Nachplappern und einer Prise Verschwörungstheorien bestehen. Gerade bei selbsternannten Fachleuten.

Das ist doch das Problem: wir reden hier über einen CodecCodec im Glossar erklärt und du ziehst imme alles auf eine persönliche Ebene herunter und wirst dann auch noch beleidigend - dieser Stil nervt nicht nur, er bringt niemandem etwas.

Frag dich doch mal, warum du nicht beim Thema bleiben kannst ...
Scheinbar erträgst du es nur schwer, wenn andere nicht deine Meinung vertreten und dann keilst du reflexartig aus.



Antwort von iasi:

Premiere macht es vor: Native Formatunterstützung (Edius nennt's glaube ich "edit anything"). Ich verlange wohlgemerkt nicht, dass ich in FCP X Raw umfassend graden kann, aber einen erzwungenen Proxy-Workflow halte ich nicht für angebracht. Dieser Tage werde ich den Premiere CC > Resolve Workflow bei meinem Kumpel mal testen.

wobei so richtig gut funktioniert eigentlich auch bei Adobe nur die Kombination Premiere-Speedgrade ... nur muss man Speedgrade eben mögen lernen

Was heißt das? Ich kann nicht mit komprimierten DNGs einen Schnitt (ohne Titel, Effekte, etc) machen, dann ein XML nach Resolve schicken, komplett graden, in (ähm, ja, was nehme ich für Windows statt ProRes?) irgendwas Solides rendernrendern im Glossar erklärt, wieder XML zurückschicken und in Premiere onlinen?

da gehst du davon aus, dass XML immer schön zu 100% das Projekt übersetzt - leider tut"s dies eben nicht - das funktioniert nur bei relativ simplen Projekten.
Der XML-Workaround ist eine ziemliche Krücke.
Das hat Adobe mit Premiere&Speedgrade weit besser gelöst. Schade nur, dass mir Resolve weit mehr liegt als Speedgrade.



Antwort von cantsin:


Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch.
Die Frage ist, inwiefern das eine grundsätzliche Design-Limitierung von FCP X ist, weil das Programm ja intern alles nach ProResProRes im Glossar erklärt umrechnet, das bei Raw-Videomaterial zum Flaschenhals wird.

Ich würde mich aber sowieso nie auf die Materialorganisation eines Bearbeitungsprogramms einlassen, weil man sich damit zum Systemgefangenen macht. Würde mich mal interessieren, wie hoch in dieser Hinsicht die Akzeptanz von FCPX bei professionellen Anwendern ist. Eigentlich müsste man mit dem Klammerbeutel gepudert sein, wenn man seine internen Workflows auf die Mediendatenbank und -verschlagwortung von FCPX aufsetzt, ohne von Apple langjährige Garantien, Roadmaps und damit Investitionsschutz zu erhalten.

Aperture ist ein aktuelles Beispiel dafür, was in solchen Fällen passieren kann.



Antwort von motiongroup:

Was ist den passiert mit Aperture? Es wird nicht weiterentwickelt , man darf es aber weiterverwenden uuuuuund die RAW Adaptionen wird weiter geführt..

Erstmals ist ApertureAperture im Glossar erklärt eine Organisationshilfe und in zweiter line ein nondestruktiver (auch) RAWbildbetrachterausarbeitungskorrekturtool und kein Bildbearbeitungsprogram like Ps oder Pixelmator.. Der Funktionsumfang der aktuellen Version wird auch noch die nächsten Jahre ausreichen wie eben auch für viele noch fcp NOCH IMMER !!!!!!! trotz Mavericks den Dienst versieht..
Das sollte sich manch ein Windowslobpreiser vor Augen halten. Die Canonuser die Adobes Ligthroom und adobes Cam.RAW verwenden wissen ein Lied davon zu singen.. Alte SW neue Cam is nich...Upgrade kaufen oder Finger im Arsch abbrechen..

Noch wundersamer ist der Aufschrei um diese neue Software.. Kein Mensch kennt deren Umfang und Leistung.

Die Prores Diskussion an sich kommt mir irgendwie vor wie die von trotzigen Jungs, die weil ihre Erwartungshaltung von den Herstellern so gar nicht erfüllt werden.... So quasi ja das gibts ja nicht, haben diese Idiotien meinen hilfespendenden Ruf nicht gehört.. Unlängst gab's mit einem vfx Spezi der am aktuellen Nolan arbeitet so einen kleinen Zusammenschnitt, quasi ne Übersicht wie sich das ganze so darstellt. ...eines vorweg, denkt nochmals über hohe Datenraten nach..



Antwort von iasi:

Apple begräbt ApertureAperture im Glossar erklärt - so lautet die Nachricht und man kann es auch nicht beschönigen.

Adobe hat mit seinem Abo-Modell ein System eingeführt, bei dem man jederzeit mit der aktuellsten Software-Version arbeiten kann.

Warum sollte man denn nicht von Fortschritten profitieren wollen, die sich nun einmal ergeben?
Also ich ziehe z.B. mein RedRaw-Material auf die Premiere-Timeline und fertig. Es lässt sich damit so gut und flüssig arbeiten, wie mit ProRes. Weshalb sollte ich dann eigentlich die Einschränkungen von ProResProRes im Glossar erklärt in Kauf nehmen? Zumal die Datenmenge bei XQ selbst bei HD-Auflösung weit größer ist, als bei RedRaw bei 4k.



Antwort von Valentino:

Auf die Gefahr mich zu wiederholen, der neue ProResProRes im Glossar erklärt XQ CodecCodec im Glossar erklärt läuft nur auf der neuen Alexa XT Reihe und nicht auf den ganzen Serien davor.

Die XT Kameras werden knapp so 10% aller verkauften Alexa ausmachen,
da einige Kunden dann doch zur AMIRA greifen oder auf die true 4k Alexa warten.

Man konnte auch seine alte Alexa Classic auf XT umrüsten, hat dann aber immer noch keine vollwertige XT, glaub 4:3 Sensor-Mode und Opengate funktionieren auch nach einem Upgrade nicht.
Aus diesem Grund haben sich die meisten Verleiher gleich eine bis zwei XTs gekauft und die ganz alten Classics für 25 bis 40k Euro verkauft.

Privat werden sich nur wenige Kameraleute eine XT zugelegt haben, da einfach zu teuer und die AMIRA gerade für Doku und TV eine günstigere Alternative ist.

Die Vorteile der XT sind in erster Linie die RAW Aufzeichnung mit 120fps und der 2,8k 4:3, so wie der 3,2k Opengate Mode.
Beim QX CodecCodec im Glossar erklärt ist aber bei 2k 4:3 das Ende der Fahnenstange erreicht und man verliert dazu noch die Vorteile von RAW.



Antwort von Jott:

Die Redaktion hat dazu im Artikel geschrieben:

"Laut Angaben von ARRI umfasst ProResProRes im Glossar erklärt 4444 XQ die Tonwerte von Log C in vollem Umfang bei gleichzeitiger, gewohnt unkomplizierter Verarbeitung von ProRes-Material."

Kannst du wirklich nicht verstehen, dass es Leute gibt, die genau so was wollen?

Jeden Tag entstehen weltweit Filme, TV-Serien, sonstige Programme, Werbespots auf RED oder Canon, Arri oder Sony oder sonst was, raw oder durch, alle kommen ans Ziel und spielen Geld ein. Jede Entscheidung für Workflow X oder Y kann richtig sein. Abhängig von Projekt, Budget, Zeitrahmen und vielem mehr. Arri bedient mit dem neuen (zusätzlichen) Codec-Angebot einen dieser denkbaren Workflows, sicher wissend, dass das Angebot gern angenommen wird. Andere werden folgen. Müssen muss aber niemand. Worauf genau gründet sich daher die Empörung darüber? Vor allem: wer ist empört? Potentielle Arri-Kunden oder nur - öhm - ...



Antwort von Axel:

Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch.
Die Frage ist, inwiefern das eine grundsätzliche Design-Limitierung von FCP X ist, weil das Programm ja intern alles nach ProResProRes im Glossar erklärt umrechnet, das bei Raw-Videomaterial zum Flaschenhals wird.

Nö. Nix wird intern umgerechnet. Sag mal, du hast das Programm doch benutzt? Zuerst wird alles erst einmal nativ abgespielt (einige Formate brauchen dazu ein QT-Plugin, das ist ja bekannt). Dann, beim Import, hast du die Möglichkeit, im Hintergrund in optimierte Medien zu wandeln (=ProRes), in die Mediathek zu kopieren (eine Kopie im Original-Codec, aber in einem QT-Container wird auf das zugewiesene Volume geschrieben) oder die Dateien am ursprünglichen Ort zu belassen (Alias-Dateien werden in den Original-Media-Ordner geschrieben). Für letztere Option hängt die Performance von deinem Rechner und vom Material ab, aber auf meinem vergleichsweise lahmen Rechner habe ich nie irgendwas nicht nativ geschnitten. Ich würde, wenn das ginge, DNGs schneiden und nach Resolve schicken, das dann mit den Originalen weitermachen könnte.

Ich würde mich aber sowieso nie auf die Materialorganisation eines Bearbeitungsprogramms einlassen, weil man sich damit zum Systemgefangenen macht.

Die anderen NLEs haben keine Materialorganisation. Sie haben ein antiquiertes System, das auf unintelligentes Verteilen von Material auf Ordner beruht und allenfalls rudimentäre Verknüpfungen dazwischen erstellt.

Würde mich mal interessieren, wie hoch in dieser Hinsicht die Akzeptanz von FCPX bei professionellen Anwendern ist. Eigentlich müsste man mit dem Klammerbeutel gepudert sein, wenn man seine internen Workflows auf die Mediendatenbank und -verschlagwortung von FCPX aufsetzt, ohne von Apple langjährige Garantien, Roadmaps und damit Investitionsschutz zu erhalten.

Für Firmen größeren Umfangs mag das seine Berechtigung haben, für kleine und zumal für Privatnutzer hat es null, und Roadmaps werden entweder in dem Moment über den Haufen geworfen, da sich zeigt, dass das System endgültig überholt ist oder es wird auf konservatives Festhalten an alten Karten gesetzt. Wer langjährige Garantien erwartet, der glaubt auch, dass die Rente sicher ist.



Antwort von motiongroup:

Iasi, Apple hat sich selbst begraben ... Apple ist tot, Apple hat fcp beerdigt..Apple hat fcpx als Totgeburt auf den Markt geworfen.. Apple, Apple, Apple ... Black Magic ist böse, Black Magic ist schlecht .. Studio London , Paris, Valentino, wowu, motiongroup der Antichrist, motiongroup der Idiot, DV_Chris, die Jubelperser, bashboys, trolle usw.. Die Welt steht still, die Welt geht unter, Edgar die Russen kommen und der Nolan dreht seine Filme auf ?aha..

Iasi Isch Nehm's Nimma Ernst



Antwort von Valentino:

@Jott
Das mit den 12bit und dem gesamten Tonwert von Log-C tut aber anscheinend laut Arri auch der kleinere ProRes4444 und das bei halber Datenrate.
Bis heute hat das für jede nicht RAW Produktion auch völlig ausgereicht, also für was dann dieser neue CodecCodec im Glossar erklärt, der fast so viele Speicher wie RAW benötigt, aber die die Vorteile und Auflösung nicht liefern kann.

Wenn du einen VFXler fragst wird er immer OpenEXR aus RAW am besten als 3,2k Opengate nehmen.
Für die restlichen TV Produktionen ohne viel VFX reicht meiner Meinung sogar ProResProRes im Glossar erklärt HQ völlig aus.



Antwort von WoWu:

@ Valentino

Der bisherige 4:4:4:4 war ein 10 BitBit im Glossar erklärt Codec.
Jedenfalls nach dem Material, das wir hier mit dem CodecCodec im Glossar erklärt bekommen haben.
LOG -C ist darin mangels ausreichender Zwischenwerte nicht abgebildet worden.



Antwort von Jott:

Es ist doch nur ein Angebot, das keiner wahrnehmen muss. Arri drängt das doch niemandem auf, oder empfindest du das anders? Juckt es dich in den Fingern, vor den ARRI-Toren eine Demo zu organisieren, Pappschilder mit "Kein ProResProRes im Glossar erklärt 4444 XQ für die Alexa!!!!" hochzuhalten und das lauthals zu skandieren? Das wär mal was.



Antwort von WoWu:

White-Papers und vor allem die Grafiken, die darin abgebildet sind, muss man genau lesen.



Antwort von Valentino:

@ Valentino

Der bisherige 4:4:4:4 war ein 10 BitBit im Glossar erklärt Codec.
Jedenfalls nach dem Material, das wir hier mit dem CodecCodec im Glossar erklärt bekommen haben.
Ja das hast du schon mal erzählt, wundere mich dann nur warum auch im neuen Whitepaper und der Arri Homepage trotzdem vom 12bit RGBRGB im Glossar erklärt die Rede ist:
Apple ProResProRes im Glossar erklärt 4444 XQ and Apple ProRes4444 support image sources up to 12 bits and preserve alpha sample depths up to 16 bits.
http://www.arri.de/uploads/pics/ProRes- ... ecs_03.jpg

Hat Arri es bei den älteren Alexas einfach nicht hin bekommen, die vollen 4096 Werte zu mappen?
Der DNxHDDNxHD im Glossar erklärt 444 CodecCodec im Glossar erklärt ist ja auch nur auf 10bit limitiert.

Also woher stammt deine Informationen, bzw. stammte das ProRes444 Material von einem externen Rekorder und es wurde ein 422 10bit Signal auf 4444 aufgeblasen?



Antwort von WoWu:

LOG C ist ja eigentlich eine 10 BitBit im Glossar erklärt Kurve. Der Rest ist dann eine Frage der Menge der Samples und im alten CodecCodec im Glossar erklärt fing der Alphachannel oberhalb von 10 BitBit im Glossar erklärt an.
Insofern hat der CodecCodec im Glossar erklärt schon 12 BitBit im Glossar erklärt in einem 16 BitBit im Glossar erklärt (2Byte) FormatFormat im Glossar erklärt übertragen, aber nicht als Nutzsignal.
Mal sehn, wie der neue CodecCodec im Glossar erklärt das macht. Noch gibts davon ja keinen Content.

DerContent war Footage, soweit ich mich erinnere, also Recordersignal.
Aus der verlinkten Liste geht leider nicht hervor, wo der Alpha-Channel liegt und wie breit er ist.
Es ist also immer eine Frage, wie man die 12 BitBit im Glossar erklärt verwendet. 16 BitBit im Glossar erklärt braucht man immer, egal was da drin ist, weil man das 2. Byte braucht.
Insofern sagen solche Listen herzlich wenig aus. Nur dass man mehr als 10 BitBit im Glossar erklärt benutzt, aber dafür auch die 4. 4 unterstützt.



Antwort von iasi:



Iasi Isch Nehm's Nimma Ernst

man kann die Augen eben auch schlicht verschließen und unbekümmert weiterträumen

es ändert aber eben nichts an Tatsachen, wie diesen:
http://www.heise.de/newsticker/meldung/ ... 42773.html



Antwort von Valentino:

Aber ProRes4444 ist schon vorher in der Lage gewesen 12bit Video zu speichern, nur die Alexa Classic nutzt mit Log-C nur 10bit.

Am Ende gelten die 12bit einfach nur für die neueren XTs, da hier dann auch Log-C noch mal ein Update erfahren hat.

Glaub schon, das die bei Arri 12bit RGB(ohne Alpha) hinschreiben und es dann auch echte 12bit sind.

Werde diesbezüglich mal eine Mail an den technischen Support schicken.



Antwort von WoWu:

@Iasi

Freuen wir uns doch und sehen das Positive darin.
Wenigstens unterstützen sie jetzt sehr aktiv

HDV
AVC-Intra
DVC-Pro
und noch ein paar Formate mit ihrem Up-Date.

Das ist doch alles positiv.Werde diesbezüglich mal eine Mail an den technischen Support schicken.

Gute Idee. Sag mal Bescheid, was dabei raus kommt ?
Kann natürlich sein, dass die Kamera da der begrenzende Faktor war, nur dann stellt sich natürlich wirklich die Frage, was der neue CodecCodec im Glossar erklärt soll, wenn der "alte" es doch schon angeblich konnte ?



Antwort von motiongroup:



Iasi Isch Nehm's Nimma Ernst

man kann die Augen eben auch schlicht verschließen und unbekümmert weiterträumen

es ändert aber eben nichts an Tatsachen, wie diesen:
http://www.heise.de/newsticker/meldung/ ... 42773.html

Ich brauch ned träumen ich resp wir verwenden es einfach, lies dir mal deine x Milliarden Jammerbeiträge und red nochmals vom träumen..
Übrigens zu deinem Link und zur reißerischen Aussage "Begraben"

Du hast falsch verlinkt..

http://www.heise.de/newsticker/foren/S- ... 1918/list/

Das ist der richtige zu dir passende Link... Vielleicht kennst den einen oder anderen von hier.. *gggg und vielleicht geht dir gar ein Licht auf...



Antwort von otaku:

@Jott

Wenn du einen VFXler fragst wird er immer OpenEXR aus RAW am besten als 3,2k Opengate nehmen.
Für die restlichen TV Produktionen ohne viel VFX reicht meiner Meinung sogar ProResProRes im Glossar erklärt HQ völlig aus.

genau so ist es. after effects ist meines wissens nach die einzige vfx software die mit quicktime sehr gut klar kommt. alle anderen tuen das nicht.
nuke, shake, flame da ist quicktime komplett pain in the ass. selbst ein smoke on mac kann zwar quicktime aber einzelbilder laufen deutlichst besser.

also aus vfx sicht brauchen wir den neuen codec so dringend wie ein loch im kopf.



Antwort von WoWu:

So, wie es aussieht, ist die ARRI ja auch die einzige Kamera, die den CodecCodec im Glossar erklärt überhaupt unterstützt und vor Herbst des Jahres gibt es wohl auch gar keine Geräte dafür ... das heisst also, dass jemand, der mit der Kamera 12 BitBit im Glossar erklärt aufnimmt, ausgerechnet das Material auf einem FCP schneiden möchte.

Ob das alles so kommt weiss heute auch noch keiner und vielleicht sieht die Welt im nächsten Jahr schon wieder ganz anders aus und kein Hahn kräht mehr nach so einer Kombination aus einer bestimmten ARRI Kamera mit einem bestimmten Apple Format.
Ich tippe mal drauf, dass die Kamera auch alternativen anbietet.
Und bis dahin ist die Werbekampagne lange verpufft, wenn sich Praktiker für ein FormatFormat im Glossar erklärt entscheiden können. Denn die klassischen ARRI Anwender werden nicht vor Dank auf die Knie fallen, wenn ihnen ein CodecCodec im Glossar erklärt als "Pflichtübung" vor die Nase gesetzt wird, den kein professionelles NLE beherrscht.

Also, warten wir doch mal ein Jahr, bis überhaupt die ersten Bilder da sind, die von Profis gedreht wurden und nicht von irgendwelchen Blog-Betreibern irgendwelche lächerlichen Vergleiche.



Antwort von Jott:

Sie reden von Public Beta jetzt im Juli und finaler Software im August. Bilder dürften also recht schnell auftauchen. Bei den ganzen Bloggern kann man sich ja dann auf diejenigen beschränken, deren Resultate einem in den Kram passen! :-)



Antwort von WoWu:

Auftauchen vielleicht ... aber es ist schon viel aufgetaucht, das dann auch rasch wieder in der Versenkung verschwunden ist.
Es ist eine Frage der Marktakzeptanz.
Und, ie ich oben schon geschrieben habe. Die klassischen ARRI Anwender werden nicht vor Dankbarkeit auf die Knie fallen, wenn ihnen ein CodecCodec im Glossar erklärt angeboten wird, den kein professionelles NLE beherrscht.
Gerade auch weil Apple dafür bekannt ist, erst 2-3 Jahre später Bugs aus ihren Software-Implementierungen zu beseitigen ... wenn überhaupt.



Antwort von Jott:

Wenn die neue Variante jetzt zum bisherigen ProRes-Paket gehört (weiß nicht, ob es so ist, aber warum nicht?), steht der CodecCodec im Glossar erklärt ab sofort allen Lizenznehmern zur Verfügung. Also durchaus nicht nur in fcp.

Wen's interessiert, hier eine nicht mal aktuelle Liste der Lizenznehmer:
http://support.apple.com/kb/HT5959



Antwort von WoWu:

Dann schau mal, wer ausser FCP ProResProRes im Glossar erklärt kodieren kann.
Es geht ja nicht darum, das FormatFormat im Glossar erklärt in einem Player für die Wiedergabe zu implementieren.
Apple versucht vermutlich einen CodecCodec im Glossar erklärt zu schaffen, der das Intermediate Image los wird und bedient sich der Hilfe von ARRI.
Wahrscheinlich können dann nur ARRI Laser das Master lesen, vorausgesetzt, andere NLEs und Bearbeitungsprogramme lizensieren den CodecCodec im Glossar erklärt, um das FormatFormat im Glossar erklärt generieren zu können denn sonst landet es ohnehin in irgendeinem kompatiblen Format.

Sonst hat man toll kodiertes Footage, ein Pflicht NLE und die Möglichkeit, das auf speziellen ARRI Geräten auch weiterverarbeiten zu können.

Lass uns also mal abwarten, ob die "Foundrys" oder "Autodesks" dieser Welt das Spiel mitspielen.



Antwort von Jott:

Dann schau mal, wer ausser FCP ProResProRes im Glossar erklärt kodieren kann.

Viele. Siehe Liste. Man kann den Links zu den Lizenznehmern folgen und dort weiterlesen. Da geht es bei fast allen ums Encoden, auch unter Windows.



Antwort von WoWu:

Komisch, dass man dann von soviel NLEs hört, auf denen man PR noch weiterverarbeiten kann.
Aber warten wir es einfach mal ab. Es gibt bisher ja noch nichts, über das man überhaupt reden kann, ausser ein paar Marketingankündigungen.
Lehnen wir uns also noch ein Jährchen zurück, bis es aussagekräftige Ergebnisse gibt.



Antwort von Jott:

Autodesk-Produkte sind doch ein gutes Beispiel, wo ProResProRes im Glossar erklärt längst implementiert ist, auch das Encoding?

Und bist du nicht ein Freund des Hauses Quantel?
http://www.studiodaily.com/2014/04/quan ... -encoding/



Antwort von iasi:



Iasi Isch Nehm's Nimma Ernst

man kann die Augen eben auch schlicht verschließen und unbekümmert weiterträumen

es ändert aber eben nichts an Tatsachen, wie diesen:
http://www.heise.de/newsticker/meldung/ ... 42773.html

Ich brauch ned träumen ich resp wir verwenden es einfach, lies dir mal deine x Milliarden Jammerbeiträge und red nochmals vom träumen..
Übrigens zu deinem Link und zur reißerischen Aussage "Begraben"

Du hast falsch verlinkt..

http://www.heise.de/newsticker/foren/S- ... 1918/list/

Das ist der richtige zu dir passende Link... Vielleicht kennst den einen oder anderen von hier.. *gggg und vielleicht geht dir gar ein Licht auf...

und was sollen mir diese Forumsbeiträge nun sagen?

da halte ich mich doch lieber an objektive Meldungen
http://www.zdnet.de/88197262/apple-stel ... rture-ein/
http://www.social-secrets.com/2014/06/a ... ntwickeln/

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?



Antwort von motiongroup:

und was sollen mir diese Forumsbeiträge nun sagen?

da halte ich mich doch lieber an objektive Meldungen
http://www.zdnet.de/88197262/apple-stel ... rture-ein/
http://www.social-secrets.com/2014/06/a ... ntwickeln/

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?

Dir nichts,........ Du solltest eventuell darüber nachdenken was " Der Ton macht die Musik " bedeutet... Anscheinend ist dir der Geschmackliche Unterschied zwischen Apple Begräbt und Apple stellt die Entwicklung gar nicht aufgefallen... Das ist BildNiveau und spiegelt sich in dieser typen Frage deinerseits wieder..

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?



Antwort von WoWu:

@ Jott

Warten wir es einfach mal ab.

Und Quantel , bietet nun mal, anders als FCP alle verfügbaren Codecs und auch File-Übergabeformate dem Kunden, unabhängig von ihrer qualitativen Nutzbarkeit weil der Kundenkreis schon unterscheiden kann, was Quantels Schuld ist und die anderer Hersteller.
Wenn es da nach Qualität ginge, sähe das sicher noch etwas anders aus.

Aber warten wir das kommende Jahr doch einfach ab.

Erstens wird man dann gesehen haben, wie die Implementierung ist,
zweitens wird man dann wissen, was der CodecCodec im Glossar erklärt überhaupt leistet,
drittens werden wir dann wissen, wie sich andere Codecs im Verhältnis dazu in der Anwendung machen,
viertens werden wir wissen, ob die Karawane nicht schon längst weitergezogen ist und
fünftens werden wir wissen, wie die Benutzbarkeit im wirklichen Leben eigentlich ist.

Bisher gibt es nicht einmal die Auskunft darüber, wieso eigentlich ein weiterer CodecCodec im Glossar erklärt nötig ist, wenn ihr vorher das doch schon alles konnte.
Da hat Valentino schon völlig Recht.
Oder sie haben von ARRI gesagt gekriegt, dass sie das alte Zeug nicht mehr in die Kameras einbauen, wenn sie nicht die Mängel beseitigen. Und weil das so eine Sache, auch mit der eigenen Kompatibilität bei Apple ist, .... dann doch lieber einen neuen Codec.

Alles ist möglich, wir wissen es nicht.

Also warten wir, bis wir es erfahren haben.



Antwort von Jott:

Bezogen auf die neue, sechste Geschmacksrichtung, ja. Bezogen auf ProResProRes im Glossar erklärt allgemein spürt man bei dir schon eine gewisse Realitätsverweigerung, aber das ist ja nichts Neues.

Für 4K sehe ich ProResProRes im Glossar erklärt übrigens auch nicht. Da werden die Files für meinen Geschmack dann wirklich zu groß, das nervt. Da mag ich inzwischen XAVC (Intra, nicht die Consumervariante) mit seinem 422 10Bit, gut zu handeln und wider Erwarten eigentlich gar keine Herausforderung. Läuft selbst auf einem schnellen aktuellen iMac recht gut.



Antwort von iasi:

und was sollen mir diese Forumsbeiträge nun sagen?

da halte ich mich doch lieber an objektive Meldungen
http://www.zdnet.de/88197262/apple-stel ... rture-ein/
http://www.social-secrets.com/2014/06/a ... ntwickeln/

Übrigens:
Welches ist die leistungsfähigste Workstation von Apple?
Gibt"s da nicht Systeme, die mehr bieten, als der Apple-Eimer?

Dir nichts,........ Du solltest eventuell darüber nachdenken was " Der Ton macht die Musik " bedeutet... Anscheinend ist dir der Geschmackliche Unterschied zwischen Apple Begräbt und Apple stellt die Entwicklung gar nicht aufgefallen... Das ist BildNiveau und spiegelt sich in dieser typen Frage deinerseits wieder..


die Weiterentwicklung einzustellen, bedeutet nun mal das Ende einer Software ... und "begraben" ist dafür ein durchaus passender Methapher ...

Apple will eben letztlich alles auf die Berührungsschirmchen umstellen - mit Lifestil verdient Apple eben die meiste Kohle.
Eine Workstation, bei der das Design derart wichtig ist, wie beim MacPro hat etwas von Luxustransporter - deren pratischer Wert ist eben auch eingeschränkt ... für den Handwerk sind die jedenfalls nichts ...



Antwort von WoWu:

@Jott

Das hättest Du schon seit 10 Jahren als AVC-I haben können und dann auch noch in 10 Bit-gleich von der Kamera.

Nein, mit Realitätsverweigerung hat das nichts zu tun, weil wir seit 10 Jahren mit AVC arbeiten und ProResProRes im Glossar erklärt nie vermisst haben, ganz im Gegenteil, die Vorteile dessen nutzen zu können, auf die Du ja, wie es scheint auch mittlerweile kommst.

Du hast nur ProResProRes im Glossar erklärt als alternativlos angesehen, weil Du nichts anderes kanntest.
Aber so ist das wohl mit dem "alternativlos"... wie in der Politik ... es ist alles relativ und irgendwann finden sie alle mal die Alternative.
Manche eben später ... aber besser als nie.



Antwort von Jott:

Du glaubst im Ernst, ich kannte P2 nicht? Lass stecken, spring in den Pool.



Antwort von WoWu:

Von kennen spreche ich ja nicht, von Nutzen spreche ich und wenn in den Produktionskosten ein paar Speicherchips eine Rolle spielen, dann ist das auch sicher egal, ob man AVC oder MPEG2MPEG2 im Glossar erklärt benutzt.
Wahrscheinlich müssen die Mitarbeiter dann auch für das Catering bezahlen, wenn man schon am Speicherchip sparen muss.



Antwort von motiongroup:

iasi iasi, es wird vorangekündigt das die Entwicklung eingestellt wird.. Und was passiert, die selbe dümmliche Madigmacherei wie damals als fcp OHNE VORANKÜNDIGUNG eingestellt wurde... Es ist im Prinzip vollkommen egal wie auch immer, es wird immer wieder jemanden geben der die passenden Worte findet.

Berührungsschirmchen? Mir kannst mit so spaßigen blumigen Umschreibungen keinen aha Effekt entlocken.. Ich bin weder auf ipad noch iphone eingeschworen und hämmere meine dummen Schreibereien auch mit nem Androiden ins Textfeld..
Und weilst das so dümmlich darstellst, dir ist schon klar das hunderttausende Smartphones und Tabletts weltweit zu renderclustern zusammengefasst ihre Dienste verrichten..
Mir ist's auch sch*** Egal ob die Geschichte unter Ubuntu. Windows oder OSX läuft weil hier so oder alles rumsteht was uns eigentlich unsere Lebenszeit vernichtet..

Die Geschichte kommt mir fast so vor wie die Aussage RED verwendet martialische Produktbezeichnungen und drum bekommst auf den macpro matsch keine Antwort weil dazu schon alles gesagt wurde..



Antwort von iasi:

iasi iasi, es wird vorangekündigt das die Entwicklung eingestellt wird.. Und was passiert, die selbe dümmliche Madigmacherei wie damals als fcp OHNE VORANKÜNDIGUNG eingestellt wurde... Es ist im Prinzip vollkommen egal wie auch immer, es wird immer wieder jemanden geben der die passenden Worte findet.

Berührungsschirmchen? Mir kannst mit so spaßigen blumigen Umschreibungen keinen aha Effekt entlocken.. Ich bin weder auf ipad noch iphone eingeschworen und hämmere meine dummen Schreibereien auch mit nem Androiden ins Textfeld..
Und weilst das so dümmlich darstellst, dir ist schon klar das hunderttausende Smartphones und Tabletts weltweit zu renderclustern zusammengefasst ihre Dienste verrichten..
Mir ist's auch sch*** Egal ob die Geschichte unter Ubuntu. Windows oder OSX läuft weil hier so oder alles rumsteht was uns eigentlich unsere Lebenszeit vernichtet..

Die Geschichte kommt mir fast so vor wie die Aussage RED verwendet martialische Produktbezeichnungen und drum bekommst auf den macpro matsch keine Antwort weil dazu schon alles gesagt wurde..

Warum windest du dich denn so?

Die Weiterentwicklung wird eingestellt - Punkt aus. Und dies bedeutet das Ende dieses Programmes.

Der Aufschrei der Mac-User bzgl. fcp war ja wohl nicht umsonst so laut - auch das musst du jetzt nicht herunterspielen.

Der MacPro lässt die Nutzung des Technisch möglichen nicht zu - wo bei anderen Workstations mehrere CPUs ackern, da ist beim MacPro eben z.B. bei einer schon Schluss.
Dass das Gehäuse im Hochglanz daher kommt, sagt doch zudem schon alles - es passt natürlich dadurch in die Produktline von Apple ...
Wie heißt es hier doch so schön:
"Doch da bei der Kaufentscheidung für Apple-Produkte Kriterien wie "stylisch" und "must have" ausschlaggebend sind, spielt die Ausstattung eher eine untergeordnete Rolle."
http://www.heise.de/newsticker/meldung/ ... 42743.html

Ginge es allein um praktischen Nutzen, könnte man die schicken Tablets doch auch zur Mediensicherung oder als Vorschaumonitor nutzen - aber das bleibt einem natürlich trotz Rechenleistung und tollen Displays versagt.



Antwort von cantsin:


Nö. Nix wird intern umgerechnet. Sag mal, du hast das Programm doch benutzt? Zuerst wird alles erst einmal nativ abgespielt (einige Formate brauchen dazu ein QT-Plugin, das ist ja bekannt). Dann, beim Import, hast du die Möglichkeit, im Hintergrund in optimierte Medien zu wandeln (=ProRes),
Ja, stimmt. Meine FCPX-Erinnerung lässt langsam aber deutlich nach. Ich hatte mit FCPX nie in nativen Formaten geschnitten, weil mein Rechner dafür zu langsam war.

Ich würde mich aber sowieso nie auf die Materialorganisation eines Bearbeitungsprogramms einlassen, weil man sich damit zum Systemgefangenen macht.

Die anderen NLEs haben keine Materialorganisation.
Stimmt. Ich sehe es aber als ein großes Risiko an, Materialorganisation einem NLE zu überlassen. Genausowenig würde ich Dokumentenorganisation meinem Textverarbeitungsprogramm überlassen oder Organisation von Bilddateien einem Bildverarbeitungsprogramm. Deswegen hatte ich ja das Aperture-Beispiel gebracht. Wer da viel Zeit und Aufwand investiert hat, um darin seine Photos zu organisieren und verschlagworten, hat diese Arbeit umsonst gemacht. (Spätestens wenn ApertureAperture im Glossar erklärt auf zukünftiger Hardware nicht mehr läuft oder sich auf einem neuen Mac nicht mehr aus dem App Store installieren lässt.)
Ich würde sowas mit proprietärer Software nur machen, wenn die sich (a) an offene Standards hält (wie z.B. EXIF oder normierte XML-Metadatenformate) oder (b) der Hersteller eine Roadmap und Mindestgarantie für die Nutzbarkeit der Software liefert. Völlig egal, ob der Hersteller Apple oder anders heisst.



Antwort von WoWu:

Das war einer, der ganz wesentlichen Gründe, warum wir (damals) gegen FCP entschieden haben, weil auch für externe Content Management Systeme keine Schnittstelle vorhanden ist und alles in dem proprietären Archivformat vorliegen muss. Auch das Einpflegen vorhandenen Materials ist in FCPx nicht ohne weiteres möglich, von Metadaten ganz zu schweigen.
Das ist wirklich ein kleiner "Stabilbaukasten". Mehr aber auch nicht und ich möchte auch nicht wissen, was mit Informationen geschieht, wenn man mal (z.B.) ein anderes NLE System darauf zugreifen lassen muss, weil man z. B. wechselt ... aber das ist wahrscheinlich auch die Absicht dahinter.



Antwort von motiongroup:

Sag mal was ist mit dir los iasi, hier spielt keiner was herunter noch hinauf..

Die Entwicklung wird eingestellt Punkt.. Fcp wurde eingestellt Punkt. fcpx wurde als Nachfolger eingeführt Punkt. Combustion wurde eingestellt PUNKT , Shake wurde eingestellt PUNKT.. Encore eingestellt PUNKT, FAST Blue, Silver Purple eingestellt PUNKT. Cinegy extremePro eingestellt PUNKT, media 100 cinestream3.0 eingestellt PUNKT , Discreet Edit eingestellt PUNKT

Den selben shitstorm gab's bei der Umstellung von Premiere 6.5 auf PremPro

Und nun kommst du und erklärst das oooohne Multicpu und MultiGPU kein Krieg zu gewinnen ist .... Und auf der anderen Seite ein Compositing Sequence Supervisor bei Double Negativ am neuen Interstelar vom Nolan arbeitend in teilweise 8k auf i7 linux workstations ihr Auslangen finden müssen unter nukex, maya, renderman und mantra Einbindung ..

Alles klar ich weis was ich davon zu halten habe.. Wusste ich aber schon als von unserem workstation Spezi Numero UNO in einem anderen Forum leidenschaftlichen Ausführungen den Niedergang von Apples mobile Sparte prophezeite nur weil Flash bei Apple ausgesperrt ist und Windows und android durch die Flashunterstützung die Burner der Zukunft sind und wies der Teufel will Flash ab Kitkat ausgesperrt wurde..

Passt schon iasi.. Weitermachen



Antwort von iasi:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

Und nur weil auch andere Software eingestellt wurde, ändert es doch nichts daran, dass Apple mit ApertureAperture im Glossar erklärt Schluss macht und stattdessen eine Foto-App bringt.

Dass Arri gerade auf Apple setzt, verwundert mich nicht - es geht eben bei XQ eben darum "in" zu sein. Da kann man dann die Brust rausstellen und sich vom üblichen ProResProRes im Glossar erklärt abheben, muss sich aber nicht mit Raw befassen.

Ein Nolan hat in seinem Büro sicherlich einen Apfel-Eimer stehen und schaut sich darauf Sachen an - das gehört sich schließlich so, wie eben auch das iPhone in der Jackentasche.



Antwort von motiongroup:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

Und nur weil auch andere Software eingestellt wurde, ändert es doch nichts daran, dass Apple mit ApertureAperture im Glossar erklärt Schluss macht und stattdessen eine Foto-App bringt.

Dass Arri gerade auf Apple setzt, verwundert mich nicht - es geht eben bei XQ eben darum "in" zu sein. Da kann man dann die Brust rausstellen und sich vom üblichen ProResProRes im Glossar erklärt abheben, muss sich aber nicht mit Raw befassen.

Ein Nolan hat in seinem Büro sicherlich einen Apfel-Eimer stehen und schaut sich darauf Sachen an - das gehört sich schließlich so, wie eben auch das iPhone in der Jackentasche.

Das fasst in etwa das zusammen was ich vorher angesprochen habe.. Alles klar.....



Antwort von Axel:

Die anderen NLEs haben keine Materialorganisation
Stimmt. Ich sehe es aber als ein großes Risiko an, Materialorganisation einem NLE zu überlassen.

Du hattest deine Gründe, von FCP zu Adobe zu wechseln.

Das war einer, der ganz wesentlichen Gründe, warum wir (damals) gegen FCP entschieden haben, weil auch für externe Content Management Systeme keine Schnittstelle vorhanden ist und alles in dem proprietären Archivformat vorliegen muss. Auch das Einpflegen vorhandenen Materials ist in FCPx nicht ohne weiteres möglich, von Metadaten ganz zu schweigen.

Stichwort Roadmap: Eine offizielle gibt es vielleicht nicht, aber mit 10.1.2 kann das Problem der so genannten "proprietären" Materialorganisation als beantwortet gelten. Hatte ich mich weiter oben über den Sinn von "Finder-Tags" gewundert, wo doch FCP X selbst bestens geeignet ist, hereinkommendes Footage nicht nur zu verschlagworten (zweiter Schritt), sondern auf Volumes zu verteilen und Backups zu erstellen, wird jetzt in Kombination mit der neuerdings von der Mediathek völlig befreiten Speicheroption ein Schuh daraus. FCP X übernimmt die händische Vorsortierung in Finder-Ordnern. Weiß ich, dass das Material in anderen Programmen - oder, was das betrifft, auf einer anderen Plattform - weiter verarbeitet werden muss, habe ich eben in meiner Mediathek nur noch Verweise auf die Originale. Und kann trotzdem, für den reinen Schnitt, Clips weiterhin taggen, synchronisieren, compounden. Für Resolve und ProTools sind brauchbare Übergabeprotokolle vorhanden, der Rest entzieht sich meiner Kenntnis. Diese sind gewiss nicht vergleichbar mit Adobes Dynamic Links (iasi erwähnte Premiere und Speedgrade), aber wenn man auf der einen Seite positive Alleinstellungsmerkmale als proprietären Quatsch bezeichnet, muss dies auch umgekehrt gelten. Bridge nützt mir in Resolve nix mehr, und ehrlich gesagt, der nackte, seit Jahrzehnten bestehende Finder kann Footage mindestens so gut organisieren wie die ganze Prelude-Anwendung, wenn es um eine Sortierung "für Außenstehende" geht (bzw. könnte es, immer vorausgesetzt, das jeweilige Material kann von der Vorschau auch geöffnet werden).

Deswegen hatte ich ja das Aperture-Beispiel gebracht. Wer da viel Zeit und Aufwand investiert hat, um darin seine Photos zu organisieren und verschlagworten, hat diese Arbeit umsonst gemacht. (Spätestens wenn ApertureAperture im Glossar erklärt auf zukünftiger Hardware nicht mehr läuft oder sich auf einem neuen Mac nicht mehr aus dem App Store installieren lässt.)
Ich würde sowas mit proprietärer Software nur machen, wenn die sich (a) an offene Standards hält (wie z.B. EXIF oder normierte XML-Metadatenformate) oder (b) der Hersteller eine Roadmap und Mindestgarantie für die Nutzbarkeit der Software liefert. Völlig egal, ob der Hersteller Apple oder anders heisst.

Von praktisch allen iLife-artigen Apple-Apps gibt es Klone. iTunes, iPhoto. Sie sind nicht schlechter als die Originale, haben aber einen Nachteil für Apple-Nutzer: Sie synchronisieren sich nicht untereinander. Der ganze Schicki-Micki-Kram ist nicht vernetzt, iPhones, iPods, iPads, MacBooks und iMacs. Jedem das Seine.

Das ist proprietär, ohne Frage. Ich selbst nutze es nur teilweise, finde es aber praktisch. Man kann Apple-Geräte, auch iPhones, mit kleinen Desktop-Apps im Festplattenmodus nutzen und Musik, Bilder, Kontakte und Videos von Hand irgendwo reinkopieren. Aber erstens schätze ich (noch nie ein Android benutzt), dass es vergleichbare Synchro-Tools überall gibt und zweitens ist das die Aufregung nicht wert.

Auch woanders erleben wir, dass Software nicht weiterentwickelt wird. Was für ein höhnisches TamTam, als DVD-Authoring von Apple eingestellt wurde! DSP lässt sich aber in mittlerweile drei neueren Betriebssystemen weiterhin nutzen, und dass CC kein Encore mehr enthält, wird von Adobe-Nutzern in deren Foren lapidar beantwortet mit: Benutz halt das aus CS6 weiter.

Aperture ist vielleicht noch am ehesten ein "iPhoto Pro", wobei ich mir einerseits nicht vorstellen kann, dass jemals ein Fotograf es als Alternative zu Photoshop gesehen hat und zweitens nicht, dass "Photos" die Aperture-Bibliotheken nicht übernimmt.



Antwort von motiongroup:

http://alex4d.com/notes/item/fcpx-10-1- ... -workflows

Von Alex Golner übersichtlich zusammengestellt...



Antwort von DV_Chris:

@motiongroup:

Media 100 ist nicht eingestellt. Media 100 gehört jetzt BorisFX. Was fast schon rührig ist, denn der Gründer von Boris hat als Media 100 Mitarbeiter begonnen.

http://www.borisfx.com/media100/



Antwort von motiongroup:

http://en.m.wikipedia.org/wiki/EditDV

Media 100 editDV aka cinestream ist wirklich tot... Ich und Marco hatten es lange genug in Verwendung..

Ebenso wie speedrazor und Blade.. Ich hab noch beide Schachteln im Keller wie auch die Storm 2 , eine fastAVmaster ne pinnacle Dv500, ne matrox G Auswahl usw usw.. Tote Geleise.. Wie sagt man so schön Beerdigt..

Ach ja weil Begräbniszeit zu sein scheint...

http://futurezone.at/apps/google-stellt ... 72.657.356

Ich muss sofort mein asus phonepad der Verbrennung zuführen.....



Antwort von thyl:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

.

Das finde ich etwas übertrieben. Immerhin gibt es ihn mit 2 Tahiti XT und einer 12-Core CPU a 2.7 GHz. Damit reicht im CPU-Bereich die Rechenleistung bis zu etwa 45-50% von dem, was zB mit Dual-Prozessor-Systemen möglich wäre. Aber ob man 24 Kerne mit der meisten Software ausreizen könnte? Und so richtig gefunden habe ich auch gerade nix mit 24 Kernen, mh. Das gibt es bestimmt, aber schon komisch.



Antwort von iasi:

FCPx?
Ich erinnere mich an ziemliche Verärgerung bei den Apple-Usern.

MacPro?
Hier bedient Apple nur noch das untere Workstation-Leistungssegment.

.

Das finde ich etwas übertrieben. Immerhin gibt es ihn mit 2 Tahiti XT und einer 12-Core CPU a 2.7 GHz. Damit reicht im CPU-Bereich die Rechenleistung bis zu etwa 45-50% von dem, was zB mit Dual-Prozessor-Systemen möglich wäre. Aber ob man 24 Kerne mit der meisten Software ausreizen könnte? Und so richtig gefunden habe ich auch gerade nix mit 24 Kernen, mh. Das gibt es bestimmt, aber schon komisch.

na ja ... es geht eben durchaus auch noch mehr
http://www.anandtech.com/show/7757/quad ... 20-threads



Antwort von DV_Chris:

http://en.m.wikipedia.org/wiki/EditDV

Media 100 editDV aka cinestream ist wirklich tot... Ich und Marco hatten es lange genug in Verwendung..

Das sage ich gleich dem Boris ;-)

Ich denke, dass Features wie

•Support for dozens of video standards in SD, HD, 2K, and 4K resolutions at rates from 23.98 to 60 FPS.

•Work with native 2K and 4K REDCODE (R3D) media in real-time without transcoding. A smooth and simple workflow for shops that shoot in 4K and deliver in HD.

klar gegen den Tod einer Software sprechen. Media 100 und Avid haben sich lange den Markt unter sich aufgeteilt.



Antwort von motiongroup:

Wird nichts daran ändern...cinestream aka editDv und die ganzen anderen anderen Tools wie rotoDV kamen von Radius/Digital Origin zu media 100 und wurden an Discreet weitergegeben um dann unter autodesk komplett eingestampft zu werden.. Von Radius gab's sogar ne eigene proprietäre FireWire Card die unter NT4.0 lief und zwar anders als die TI basierenden Karten wie die von bspw EXsys....

http://www.amazon.com/MEDIA-100-23130-C ... B00005A1P7

http://www.epi-centre.com/reports/9801cs.html

http://www.hidefproductions.net/VideoVision.html



Antwort von Frank Glencairn:

ich sage nur Tesla, ...

Kann der jetzt auch ProResProRes im Glossar erklärt XQ?



Antwort von Jan Reiff:

Exakt



Antwort von Frank Glencairn:



Genau. Weshalb nicht? Ich zitiere sinngemäß Michael Cioni: Klassische NLEs sind Timelines mit einer Pfadliste zu den Medien, FCP X ist ein zentraler Medienorganisator, der obendrauf noch eine TimelineTimeline im Glossar erklärt hat.

Wenn ich das native Material nicht mit FCP X organisieren kann, fallen 90% der Vorteile unter den Tisch.

Michael "Hoffsteadter" Cioni redet oft ne Menge Mist, wenn er damit seine Produkte pushen kann - was ich ihm nicht verüble, er muß halt seinen Laden umtreiben. Aber man darf deshalb nicht alles für Gottes Wort nehmen, was er sagt.

Nur dadurch das man ein paar Worte für einen griffigen Marketing Satz umstellt, wird der Blödsinn auch nicht zur Wahrheit.

FCPX organisiert gar nix, das muß man wie bei jedem anderen Programm schon selber machen. Wenn ich mich hinsetze und bei Premiere oder Resolve die zig Metadatenfelder ausfülle, dann kann ich meine Clips auch nach unzähligen Kriterien filtern und damit "organisieren lassen"

Ich weiß nicht, ob irgendjemand bei einer großen Produktion nochmal einen Praktikanten abstellt, der die Proxies in den bereits von Resolve erstellten Ordnern zusätzlich aufwändig sortiert, ich jedenfalls erspare mir das..

Ja, das nennt sich Schnittassistent und ist seit ungefähr 100 Jahren die Regel. Resolve erstellt selber gar keine Ordner (außer dem Masterordner) den Rest kannst du dir einrichten wie du lustig bist - Handbuchlesen hilft.


Was lese ich daher in diversen Foren? In Resolve werden keine Proxies geliefert, sondern weitgehend fertig gegradete ProResHQs oder ProRes4444s. Man gleicht den Rest in FCP X noch ein bisschen aneinander an. Wow, was für ein windschnittiger Workflow!

.

Selten so einen Blödsinn gelesen - selbstverständlich liefert Resolve Proxies. Immer schon. Auch hier - Handbuch lesen.

Premiere macht es vor: Native Formatunterstützung (

Premiere hat nur eine sehr eingeschränkte unterstützung von DNG raw. RedRaw dagegen geht sehr gut.

Was heißt das? Ich kann nicht mit komprimierten DNGs einen Schnitt (ohne Titel, Effekte, etc) machen, dann ein XML nach Resolve schicken, komplett graden, in (ähm, ja, was nehme ich für Windows statt ProRes?) irgendwas Solides rendernrendern im Glossar erklärt, wieder XML zurückschicken und in Premiere onlinen?

Selbstverständlich, das ist der ganz normale Workflow.



Antwort von Frank Glencairn:



Ebenso wie speedrazor und Blade.. ....

Ach ja Speedrazor - der hatte die FCPX TimelineTimeline im Glossar erklärt schon vor 12 Jahren.



Antwort von Axel:

FCPX organisiert gar nix, das muß man wie bei jedem anderen Programm schon selber machen. Wenn ich mich hinsetze und bei Premiere oder Resolve die zig Metadatenfelder ausfülle, dann kann ich meine Clips auch nach unzähligen Kriterien filtern und damit "organisieren lassen"

Stimmt genauso wenig wie deine damalige Behauptung, FCP X habe Spuren. FCP X organisiert von dem Moment an, wo ich eine Festplatte/Karte anschließe. Es lässt mich festlegen, ob und wenn wohin ich alles kopiere, es legt im Hintergrund Ordner und Unterordner an (kann man sich später programmextern interessehalber mal angucken, eine so komplexe Medienverwaltung würde man mit Premiere nie machen). Nun ist unser Problem, dass du nicht fit in FCP X bist und ich nicht in Premiere. Sagen wir darum um des Friedens willen, Premiere hat nachgebessert und sein Taggingsystem modernisiert.

Ich weiß nicht, ob irgendjemand bei einer großen Produktion nochmal einen Praktikanten abstellt, der die Proxies in den bereits von Resolve erstellten Ordnern zusätzlich aufwändig sortiert, ich jedenfalls erspare mir das..

Ja, das nennt sich Schnittassistent und ist seit ungefähr 100 Jahren die Regel. Resolve erstellt selber gar keine Ordner (außer dem Masterordner) den Rest kannst du dir einrichten wie du lustig bist - Handbuchlesen hilft.

Soll dieser Schwachsinn denn auch die nächsten 100 Jahre nötig sein? Bei Resolve meinte ich Zielordner für Delivery, z.B. "Proxies".

Das ist es ja. Bei jedem Bearbeitungsschritt en detail sagen die Nicht-FCP Xler, ooch, das ist aber eigentlich nicht so nötig, haben wir die letzten 100 Jahre auch nicht gebraucht.

Was lese ich daher in diversen Foren? In Resolve werden keine Proxies geliefert, sondern weitgehend fertig gegradete ProResHQs oder ProRes4444s. Man gleicht den Rest in FCP X noch ein bisschen aneinander an. Wow, was für ein windschnittiger Workflow!

Selten so einen Blödsinn gelesen - selbstverständlich liefert Resolve Proxies. Immer schon. Auch hier - Handbuch lesen.

Nein, Frank, genauer lesen. Ich kritisierte FCP X, das mit DNGs einen Proxy-Workflow mit Resolve eigentlich nötig macht, aber einige (langes Fädchen, faules Mädchen) dazu verführt, in Resolve lediglich Raw zu "entwickeln" - zu ProResHQ oder 4444.



Antwort von Frank Glencairn:



Stimmt genauso wenig wie deine damalige Behauptung, FCP X habe Spuren.

FCPX hat immer noch Spuren, nur hat Apple ihnen einen anderen Namen gegeben, aber das Wording ändert nix an den Tatsachen, auch wenn du dich auf den Kopf stellst.

Stimmt genauso wenig wie deine damalige Behauptung, FCP X habe Spuren. FCP X organisiert von dem Moment an, wo ich eine Festplatte/Karte anschließe. Es lässt mich festlegen, ob und wenn wohin ich alles kopiere, es legt im Hintergrund Ordner und Unterordner an (kann man sich später programmextern interessehalber mal angucken, eine so komplexe Medienverwaltung würde man mit Premiere nie machen).

Genau wie Premiere.
Wie komplex du deine Medianverwaltung ist und wie du deine Unterordner anlegst, ist dein Privatvergnügen.
Weil ich mit anderen (VFX usw) zusammenarbeiten muß, bestimme ich lieber selbe was genau in welchem Ordner liegt (ich hab verschiedene Templates dafür), das ist aber nicht für jeden nötig.

Premiere hat nachgebessert und sein Taggingsystem modernisiert.

Premiere hat seit zig Versionen gefühlte 500 Tagging Felder - die meisten wissen das bloß nicht weil sie es nicht brauchen, keinen Bock haben das Zeug auszufüllen oder einfach das Handbuch nicht lesen.



Antwort von Jott:

Déjà-vu.

fcp x: für Neueinsteiger easy, intuitiv und rasend schnell, für alte Sä.. -äh, Hasen unzugänglicher Unfug, der völlig überflüssig mit Cutter-Traditionen bricht.

So wie sich der eine in verquasten Diskussionen um Bittiefen und Banding verliert, legt der andere mit zwei verlachten C300 (interne 8-Bit-MPEG 2-Aufzeichnung, nix externes Geraffel!) einen schön gegradeten (geht doch gar nicht!) Spielfilm hin, der eine goldene Palme und viel sonstigen Glitzerkram absahnt.

Jeder findet sein Glück.



Antwort von Axel:

... legt der andere mit zwei verlachten C300 (interne 8-Bit-MPEG 2-Aufzeichnung, nix externes Geraffel!) einen schön gegradeten (geht doch gar nicht!) Spielfilm hin, der eine goldene Palme und viel sonstigen Glitzerkram absahnt.

Interessant. Wer wo was?



Antwort von cantsin:


Interessant. Wer wo was?
La vie d'Adèle/Blue Is the Warmest Color



Antwort von Jott:

Yep:
http://www.fdtimes.com/2013/05/28/canon ... in-cannes/

Zeigt, wie sinnlos es ist, sich über Werkzeuge zu streiten. Oder zu meinen, ohne "den Dragon" könne man sein Kurzfilmchen nicht gebacken kriegen und mit so was wie ProResProRes im Glossar erklärt im Weg (igitt, Apple!) schon gar nicht.



Antwort von Frank Glencairn:

Déjà-vu.

fcp x: für Neueinsteiger easy, intuitiv und rasend schnell, für alte Sä.. -äh, Hasen unzugänglicher Unfug, der völlig überflüssig mit Cutter-Traditionen bricht.

.

Diese "Neueinsteiger" sind halt meistens One-Man-Shows, die vom DSLR filmen kommen und noch nie mit einem großen Team in Arbeitsteilung gearbeitet haben.

Mit welcher "Cutter Traditionen" FCPX angeblich brechen soll kann ich nicht sehen.
Cutten findet nach wie vor im Kopf des Cutters statt, das Werkzeug ist dabei völlig zweitrangig. Solange es einen Clip auseinander schneiden kann und an einer anderen Stelle wieder zusammenkleben, kann man jeden Blockbuster damit herstellen. Alles andere ist Marketing.

So wie sich der eine in verquasten Diskussionen um Bittiefen und Banding verliert, legt der andere mit zwei verlachten C300 (interne 8-Bit-MPEG 2-Aufzeichnung, nix externes Geraffel!) einen schön gegradeten (geht doch gar nicht!) Spielfilm hin, der eine goldene Palme und viel sonstigen Glitzerkram absahnt.

.

Sag ich doch schon die ganze Zeit, so ziemlich alle aktuellen Kameras sind gut genug für alles - Story und das persönliches Können ist alles was zählt.

Ich hab gerade auf meiner FS100 in der Ägyptischen Wüste gedreht - ist halt ein anderes arbeiten als mit raw, sieht aber trotzdem klasse aus, wenn man weiß weiß man tut.



Antwort von Jott:

Tageslaune?

Irgendwas in einem Long GOP codec aufzunehmen ist in meinen Augen sowieso bizarr.

Ansonsten:

Diese "Neueinsteiger" sind halt meistens One-Man-Shows, die vom DSLR filmen kommen und noch nie mit einem großen Team in Arbeitsteilung gearbeitet haben.

Ja eben! Die sind unbelastet und werden massiv davon profitieren, nicht die eingefahrenen Abläufe der "Alten" aufgezwungen zu kommen. Auch du warst mal Neueinsteiger, oder? Als ich angefangen hatte, war ein "AVID" so was wie vielleicht heute fcp x. Mann, was hatten sie alle gelacht, als der doofe Jott sich in 1991 einen hingestellt hatte! Jahrelang! Und sie hatten nichts kapiert. Das soll schneller gehen als mit MAZen? Mit einer Maus statt BVE 900? Prust!

Lass sie nur machen, die DSLR-Neueinsteiger. Da gibt's verdammt gute drunter. Selbst Daimler beschäftigt welche für seine Kommunikation. Zum Beispiel. Und die Resultate knallen.



Antwort von Frank Glencairn:

Nicht mit einem Samurai hinten dran ;-)

Auch wenn nur 8 bit aus der FS100 kommen.



Antwort von Jott:

Vor drei Jahren hatte dir noch der Long Gop-Bordcodec der FS100 gefallen, da war's noch nicht bizarr. Aber man wächst mit seinen Aufgaben.

http://frankglencairn.wordpress.com/201 ... hing-else/

Und ja: Können und Story schlagen Technikergeschwafel immer in die Flucht.



Antwort von Frank Glencairn:

da hatte ich auch noch kein raw-Blut geleckt



Antwort von Axel:

Blue hab ich im Kino verpasst, sieht gut aus.

Sag ich doch schon die ganze Zeit, so ziemlich alle aktuellen Kameras sind gut genug für alles - Story und das persönliches Können ist alles was zählt.

Amen. Ich stimme dir aus vollem Herzen zu. In einem Thread, in dem es um heikle technische Finessen und minimale Qualitätsunterschiede diverser Kameras ginge, wäre dieser Spruch aber nervig und völlig off topic.

Cutten findet nach wie vor im Kopf des Cutters statt, das Werkzeug ist dabei völlig zweitrangig. Solange es einen Clip auseinander schneiden kann und an einer anderen Stelle wieder zusammenkleben, kann man jeden Blockbuster damit herstellen. Alles andere ist Marketing.

Und in einem Thread, in dem es um minimale Änderungen einer (je nach Auffassung) randständigen Schnittsoftware geht und der von null Allgemeininteresse ist, mit diesem göttlichen wahren Spruch zu kommen ...

Typisch, wenn denen, deren Angriffsargumente soeben sämtlich widerlegt wurden, nun keine mehr einfallen. Das Totschlagargument. FCP X ist nicht so schlecht? Okay, aber was soll's, man kann doch mit allem schneiden. Sammle was rar ist, nimm was da ist, sag was wahr ist!

Übrigens, ich habe eine der Stellen gefunden, in der der oben von mir erwähnte Workflow steht, in Resolve überhaupt nicht zu graden, sondern bloß die DNGs zu entwickeln und in FCP X zu schneiden und zu graden, hier.

Hier der Workflow:

POST PRODUCTION

Editing is where run-and-gun raw really gets difficult. Raw files are huge, requiring huge hard drives to store the files and fast CPU’s to decode them. Plus, Magic Lantern Raw requires several steps of transcoding to be editable: first from Raw to CinemaDNG, then to ProResProRes im Glossar erklärt or similar for actual editing. Many people will then round-trip their files back to CinemaDNG for final color grading.

Note: Adobe Premiere has support for natively editing CinemaDNG files, but I have heard it is plagued with bugs.

My workflow is as simple as possible: transcode to ProResProRes im Glossar erklärt HQ via DaVinci Resolve, then edit and color grade in FCP X. No After Effects, no ACR, no round-tripping back to Resolve. With real-time shape and color masking, FCP X can be quite robust for color grading.

Wie der Name der Seite sagt, ein Run-Gun-Shooter, eine One-Man-Show, keine Zeit, in dem (was die Werkzeuge betrifft) eigentlich viel besseren Resolve zu graden, und trotzdem vorzeigbare Ergebnisse:


Ein Neueinsteiger ist es auch nicht, er lebt seit sechs Jahren von der Videografie ("About").

Avid ist anscheinend mehr etwas für die großen Firmen, bei denen bis in die Puppen Praktikanten Material organisieren und (etwa im Studio London) eine Sparbüchse in der Kantine steht, in die jedesmal ein Penny kommt, wenn jemand FCP X sagt oder einen Schluckauf hat.*¹

Adobe, der hundertfach runderneuerte Leasing-Allwetterreifen, kommt wahrscheinlich all denen intuitiv und effektiv bedienbar vor, die ihre Socken zu bügeln pflegen.*²

*¹*² Ist nur Spaß. Was sich liebt, das neckt sich ...



Antwort von Frank Glencairn:



Typisch, wenn denen, deren Angriffsargumente soeben sämtlich widerlegt wurden, nun keine mehr einfallen. Das Totschlagargument. FCP X ist nicht so schlecht? Okay, aber was soll's, man kann doch mit allem schneiden. Sam

Ich hab doch nicht mit "dem brechen von Cutter Traditionen" angefangen und die Antwort auf, was denn da brechen soll hab ich auch noch nicht bekommen.


Magic Lantern Raw requires several steps of transcoding to be editable: first from Raw to CinemaDNG, then to ProResProRes im Glossar erklärt or similar for actual editing....

My workflow is as simple as possible: transcode to ProResProRes im Glossar erklärt HQ via DaVinci Resolve, then edit and color grade in FCP X.

Spätestens da hat er sich komplett disqualifiziert.

Der hat nur ein 15" Laptop ohne kalibrierten externen Monitor, mit dem er "on the run" im Starbucks arbeiten muß - natürlich - der kann mit sowas gar nicht in Resolve graden, selbst wenn er wollte.

smaller. better. cheaper. faster.

was soll man da noch sagen?

Sorry, aber eindeutig Prädikat "Nicht Satisfaktionsfähig



Antwort von Axel:

My workflow is as simple as possible: transcode to ProResProRes im Glossar erklärt HQ via DaVinci Resolve, then edit and color grade in FCP X.

Spätestens da hat er sich komplett disqualifiziert.

smaller. better. cheaper. faster.

was soll man da noch sagen?

Sorry, aber eindeutig Prädikat "Nicht Satisfaktionsfähig

Er hat 8-bit als Zielformat. Er hat ML Raw als Ausgangsformat.

Hmmm ...

Ich kann erst seit knapp einem Monat Raw in Resolve bearbeiten (größere GraKa).

Jetzt lehne ich mich aus dem Fenster, weiß ich, aber ich persönlich glaube, dass es ein Mythos ist, dass Raw > 8bit und Raw > ProResProRes im Glossar erklärt 10bit > 8bit einen signifikanten Unterschied bedeuten (ich erwartete, dass der Unterschied von Pocket-ProRes zu Raw größer wäre, in Bezug sowohl auf Bearbeitungsoptionen als auch sichtbare Qualität. Mit ACR bearbeite ich seit Jahren Fotos in Raw). Für einen nicht satisfaktionsfähigen Stümper? Ganz genau. Wie auch für den erfahrensten Coloristen.

Warum er nicht den Roundtrip macht? Vielleicht hat er gemerkt, dass die Qualitätsvorteile zu vernachlässigen sind, bzw. nicht erkennbar?

Weil er ein solcher Resolve-Stümper ist?

Das kann sein (der Clip sieht zwar m.E. sehr gut aus, wir wissen aber nicht, was genau davon Raw war und was RX100 bzw. GoPro). Nun haben wir das nächste Problem: Da ich selbst eingestandenermaßen kein Resolve-Experte bin, kann ich meine Behauptung (ohnehin bewusst provokativ) nicht beweisen, sondern muss die Experten bitten, sie zu widerlegen.



Antwort von Frank Glencairn:

Ich hab nicht gesagt daß er ein Resolve Stümper ist, aber mit der Hardware geht's halt nicht.

Und ja, selbstverständlich machst du deine FarbkorrekturFarbkorrektur im Glossar erklärt im original raw Material, weil raw zu drehen sonst keinen Sinn macht, wenn du - aus reiner Bequemlichkeit (oder weil sein "schnell-billig-klein Dogma das nicht zulässt) das Potential von raw nicht ausschöpfen willst, und am ende doch wieder mit hoch komprimierten lowbit Material arbeitest.

Und wie soll er den auf seinem billigen 8bit Laptop Monitor irgendwelche "signifikanten Unterschiede" erkennen? Das Teil kann die Unterschiede halt einfach nicht mehr darstellen.



Antwort von WoWu:

first from Raw to CinemaDNG, then to ProResProRes im Glossar erklärt or similar for actual editing. Many people will then round-trip their files back to CinemaDNG for final color grading.
Wahrscheinlich hat der Autor noch gar nicht mitbekommen, dass CineDNG lediglich ein Container aber kein CodecCodec im Glossar erklärt ist und dass man in CineDNG auch die original RAW Daten ablegen kann, um daraus hinterher das Original zu rendern. Natürlich kann man auch mit dem Proxy hinterher ein original machen, nur dass das ein komisches Verständnis ist, wenn ich es auch aus Originalmaterial fertigen kann.
My workflow is as simple as possible: transcode to ProResProRes im Glossar erklärt HQ via DaVinci Resolve, then edit and color grade in FCP X. No After Effects, no ACR, no round-tripping back to Resolve. With real-time shape and color masking, FCP X can be quite robust for color grading.
Tja und irgendwann, spätestens beim Kunden wird der Roundtrip dann durchgeführt denn ich kenne keine Set Top Box, die ProResProRes im Glossar erklärt dekodieren kann.

Also doch Round Trip.
Der Autor hat nur zu früh aufgehört zu denken.



Antwort von Axel:

Und wie soll er den auf seinem billigen 8bit Laptop Monitor irgendwelche "signifikanten Unterschiede" erkennen? Das Teil kann die Unterschiede halt einfach nicht mehr darstellen.

Ein guter Einwand, der zu dem passt, was ich vor Jahr und Tag über das Consumerzeugs (8-bit, von mir), das ich selbst als digitaler Filmvorführer auf großer Leinwand im Vergleich sah und von dem ich nicht in der Auflösung, sondern in der Farbdarstellung enttäuscht war.

Wer allerdings weder für TV noch für Kino dreht, wird zu guter Letzt in 8-bit bleiben.

Wäre also z.B. für mich ein 10-bit-Monitoring nicht akademisch?

Und wenn nicht, was wäre die günstigste vertretbare Lösung für Resolve? Eine Decklink Mini Monitor-Karte und ein 10-bit-fähiger Monitor über HDMI? Reichte das?

first from Raw to CinemaDNG, then to ProResProRes im Glossar erklärt or similar for actual editing. Many people will then round-trip their files back to CinemaDNG for final color grading.
Wahrscheinlich hat der Autor noch gar nicht mitbekommen, dass CineDNG lediglich ein Container aber kein CodecCodec im Glossar erklärt ist und dass man in CineDNG auch die original RAW Daten ablegen kann, um daraus hinterher das Original zu rendern. Natürlich kann man auch mit dem Proxy hinterher ein original machen, nur dass das ein komisches Verständnis ist, wenn ich es auch aus Originalmaterial fertigen kann.
My workflow is as simple as possible: transcode to ProResProRes im Glossar erklärt HQ via DaVinci Resolve, then edit and color grade in FCP X. No After Effects, no ACR, no round-tripping back to Resolve. With real-time shape and color masking, FCP X can be quite robust for color grading.
Tja und irgendwann, spätestens beim Kunden wird der Roundtrip dann durchgeführt denn ich kenne keine Set Top Box, die ProResProRes im Glossar erklärt dekodieren kann.

Also doch Round Trip.
Der Autor hat nur zu früh aufgehört zu denken.

Es ist ein überall empfohlener Workflow, mit Resolve einen mehrfachen Roundtrip (wobei du sonst mit Roundtrip 8bit>10bit>8bit zu meinen scheinst) zu machen. Nehmen wir 14-bit ML Raw mal als Beispiel.

1. Das Material wird in Resolve importiert und dort mit einem LUT normalisiert und evtl. leicht angegradet.

2. Es wird clipweise als Proxy für den Schnitt in einem NLE exportiert, für Premiere nimmt man vielleicht, was weiß ich, H.264 in selber Bildgröße und Bildrate, in FCP X etwa ProResLT. Falls das NLE in der Lage wäre, das Raw zu verwenden, könnte man sich den ersten Arbeitsschritt und die Proxy-Wandlung sparen ...

3. Es findet im NLE ein Schnitt ohne Effekte und anderes Gedöns statt, mit den Proxies. Davon wird ein XML exportiert.

4. Das wird in Resolve importiert, und jetzt tauscht man die Proxies mit dem Raw (nur ein Häkchen beim "Conformen"). Man gradet und rendert dann in einen NLE-freundlichen, aber nun hochwertigen Codec. Wieder wird ein XML gesichert.

5. Das Onlinen erfolgt natürlich in diesem CodecCodec im Glossar erklärt, Titel und Effekte kommen noch dazu. Auf Mac wäre dieser CodecCodec im Glossar erklärt üblicherweise ProRes. Nach deiner Auffassung ist die Wandlung von ProResProRes im Glossar erklärt 10-bit des Masters in einen 8-bit Upload-Codec problematisch, aber ein eigentliches Hin&Her gibt es ja gar nicht. Die Farbtiefe wird immer weiter reduziert.



Antwort von iasi:

die Alternative könnte eben auch so aussehen:
1. RedRaw direkt rein in Premiere
2. kompletter Schnitt
3. Grading in Speedgrade
4. und raus damit

1b. wär noch von Premiere aus zu RedcineX und dort Einstellungen vornehmen, die man in Premiere übernimmt.

Da muss nichts gewandelt werden - und irgendwelche XML-Import-Export-Spielchen sind auch nicht nötig.

alle Programme verstehen sich blendend und harmonieren:
- Speedgrade öffnet die Premiere-Timeline
- Premiere übernimmt Speedgrade-looks
- Premiere übernimmt die RedcineX-Einstellungen

Und alles läuft flüssig.

Schade, dass Resolve nicht genauso eingebettet ist, wie Speedgrade oder zumindest RedcineX - denn dann wäre es für mich perfekt.



Antwort von WoWu:

@Axel

Ich bin völlig bei Dir und ein anderer Thread hat es auch wieder gezeigt, dass die unterschiedlichen Systeme, auch (und speziell) wenn man VFX mit einbezieht.
Torsten (otaku) hat das an seinem Workflow einmal sehr deutlich beschrieben.
Wir können also noch lange hin und her diskutieren, es wird, solange es (auch speziell) für RAW keinen Standard oder zumindest einen standardisierten Rahmen gibt, ohne solche qualitativen Zwischenschritte (Verluste) nicht gehen.

Nun gibt es ja mittlerweile neue Versuche, sowas auf die Beine zu stellen, und die, die daran teilnehmen sind mal wieder die üblichen Verdächtigen, auch BMD, aber natürlich leider mal wieder viel zu wenige, als dass es schon jetzt nach einem Erfolg aussieht, weil die "Nabelspieler" die nur ihren eigenen Markt und Profit sehen, mal wieder nicht dabei sind.
Bleibt also zu hoffen, dass Hollywood diesmal mächtig genug ist, es zu richten.

Solange aber werden wir und mit individualisierten Wotkflows rumschlagen müssen und jeder auf seine Hard-und Software angepasste Lösungen zu finden haben.
Insofern gibt es den "Königsweg" auch nicht.
Wir haben damals, nach langen Überlegungen uns auch für eine Lösung entschieden, auch der Hardware angepasst, die so lange wie möglich nur die Metadaten kumuliert hat und das das Rohmaterial bis an den Punkt der Ausbelichtung durchgezogen hat. Allerdings geht das schon nicht mehr, wenn Du VFX dazwischen hast. Auch da besteht also noch Bedarf.
Insofern kann man hier alle möglichen Wege propagieren, ohne dass auch nur einer davon der Königsweg wäre.
Ich halte nur immer einen -nennen wir es mal- "präzisen" Umgang mit dem Material für eine der Voraussetzungen, ohne böse Überraschungen hinterher da zu stehen und vermeide unter alles Umständen die Fallen, die und Softwarehersteller heute vor die Füsse legen.
Manche gehen damit ja ziemlich locker um und es interessiert sie herzlich wenig, was die Software mit ihren Bildern eigentlich macht ... hauptsache hinten kommt ein Bild raus und wenn das auch ihren NLE Monitoren noch passabel aussieht, umso besser.
Mich interessiert mehr, wie das Bild beim Kunden aussieht.



Antwort von iasi:

@Axel

Ich bin völlig bei Dir und ein anderer Thread hat es auch wieder gezeigt, dass die unterschiedlichen Systeme, auch (und speziell) wenn man VFX mit einbezieht.
Torsten (otaku) hat das an seinem Workflow einmal sehr deutlich beschrieben.
Wir können also noch lange hin und her diskutieren, es wird, solange es (auch speziell) für RAW keinen Standard oder zumindest einen standardisierten Rahmen gibt, ohne solche qualitativen Zwischenschritte (Verluste) nicht gehen.

also Adobe ist da schon ziemlich nah dran.

"qualitative Zwischenschritte" gibt es da nicht mehr - zumindest für einige Raw-Formate

After Effekts ist ebenso mit Premiere verknüpft wie Speedgrade.
Premiere-Projekte lassen sich direkt öffnen, bearbeiten und wieder zurück an Premiere geben.
Welche "qualitativen Zwischenschritte" siehst du da also noch?

Bedauerlich ist aber wirklich, dass kein genereller Standard in Sicht ist - wie sollte der auch aussehen?
Die Programme sind derart komplex, dass sie mittlerweile in keinen standardisierten Rahmen mehr passen.



Antwort von WoWu:

also Adobe ist da schon ziemlich nah dran.
Wenn ich an ihre RAW Entwickler denke, sind sie aber meilenweit von Qualität entfernt.



Antwort von Axel:

Dazwischengefragt: Wenn man in Premiere Raw nativ schneidet (evtl. bei nicht direkter Unterstützung auch mit einem PluginPlugin im Glossar erklärt, hieß das für ML Raw nicht Ginger?) und danach nach Resolve schickt, kann man dasselbe auch nach dem Grading wieder zurückschicken? Also ehrlich gesagt würde mir dieser Workflow nicht mehr als sehr problematisch vorkommen. Nur für's Grading kein Dynamic Link, na davon geht die Welt nicht unter.



Antwort von iasi:

also Adobe ist da schon ziemlich nah dran.
Wenn ich an ihre RAW Entwickler denke, sind sie aber meilenweit von Qualität entfernt.
ihre RAW Entwickler?
Welche?



Antwort von Frank Glencairn:

Du renderst das ganze nach der CC aus Resolve raus (als eizelnes File oder einzelne Clips - ganz wie's beliebt) und holst es dir danach wieder in deine NLE.



Antwort von iasi:

Dazwischengefragt: Wenn man in Premiere Raw nativ schneidet (evtl. bei nicht direkter Unterstützung auch mit einem PluginPlugin im Glossar erklärt, hieß das für ML Raw nicht Ginger?) und danach nach Resolve schickt, kann man dasselbe auch nach dem Grading wieder zurückschicken? Also ehrlich gesagt würde mir dieser Workflow nicht mehr als sehr problematisch vorkommen. Nur für's Grading kein Dynamic Link, na davon geht die Welt nicht unter.

Du kommst von Resolve nicht mehr ohne RendernRendern im Glossar erklärt zurück nach Premiere.
Du must aber zuerst mal zurück nach Pemiere, da du die Feinarbeiten in Premiere erst nach dm Grading in Resolve vornehmen kannst.
Und somit renderst du gerendertes Material.

Dieses "Zwischenrendern" fällt mit dem Zusammenspeil von Premier und Speedgrade weg.
Nur ist Speedgrade eben leider nicht auf der Höhe mit Resolve - aus meiner Sicht.

Das "Zwischenrendern" kostet eben leider auch Zeit und Speicherplatz.

Leider wird sich Adobe bzgl. einer Zusammenarbeit mit BMD eher zugeknöpft geben und kaum etwas dafür tun, dass Resolve ähnlich wie Speedgrade Premiere-Projekte direkt und vor allem vollständig öffnen kann.



Antwort von Axel:

Du renderst das ganze nach der CC aus Resolve raus (als eizelnes File oder einzelne Clips - ganz wie's beliebt) und holst es dir danach wieder in deine NLE.

Ach so, na klar, weil Premiere die CC von Resolve nicht nachvollziehen kann. Okay, aber dann ist der Proxy-Workflow auch nicht so viel schlimmer, zu dem ich in FCP X gezwungen bin.

Wäre schön, wenn es eine große Cloud gäbe, in der sich alle intelligente Software trifft und ihre Schnittstellen streichelt. Ne, zu abgedreht.



Antwort von WoWu:

ihre RAW Entwickler?
Welche?
Lightroom z.B.Wäre schön, wenn es eine große Cloud gäbe, in der sich alle intelligente Software trifft und ihre Schnittstellen streichelt. Ne, zu abgedreht.

Dann würden einige Firmen aber ganz schön blass aussehen, weil sie davon leben, dass sie nicht kompatibel sind.



Antwort von Frank Glencairn:

Mein workflow sah bisher so aus:

Alles rein in Reslove - 709LUT über die gesamte TimelineTimeline im Glossar erklärt und als DNX-Proxies rausrendern.

In Premiere schneiden - XML raus

XML in Resolve laden und TimelineTimeline im Glossar erklärt graden - als TIFF/DPX Sequenzen in bester Qualität ausgeben.

Zurück nach Premiere, alles wieder per XML in die TimelineTimeline im Glossar erklärt laden, Titel, Blenden, Firlefanz drauf.

Premiere Projekt in AE aufmachen und als TIFF/DPX Sequenz rausrechnen.

So weit, so gut.

Trotzdem werde ich demnächst mal ein längeres Projekt (90min) komplett in Resolve zu machen. Die Editing Tools sind mittlerweile besser als in Premiere, und die Medienorganisation ist in etwa gleich.

Ich würde dabei allerdings nur einmal Proxies und einmal TIFF rechnen sparen, dafür aber mit dem fehlen von Dynamic Link zu AE und Audition bezahlen.



Antwort von iasi:

ihre RAW Entwickler?
Welche?
Lightroom z.B.

ich dachte wir reden hier über Film und nicht Foto

also der RAW Entwickler für RedRaw kommt von Papa



Antwort von iasi:

Bei Red läuft eine Diskussion über Codecs und Datenmengen

http://www.reduser.net/forum/showthread ... -vs-4K-R3D

"10 bit 4:2:24:2:2 im Glossar erklärt and 12 bit 4:4:44:4:4 im Glossar erklärt HEVC for TV work" wird hier auch gewünscht - und Red sei dran, meint Jarred Land.

Wenn die Datenmenge eine größere Rolle spielt, wäre ein HEVC sicher sinnvoller als ProRes. Andernfalls scheint mir Raw die beste Wahl.
ProRes bewegt sich irgendwie dazwischen.



Antwort von motiongroup:

Hier wird in ersten Ansätzen erklärt was sich generell beim mediamanagement
Geändert hat..
http://www.fcp.co/final-cut-pro/tutoria ... o-x-10-1-2



Antwort von Frank Glencairn:

Hier wird in ersten Ansätzen erklärt was sich generell beim mediamanagement
Geändert hat..
http://www.fcp.co/final-cut-pro/tutoria ... o-x-10-1-2

Cool, jetzt haben sie es endlich so gemacht wie es bei Premiere schon seit zig Versionen ist. Anscheinend hat Apple endlich eingesehen, daß das bisherige (angeblich so überlegene) System nicht so das Gelbe vom Ei war.



Antwort von motiongroup:

Ja ist da wirklich ein Licht am Ende des Tunnels...*gggg mir ist's Wurst und dir muss es Wurst sein zumal du weder mit fcpx arbeitest und Premiere bei dir auf's. Abstellgeleise fährt da du jetzt so oder so alles mit Ressolve umsetzt, was seit der 11 nun dies DIE ultimative Waffe für alles ist....aallles klar..



Antwort von motiongroup:

Teil zwei der Übersicht

http://www.fcp.co/final-cut-pro/tutoria ... o-x-10-1-2

noch ein bisschen mehr davon von alex4d

http://alex4d.com/notes/item/fcpx-10-1- ... -workflows




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Erster Apple ProRes RAW Shoot: Panasonic EVA1, Shogun Inferno und Final Cut Pro X 10.4.1
Adobe Pro Video Apps exportieren Apple ProRes 4444 und 422 jetzt auch unter Windows
Apple Final Cut Pro 10.4 verfügbar mit neuen Grading-Tools, HDR Support u.a.
Apple Final Cut Pro X 10.1.3 Bugfix Update
Final Cut Pro X GH4 UHD zu 1080p Prores 422 HQ
Neue Version von Apple Final Cut Pro X 10.4.1 // NAB 2018
Reloaded: Arri Alexa SXT mit ProRes 4K und Color Engine
Final Cut Pro Schöpfer Randy Ubillos verlässt Apple nach 20 Jahren
Kurznews: ARRI kündigt ALEXA ProRes 3.2K für 4K UHD an
ARRI stellt Alexa Mini vor: 4K Action Cam mit Alexa Sensor
Problem mit Final Cut Pro X
Final Cut Pro X Crop mit Kinobalken
Videoschnitt mit Final Cut Pro X, Macbook Beratung
Neu: Apple Final Cut X 10.2, Motion 5.2 und Compressor 4.2 // NAB 2015
Final Cut Pro X 10.1.4 mit nativem MXF Im-/Export + Bugfixes
Suche: Rechner mit Final Cut Pro 7.0 in Zentral/Ostschweiz
Multiclipping mit untersuch. Videodaten auf Final Cut Pro 7
Final Cut Pro X: Projekt mit anderen teilen möglich?
Erstes Hands On: ARRI ALEXA LF mit Vollformat+ Sensor, neuer LPL Mount & ARRI Signature Primes Objektive
Apple iMac Pro im 4K/5K Performance Test mit ARRI, RED, Canon, Panasonic, Blackmagic u. Sony
Anfänger mit Final Cut Pro X braucht Tipp wegen Tonspur
Final Cut Pro X Projekte in After Effects öffnen mit Automatic Duck //
Update: Final Cut Pro X 10.3.2 mit mehr Responsivität bei großen
Cut with Final Cut Pro X: Second World War Epic Movie 'Unknown Soldier' Breaks Finland Box Office Record.
Kurznews: ProRes 4444 XQ für die Creative Cloud nutzbar machen
Apple MacBook Pro 2018 im 4K Schnitt Performance Test: ARRI, RED, VariCam Material in FCPX, Premiere Pro und Resolve

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
20. Februar - 14. April / Bonn
VIDEONALE.17
26-31. März / Frankfurt am Main
12. LICHTER Filmfest Frankfurt International
10-17. April / Berlin
achtung berlin - new berlin filmfestival
24-28. April / Potsdam - Babelsberg
Internationales Studentenfilmfestival sehsüchte
alle Termine und Einreichfristen