Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Off-Topic-Forum

Infoseite // keine 10-Bit-Darstellung bei Apple - trotz FirePro



Frage von iasi:


aus einem Apfel-Rechner kommen also immer nur 8-bit - mehr muss wohl schlicht nicht sein, in den Augen von Telefon- und Uhrenhersteller Apple ... auch nicht beim Eimer für die Profis:
http://www.heise.de/newsticker/meldung/Bitte-10-Bit-Apple-sperrt-sich-gegen-10-Bit-Farbwiedergabe-2612003.html

Space


Antwort von Peppermintpost:

ohne das ich jetzt den iMer verteiligen möchte, aber war hier auf slashcam nicht noch vor kurzem ein Test der SlashcamRed der sich mit 10 Bit Darstellung auf Windows Rechnern beschäftigt hat, und der zu dem Schluss kam, das 10 Bit zum einen sowieso nur mit Nvidia Quadro Karten funktioniert, die im Prinzip keiner mehr will, und zum anderen, selbst wenn man es mit einer Quadro baut, dann ist der Unterschied nicht wirklich sichtbar?
Aber wie dem auch sei. Was Heise natürlich verschweigt ist, das zum einen die meisten Computer Displays nicht wirklich 10 Bit können, und zum anderen, wenn man wirkliche referenz Farben haben möchte, dann kann man ja auch am iMer problemlos eine 10bit Video Box ala Blackmagic, Aja oder sonstwas via Thunderbolt anschliessen und da kommt dann auch 10 Bit raus.

Aber ich glaube das alles ist ja prinzipiell egal, also lasst uns mal wieder Apple bashen..... schnarch....

Space


Antwort von Jott:

Ui! Seltsam, dass bei sonst niemandem so zerhackte Graustufen auftauchen. Wieviele Leute machen Grafik, Bildbearbeitung und Video mit Macs, seit Jahrzehnten? Aber auf mit dem Shitstorm, macht immer wieder Spaß.

Space


Antwort von blickfeld:

"Peppermintpost" wrote:ohne das ich jetzt den iMer verteiligen möchte, aber war hier auf slashcam nicht noch vor kurzem ein Test der SlashcamRed der sich mit 10 Bit Darstellung auf Windows Rechnern beschäftigt hat, und der zu dem Schluss kam, das 10 Bit zum einen sowieso nur mit Nvidia Quadro Karten funktioniert, die im Prinzip keiner mehr will, und zum anderen, selbst wenn man es mit einer Quadro baut, dann ist der Unterschied nicht wirklich sichtbar?
Aber wie dem auch sei. Was Heise natürlich verschweigt ist, das zum einen die meisten Computer Displays nicht wirklich 10 Bit können, und zum anderen, wenn man wirkliche referenz Farben haben möchte, dann kann man ja auch am iMer problemlos eine 10bit Video Box ala Blackmagic, Aja oder sonstwas via Thunderbolt anschliessen und da kommt dann auch 10 Bit raus.

Aber ich glaube das alles ist ja prinzipiell egal, also lasst uns mal wieder Apple bashen..... schnarch....


nur die Quadros können bei Nvidia 8 bit wiedergeben, dass stimmt, aber bei AMD sollten die FirePro auch 10-bit wiedergeben können.

Space


Antwort von Frank Glencairn:

..und das fällt denen bei Heise jetzt erst auf?

Space


Antwort von Axel:

Um höhere Farbtiefe wird weniger Tamtam gemacht als um höhere Auflösungen. Aber das könnte sich langsam aber sicher ändern. Da nämlich dürftige Farben überhaupt nur dann auffallen, wenn entsprechend große Flächen damit ausgemalt werden. Z.B. die C300 MII laut Canon-Seite: "Die Kamera bietet die Möglichkeit zur Aufzeichnung auf die interne Speicherkarte von 4K-Filmmaterial in 10 Bit (4:2:2) mit bis zu 410 Mbps ..."

Noch sind 10-bit-Displays die Ausnahme. Das Angebot regelt die Nachfrage, nicht umgekehrt. Bevor Apple gezwungen würde, durch verstärkt angemeldeten Bedarf und die Konkurrenz ihre Politik zu ändern, würden sie es selbst "erfinden". Wie würde wohl, analog zum Retina-Display, ein MacBook mit 10-bit-Farbdarstellung heißen?

Und erst dann wäre der Damm gebrochen. Darüber kann man den Kopf schütteln, und ich (damals verwöhnt von farb-tiefen DCPs im Vergleich zu blässlichen Consumervideos) schüttele seit Jahren den Kopf darüber. Aber es ist so.

Space


Antwort von ennui:

Solange Apple 10 Bit "schlecht" oder "unnötig" findet und nicht anbietet, werden einem auch Heerscharen von Leuten in Foren erklären, dass man das "gar nicht braucht" und das "unnötig" ist. Auch wenn das genau die Leute sind, die aber 4K usw. schon ganz dringend "brauchen".

Wenn aber Apple 10 Bit anbieten wird in 1, 2 Jahren. Dann sieht es natürlich ganz anders aus! Dann wird 10 Bit natürlich plötzlich doch ganz "toll" und "wichtig" sein. Besonders wenn es von Apple kommt, denn dann sind es natürlich ganz besonders gute 10 Bit.

Was soll man da jetzt noch groß diskutieren...

Space


Antwort von rudi:

"Peppermintpost" wrote:ohne das ich jetzt den iMer verteiligen möchte, aber war hier auf slashcam nicht noch vor kurzem ein Test der SlashcamRed der sich mit 10 Bit Darstellung auf Windows Rechnern beschäftigt hat, und der zu dem Schluss kam, das 10 Bit zum einen sowieso nur mit Nvidia Quadro Karten funktioniert, die im Prinzip keiner mehr will, und zum anderen, selbst wenn man es mit einer Quadro baut, dann ist der Unterschied nicht wirklich sichtbar?

Damit hast du zwar meinen Tenor auf den Punkt gebracht, aber unser zweiter Artikel dazu ist noch nicht raus. Ich denke, dass es am Ende immer auf 8 Bit gut aussehen muss, da das der Standard für die Massen ist. Weiterer Vorteil ist auch, dass man auf einem 8 Bit Monitor eben schon die Fehler sieht, die es beim Mastering auszumerzen gilt. Denn wenn man in 10 Bit arbeitet, sieht man Banding eben nicht, das man später dann eventuell im 8 Bit Master hat.

AAAber gerade wenn man etwas perfekt in 8 Bit mastern will, kann es schon ungemein hilfreich sein, sein Ursprungsmaterial in 10 Bit betrachten zu können. Weil man dann eben auch sieht, was das Material hergibt und was nicht.
Solche Feinheiten wissen dann mal wieder nur 1-2 Prozent des Publikums zu schätzen, aber wenn man auf diese Qualität keinen Wert legt, kann man sich auch RAW und solche Späßchen sparen und in 8 Bit 4:2:0 produzieren. Denn die gehobene Bildqualität von RAW oder höhere Farbauflösungen wissen auch auch nur "die oberen 2 Prozent" zu schätzen.

10 Bit-Kosten unter Windows sind überschaubar, günstigste Quadro Karte oder Inensity Pro 4K von Blackmagic, beides ca. 200 Euro oder weniger. Und bei 4K-Monitoren ist der 10 Bit Aufpreis fast nicht da.

Am Apple müsste man es aber dennoch hinbekommen, wenn man eine Intensity Pro 4K anschließt. Oder wenn kein Hackintosh/alter MAc Pro dann nimmt man eben einen andere Thunderbold Preview-Lösung.

Da will ich jetzt auch nicht Apple verteidigen, aber 10 Bit Video Preview sollte mit einer solchen Lösung unter Premiere/After Effects oder Resolve kein Problem sein.

Space


Antwort von Peppermintpost:

hallo Rudi,

ja war die vereinfachte Darstellung deines Tests den ich sehr interessant und aufschlussreich fand. Ich selbst bin ja wie ich hier im Forum schon an verschiedenen Stellen geschrieben habe ein HP und Hackintosh Fanboy und betreibe seit geraumer Zeit diverse z800 mit OSX 10.8.5. Bis vor ca. einem halben Jahr habe ich die auch grundsätzlich mit Quadro Karten betrieben und ich war die ganzen Jahre auch sehr zufrieden, allerdings nicht aufgrund der Geschwindigkeit oder Farbgenauigkeit, sondern aufgrund der enormen Betriebssicherheit. Ich hatte mit Quadro Karten über Jahre hinweg niemals Treiber oder Darstellungsprobleme. Ich halte Quadros also nicht für Kernschrott, ganz im Gegenteil. Allerdings ist inzwischen das Performace/Preis Gefüge von Quadro zu GTX meines Erachtens heute nicht mehr darstellbar.
Aber was die Präzision der Farbdarstellung angeht, da bin ich leider nicht 100% bei dir. Ich finde es sehr wichtig eine sehr genaue Farbdarstellung zu haben, gerade wenn man im Bereich Finishing/Online Editing unterwegs ist, aber ich denke nicht das das mit Computer Monitoren erreichbar ist, ob 8bit, 10bit, AdobeRGB oder Rec709 Farbraum. Ich selbst benutze keine 0815 Monitore, sondern nur Eizo oder HP aber auch die sind immer noch Welten von einem Sony PVM-A250 oder Flanders entfernt. Sony BVM halte ich aus verschiedenen Gründen für Schwachsinn, daher möchte ich nur für die PVM Serie sprechen.

Mit anderen Worten, wenn ich eine wirkliche Referenz haben möchte, dann brauche ich auch tatsächlich einen anständigen Broadcast Monitor, und den werde ich dann auch immer per SDI betreiben. Was zwangsläufig auch bedeutet ich brauche ein SDI Computer Device und keine Grafikkarte.

aber ich bin sehr gespannt auf deinen 2ten Teil des Tests.

Space



Space


Antwort von Tiefflieger:

In diesem Jahr wird es einige Fernseher mit HDR und 10 Bit Farbtiefe geben.
REC.2020 in 10 Bit wird sich auch durchsetzten (LCD Quantendots und OLED mit weiss).

Spätestens dann ist 10 Bit auch beim Consumer gefragt.
Unterschiede in 8 bit "true color" (voller Wertebereich) und 10 bit sind wenn nur in künstlichen Patterns auszumachen.
(Mit rec.2020 und entsprechend grösserem Farbraum braucht es 10 bit Stufungen)

TV und Kino ist für mich als Consumer heute nicht mehr der Massstab an Bildqualität.
Die Aussage von Axel über blasse Consumercamorderfarben gefällt mir, wo sich doch alle über die Quitschbunten überschärften Bilder mokieren.

Es kommt der Tag, an dem ein Smartphone professionelle Video-Kameras und DSLR blass aussehen lässt ;-)

Gruss Tiefflieger

Space


Antwort von Goldwingfahrer:

Quote: Was zwangsläufig auch bedeutet ich brauche ein SDI Computer Device und keine Grafikkarte.

für die Ausgabe,ja klar,aber ohne Graka fürs GUI geht das natürlich nicht.
http://666kb.com/i/cxy0rld54ny69ato0.png

Und ja,bin auch EIZO-Fan,aergere mich aber jedesmal wenn ich deutlich günstiger EIZOs mit meinem SX vergleiche [umgerechnet 1400 €]
die Neuen bieten im Gegensatz zu Meinem auch DP und HDMI an.
Hat man aber mehrere Schnittrechner an einem KVM und will alle "10 Bit" tauglich machen,geht das enorm ins Geld.

Space


Antwort von studiolondon:

"rudi" wrote:"Peppermintpost" wrote:ohne das ich jetzt den iMer verteiligen möchte, aber war hier auf slashcam nicht noch vor kurzem ein Test der SlashcamRed der sich mit 10 Bit Darstellung auf Windows Rechnern beschäftigt hat, und der zu dem Schluss kam, das 10 Bit zum einen sowieso nur mit Nvidia Quadro Karten funktioniert, die im Prinzip keiner mehr will, und zum anderen, selbst wenn man es mit einer Quadro baut, dann ist der Unterschied nicht wirklich sichtbar?

Damit hast du zwar meinen Tenor auf den Punkt gebracht, aber unser zweiter Artikel dazu ist noch nicht raus. Ich denke, dass es am Ende immer auf 8 Bit gut aussehen muss, da das der Standard für die Massen ist. Weiterer Vorteil ist auch, dass man auf einem 8 Bit Monitor eben schon die Fehler sieht, die es beim Mastering auszumerzen gilt. Denn wenn man in 10 Bit arbeitet, sieht man Banding eben nicht, das man später dann eventuell im 8 Bit Master hat.


AAAber gerade wenn man etwas perfekt in 8 Bit mastern will, kann es schon ungemein hilfreich sein, sein Ursprungsmaterial in 10 Bit betrachten zu können. Weil man dann eben auch sieht, was das Material hergibt und was nicht.
Solche Feinheiten wissen dann mal wieder nur 1-2 Prozent des Publikums zu schätzen, aber wenn man auf diese Qualität keinen Wert legt, kann man sich auch RAW und solche Späßchen sparen und in 8 Bit 4:2:0 produzieren. Denn die gehobene Bildqualität von RAW oder höhere Farbauflösungen wissen auch auch nur "die oberen 2 Prozent" zu schätzen.


Rudi, ich schätze slashcam & eure Arbeit - eine der wenigen semi-pro-Seiten (zudem deutsch) die lesenswert und aktuell sind - daher bin ich dann doch erschreckt über soviel Un/Halbwissen eurerseits und den, mit Verlaub, daraus resultierenden Unsinn den ihr hier leider schreibt.

Sorry für die klaren Worte, aber so kann man das nicht stehenlassen.

"Viele Konsumenten haben nur 8bit, deswegen kann man ja 8bit mastern" ist wirklich Blödsinn - und ausserdem technisch grundverkehrt.


1) Liefern 8bit RGB Displays für Video in YUV (und anderen Farb-räumen und - modelle) oftmals durch die Bank weg nichtmal 8bit, sondern nur noch rund 7bit netto. 8bit YUV sind gerne nur "legal" 16-235YUV anstelle 0-255RGB, bei der Wandlung YUV16-235->RGB0-255 entstehen zwangsläufig stärkere Artefakte(Quantisierungsstufen) als bei 10bit. Wohlgemerkt: Fehler die nicht in der Quelle sind, sondern durch die Wandlung auf 8bit RGB entstehen.

2) Besonders deutlich wird der Denkfehler, wenn man mal ein Beispiel aus der Tonbearbeitung nimmt: "Viele Hörer spielen meine Musik ja so oder so als MP3 64kbit ab, dann nehme ich doch einfach MP3 64bit anstelle uncompressed PCM zum abhören". Natürlich NICHT! Wenn man zu schwache Formate (wie 8bit RGB für YUV, oder MP3 für PCM) zum Monitoring nimmt, egal ob Ton, Bild, Print, zwingt man sich immer Artefakte ins Signal - und sieht Teile des Orginals nicht. Die richtige Arbeitsweise ist: Man erstellt und bearbeitet in maximaler Güte - und leitet dann davon ab.

3) Seit über 20 Jahren - aus gutem Grund - sind Broadcast wie Kino 10bit (und mehr). Als Fachmagazin solltet ihr die durch IT (youtube und co) derzeit bestehende partiellen Verschlechterungen in den Übertragungen & Darstellung angreifen, kritisieren und über die Nachteile informieren - nicht bagatellisieren - und für Verbesserung & Erhalt der hochwertigen Darstellungswege werben.

4) Mit 8bit Displays weiß man nicht, woher der Fehler kommt: Ist die Ursache des Banding/Quantisierung/Posterisation bereits in der Quelle oder entstand sie im Import/Encoder etc. ?

5) Egal ob 1993er Digital Betacam, aktuelles DCI oder die kommende Bluray-Spezifikation, egal ob YUV, RGB oder CIE/XYZ: Die hochwertigen Masteringformate sind 10 bit - und mehr. 8bit Displays können das schlichtweg nicht darstellen.

6) 10bit sieht erheblich besser aus. Insbesondere bei YUV Video über RGB. 2K vs. 4K sieht ab man ab einem gewissen Sichtabstand nicht mehr, die Stufen/Treppen von 8bit YUV->RGB (und insbesondere bei Grafik) aber bleiben.

Nochmal sorry für die klare Kritik - ich habe versucht diplomatisch zu sein - aber bei faktischen Irrtümern muss man korrigieren. Ich verstehe durchaus die Denkweise "ist ja so oder so nur für Googles Youtube", aber selbst da hat man mit 8bit eben nur zweite Liga bei der Bearbeitung & der täglichen Sicht aufs Material. Natürlich braucht man für Textverarbeitung (oder 3D Modelling usw) keine 8bit- für Video will & sollte man jedoch 10bit haben.

Und das sind nicht "2%" der User - bei professionellem Spielfilm sind eher 2% der Produktionen 8bit und 98% 10bit. Ich persönlich bspw habe seit den 1990ern keine 8bit Monitoringwege mehr.

Space


Antwort von Axel:

"rudi" wrote:Ich denke, dass es am Ende immer auf 8 Bit gut aussehen muss, da das der Standard für die Massen ist. Weiterer Vorteil ist auch, dass man auf einem 8 Bit Monitor eben schon die Fehler sieht, die es beim Mastering auszumerzen gilt. Denn wenn man in 10 Bit arbeitet, sieht man Banding eben nicht, das man später dann eventuell im 8 Bit Master hat.

Klingt logisch, ist aber m.E. nicht praxisrelevant. Seit ich überwiegend 10-bit-Material auf 8-bit-Monitoren für 8-bit grade (und zwar wild), sehe ich kein Banding mehr. Stichwort Fließkommaberechnung.

Wichtiger ist also auf jeden Fall, 10-bit bei der Aufnahme zu haben, Stand Lenz 2015. Möglicherweise produziert man Banding, ohne es zu merken, und dieses würde man in 10-bit sehen. Denn schließlich heißt 10-bit nicht, dass es keine Gammakurven mit ausgedünnten Wertebereichen mehr gibt, bloß, dass es absolut gesehen mehr Werte gibt.

Egal ob 8-bit oder 10-bit Monitoring, ich nähere mich rapide dem Punkt, an dem mein altes OSX-basiertes System die Hocke macht angesichts 4k+, 10-bit oder Raw. Und da ist die Frage, ob man etwa Resolve (mit ab übernächstem Monat brauchbar erweiterten Schnittfunktionen) nicht besser mit einem günstigeren System betreibt und nicht wartet, bis Apple aus dem Quark kommt ...

Space


Antwort von iasi:

Wir reden hier von einem Profi-Gerät mit Grafikkarten, die von Haus aus eigentlich 10bit können (und deshalb auch so teuer sind).

Statt die interne Grafikkarte ntzen zu können, muss man einen Apple-Pro erweitern, will man 10bit.

Man sollte auch nicht ständig von Consumern rede, wenn es um die Pro-Kisten von Apple geht. Will man etwas für die große Leinwand machen, muss man sich schon auch mit mehr als 8bit auseinandersetzen.

Space


Antwort von WoWu:

Stellt sich eigentlich die Frage wirklich, ob 10 Bit in den Consumermarkt der Computer einzieht ?
Ist es wichtig, auf der Apple Watch oder dem Tablet 10 Bit zu sehen ?
Apple ist nun mal zum Massenprodukt geworden und verdient mit Designergeräten sein Geld.
Die Zeit, als 'Apple' als Synonym für professionelles Arbeiten im DTP stand, sind doch lange Geschichte und wer heute in der Video und Filmproduktion arbeitet, ist doch seit 20 Jahren auf 10 Bit umgestellt.
Schliesslich wartet im professionellen Bereich keiner darauf, dass endlich 10 Bit kommen.
Ob und wenn nun ausgerechnet Apple auf 10 Bit umstellt, interessiert doch nur den Besitzer der goldenen Watch.
Die, die hochwertige Produkte abgeben, haben es doch sowieso und die, die darauf warten, dass 'Apple' draufsteht, werden sich ohnehin hinterher darüber wundern, was drin stecht.
Die sollen erst mal die Bugs beseitigen, die in ihren 8Bit Kisten noch stecken.
Bisher haben sie ja nicht mal das geschafft

Space


Antwort von iasi:

"was drin stecht"?
FirePro - die teuren FirePro - die stecken doch drin, in dem Eimer - und die könnten doch eigentlich 10bit.

Wozu die teuren FirePro bezahlen, wenn man sie gar nicht richtig ausnutzen kann?!

Space


Antwort von Peppermintpost:

also ich kann studiolondons Kritik durchaus verstehen wenn er schreibt wir sollten die Messlatte nicht nach unten schieben nur weil heute auch youtube mit zu den grossen Broadcastern gehört. Die Aussage finde ich 100% zutreffend.
Aber nochmal, wer macht Colorgrading auf einem Computer Monitor und erwartet allen ernstes verbindliche Broadcast Farben? Ich spreche jetzt nicht davon mal schnell ein bissel Kontrast und Sättigung rein zu drehen, damit es auf youtube schön popt, sondern wirklich Kino bzw Fernseh Konformes Color Grading auf Computer Displays. Wer das macht und Kunden hat die das akzeptieren, tja, was soll man sagen, für die sind dann im Grunde auch Nintendo Farben ausreichend. Da ist eh Hopfen und Malz verlohren.

Dann gibts die, die an Kino Spielfilmen in der VFX Abteilung sitzen. Die haben in der Regel keine Broadcast Monitore, sondern die arbeiten auf Computer Monitoren. Aber da läuft es ja anders, zum einen arbeitet man da sowieso entweder auf 16bit float aber meistens gleich auf 32bit float. Das kann sowieso kein Monitor darstellen und man passt ja Farben an vorhandenen Farben an und generiert keine neuen. Das ist also deutlich weniger kritisch als Colorgrading. Ausserdem checkt man seine Comps dann noch mit verschiedenen Gain und Gamma Einstellungen, sowie mit ggf. unterschiedlichen LUTs. Und auch hier schaut man täglich dann nochmal bei den dailys auf der Leinwand mit prof. Equip.

Also - 10bit auf einem Computer Monitor sind "nice to have" aber es macht bei leibe nicht so viel Sinn wie es hier erscheint. Ein Computer Monitor ist für nix und niemals Referenz, von einigen sehr wenigen spezial Monitoren mal abgesehen. Aber selbst ein HP 2480 ist ein sehr schickes Computer Display, sicher an der Obergrenze, aber auch da hab ich mir schon öfter mal die Augen gerieben als ich es dann auf der Leinwand gesehen habe.

Space


Antwort von WoWu:

@Iasi
Aber ich kauf doch kein Gerät nach den verbauten Einzelteilen, sondern nach der Performanz. Dass zur Hardware auch Firm- und Software gehört, sollte sich doch mittlerweile rumgesprochen haben.
Und Apple hat nie 10Bit in seinen Geräten angeboten.
Selbst der überwiegende Teil Softwareefekkte sind nicht in 10 Bit.
Ich verstehe also die Aufregung nicht.
Jeder, der 10 Bit machen will, kann es doch.
Warum muss da unbedingt 'Apple' auf dem Rechner stehen ?
Ist doch gar nicht die Zielgruppe.

Space



Space


Antwort von motiongroup:

http://arxiv.org/abs/1504.00680

Bingo...

Wars nicht hier im Forum wo die knallharten Profis unlängst noch PCs und hackintoscherln mit 0815 Grafikkarten als Referenz in 8bit gegenüber den Imacs und den mac Pros ins Rennen geworfen haben.. Ich lach mich grad schlapp da eben diese Gurus auch in anderen Foren nicht 10bit taugliche Grafikkarten für Windosen als Referenz in Leistung und Qualität ins Feld geführt haben.. Keine Sau verwendet das GUI Overlay als Referenz schon gar keine Coloristen, alle fahren Sie extern über Teile von Bm, Aja oder andere spezielle Boards...

Schön das ihr wieder mal reingesehen habt.

Space


Antwort von iasi:

na ja - immerhin verbaut Apple Grafikkarten, die eigentlich 10bit können - nun zu sagen, der Kunde brauche 10bit nicht, ist natürlich sehr bequem.
Aber dann sollte Apple doch auch besser vom hohen Pferd heruntersteigen und das "Pro" streichen.
Gamer-Karten täten es dann auch und wären billiger - und Apples Gewinne dadurch noch höher. :)

Space


Antwort von Peppermintpost:

"motiongroup" wrote:http://arxiv.org/abs/1504.00680

Bingo...

Wars nicht hier im Forum wo die knallharten Profis unlängst noch PCs und hackintoscherln mit 0815 Grafikkarten als Referenz in 8bit gegenüber den Imacs und den mac Pros ins Rennen geworfen haben.. Ich lach mich grad schlapp da eben diese Gurus auch in anderen Foren nicht 10bit taugliche Grafikkarten für Windosen als Referenz in Leistung und Qualität ins Feld geführt haben.. Keine Sau verwendet das GUI Overlay als Referenz schon gar keine Coloristen, alle fahren Sie extern über Teile von Bm, Aja oder andere spezielle Boards...

Schön das ihr wieder mal reingesehen habt.


genau so ist es.

Space


Antwort von WoWu:

"iasi" wrote:na ja - immerhin verbaut Apple Grafikkarten, die eigentlich 10bit können - nun zu sagen, der Kunde brauche 10bit nicht, ist natürlich sehr bequem.
Aber dann sollte Apple doch auch besser vom hohen Pferd heruntersteigen und das "Pro" streichen.
Gamer-Karten täten es dann auch und wären billiger - und Apples Gewinne dadurch noch höher. :)

Das "PRO" wird auch nur von denen hochgehalten, die noch nie premium- Produkte abgegeben haben und nur das, was sie machen, dafür halten.

Space


Antwort von Frank Glencairn:

Ich hab als Vorschau einen Dreamcolor via HDLink and einer Decklink hängen, der regelmäßig hardware kalibriert wird.
Durchgängig 10 bit - tut's seit Jahren für Web und Broadcast - und für's UI reichen auch 8bit oder weniger. Wo ist das Problem das die Macs intern nur 8bit machen? Vorschau ist immer extern und unabhängig von dem was das OS hergibt.

Und für's Kino kann man sowieso nur mit einem Kinoprojektor graden, alles andere ist irgendwo zwischen Annäherung und Blindflug.

Space


Antwort von Axel:

"WoWu" wrote:Und Apple hat nie 10Bit in seinen Geräten angeboten.
Selbst der überwiegende Teil Softwareefekkte sind nicht in 10 Bit.


Quelle?

FCP 7 hatte einige 8-bit-Effekte, und man hat es sofort gemerkt, wenn einer davon in der Renderkette war.

Ich behaupte nicht, du hast Unrecht. Aber einen Link will ich trotzdem, sonst ist das Quatsch.

Space


Antwort von WoWu:

Es kann keinen Link geben, der 'fehlende" Angaben aufweist. (oder eben alle)
Ich sage ja gerade, dass sie in keinen technischen Spezifikationen angeben, dass Ihre Gräte 10Bit fähig sind.

Space


Antwort von Frank Glencairn:

"iasi" wrote:"was drin stecht"?
FirePro - die teuren FirePro - die stecken doch drin, in dem Eimer - und die könnten doch eigentlich 10bit.

Wozu die teuren FirePro bezahlen, wenn man sie gar nicht richtig ausnutzen kann?!


Genau das hatten wir doch in den unzähligen iMer treads rauf und runter diskutiert - die nötigen Pro-Treiber gibt's nur für PC, was aus den "teuren Fire Pro" billige Mittelklasse-Gamerkarten macht, die von Apple runtergetaktet wurden und auch noch mit weniger Speicher auskommen müssen, als die Konsumerware.

Space


Antwort von motiongroup:

"Frank Glencairn" wrote:Ich hab als Vorschau einen Dreamcolor via HDLink and einer Decklink hängen, der regelmäßig hardware kalibriert wird.
Durchgängig 10 bit - tut's seit Jahren für Web und Broadcast - und für's UI reichen auch 8bit oder weniger. Wo ist das Problem das die Macs intern nur 8bit machen? Vorschau ist immer extern und unabhängig von dem was das OS hergibt.

Und für's Kino kann man sowieso nur mit einem Kinoprojektor graden, alles andere ist irgendwo zwischen Annäherung und Blindflug.


Bravo , wahres Wort gelassen ausgesprochen..

@pepermint... ich muss gleich einem MPainter von interstellar einen Sack reißen da der auch auf einer 8bit Grafikkarte unter Windows für dieses Spektakel den Pinsel geschwungen hat nach seinen Angaben....
pfui das geht ja gar nicht..

Space



Space


Antwort von rudi:

@studiolondon: Ich glaube du hast mich da gehörig missverstanden. Ich finde es ja durchaus wichtig 10 Bit zu haben und zu sehen, aber eben in erster Linie vor und während der Bearbeitung.

Um bei der Audio-Analogie zu bleiben (wo ich auch einen Teil meiner Ursprünge zu habe): Für die einzelnen Spuren dürfen es gerne 24 Bit/96 KHz sein, aber wer professionell Audio mastert (zumindest im Mainstream-Pop/Rock Bereich), versucht in der Rege,l dass der Sound auch im Auto und im Mono-Küchenradio möglichst gut klingt. Da gibt es zwar ein Master in hoher Güte, aber es MUSS auch in Mono 100-5.000 Hz gut klingen...
Sonst kommt"s nicht zu den Massen durch.

Und so habe ich das vorher gesagte auch gemeint. Wenn es in 10 Bit gut, aber in 8 Bit schlecht aussieht, dann vergraule ich eine gewisse Menge Leute. Aber ohne eine 8 Bit Preview kann ich nicht wissen, ob mein 10 Bit Master bei den Massen gut aussieht.

In Praxis wird das ja auch meines Wissens so gehandhabt, dass für für DVD/BluRay/Broadcast/Download etc. nochmal gezielt auf 8 Bit gemastert wird und man sich nicht blind auf einen Downconvert verlässt.

Nachdem hier min. 98 Prozent der Produktionen nicht Kino sind, sollte das ein Hinweis darauf sein. Dass man einen DCI-P3Master nicht auf 8 Bit beurteilt, ist - denke ich - hier jedem klar...

Space


Antwort von Frank Glencairn:

"rudi" wrote: Dass man einen DCI-P3Master nicht auf 8 Bit beurteilt, ist - denke ich - hier jedem klar...

Es gibt genug Leute (auch in anderen Foren - hier geht's ja noch) die sich einbilden, sie könnten bei einer Filmproduktion ALLES auf einem MacBook machen, solange es nur ein Retina Display hat ;-)

Space


Antwort von Axel:

"WoWu" wrote:Es kann keinen Link geben, der 'fehlende" Angaben aufweist. (oder eben alle)
Ich sage ja gerade, dass sie in keinen technischen Spezifikationen angeben, dass Ihre Gräte 10Bit fähig sind.


Immerhin behaupten sie im Werbetext zu FCP X online:
"High-quality rendering
The high-quality rendering in Final Cut Pro makes it possible to compute realistic effects with extraordinary precision using floating-point, linear-light color space calculations. You get the same superb results for blurs, scales, and lighting effects as you would from high-end compositing software."

Im Whitepaper zu FCP 7 gab es noch zu jedem Filter die Angabe, ob in 8-bit oder 32-bit Fließkomma gerendert wurde. Ich gebe zu, dass der oben genannte Text etwas vage ist.

Und an anderer Stelle heißt es zu Keyframes (sinngemäß): "Alle Effekte sind *natürlich* in allen Parameter keyframebar". Schön wär's. Ich hoffte, nachdem die Farbkorrektur neuerdings ein Effekt ist, dort Keyframes zu finden. Fehlanzeige.

Space


Antwort von Peppermintpost:

"motiongroup" wrote:
@pepermint... ich muss gleich einem MPainter von interstellar einen Sack reißen da der auch auf einer 8bit Grafikkarte unter Windows für dieses Spektakel den Pinsel geschwungen hat nach seinen Angaben....
pfui das geht ja gar nicht..


das ist doch der Beweis das man für einen Oscar nur 8bit braucht ;-)
Aber im ernst, klar für die Mattepainter wären 10bit schon gut, weil die ja nirgens einen wirklichen Referenz Monitor haben. Auf der anderen Seite ist es aber ja so, das ein Mattepainting immer noch durchs Comp läuft und halt auch in den Dailys auf der Leinwand abgenommen wird. Interstellar das muss man aber auch in aller deutlichkeit sagen ist nicht mal ein wenig ein standart Projekt, Dneg hatte da wirklich mit Performance zu kämpfen weil die ja alles in 4k und 5k gepostet haben, was ja auch die 4fache Performace braucht im Vergleich zu einem "Feld Wald Wiesen Projekt" wie Avengers oder Harry Potter. Das die da sagen "scheiss auf Farbgenauigkeit an den Workstations, hauptsache die Kisten bewegen sich noch" kann ich durchaus verstehen.

Space


Antwort von studiolondon:

"iasi" wrote:"was drin stecht"?
FirePro - die teuren FirePro - die stecken doch drin, in dem Eimer - und die könnten doch eigentlich 10bit.

In den Mac-doesen stecken keine FirePros.

Apple verkauft 2011er Gamergrafikkarten, ohne ECC, ohne SDI, ohne 10bit - und ausserdem auch noch stark gedrosselt, 20-30% weniger Takt um mit dem für Vollastbetrieb zu schwachen 450Watt Netzteil auszukommen - als "FirePro" gelabelt. Cleveres Marketing, und viele fallen darauf rein.

"iasi" wrote:
Wozu die teuren FirePro bezahlen, wenn man sie gar nicht richtig ausnutzen kann?!

Um Apples Gewinn zu erhöhen. Apple hat clevererweise genau aus dem Grund bei allen heutigen Rechner PCIe verboten - so bleibt nur der Monopolanbieter, und da gibt es eben maximal gedrosselte 2011er Grafik und keine aktuelle.

Space


Antwort von motiongroup:

Quote:Es gibt genug Leute (auch in anderen Foren - hier geht's ja noch) die sich einbilden, sie könnten bei einer Filmproduktion ALLES auf einem MacBook machen, solange es nur ein Retina Display hat ;-)

Nun ich denke das da im Verhältnis die Zahl der Win WKST Laptopuser mit verbauten Quadrokarten um den Faktor eine Million höher ist..;)Hauptsache 4k ich schmeiß mich gleich weg...besonders weinerlich werden's immer dann wenn Prores im Spiel ist wie man unlängst hier lesen durfte auch in diesem Fall ist Apple die Reinkarnation des Antichristen in der Cutterszene :)

Space


Antwort von studiolondon:

"rudi" wrote:@studiolondon: Ich glaube du hast mich da gehörig missverstanden. Ich finde es ja durchaus wichtig 10 Bit zu haben und zu sehen, aber eben in erster Linie vor und während der Bearbeitung.

Dann bin ich erleichtert - dein Post ist, sorry, auch recht leicht missverständlich, und hat mich etwas erschreckt.

Quote:
Um bei der Audio-Analogie zu bleiben (wo ich auch einen Teil meiner Ursprünge zu habe): Für die einzelnen Spuren dürfen es gerne 24 Bit/96 KHz sein, aber wer professionell Audio mastert (zumindest im Mainstream-Pop/Rock Bereich), versucht in der Rege,l dass der Sound auch im Auto und im Mono-Küchenradio möglichst gut klingt. Da gibt es zwar ein Master in hoher Güte, aber es MUSS auch in Mono 100-5.000 Hz gut klingen...
Sonst kommt"s nicht zu den Massen durch.


Völlig klar. In unserem Tonbereich bspw - der neben Vertonung auch seit Jahrzehnten en masse sehr erfolgreiche Alben & Singles produziert - steht für den von Dir erwähnten Zweck neben dem Top-End Monitoring auch eine Auswahl an billigen Kompaktanlagen + 2 Schrottmühlen mit Autoradio(s).

Aber natürlich mischt & mastert man auf 24/96 2.0/5.0 (und aufwärts) - 10 bit äquivalent. Mit dem FERTIGEN premaster kann man dann auf den schlechten Anlagen ggf nochmal die alte Krux (Sprachverständlichkeit vs fett vs subbass usw) erledigen und sicherstellen daß auf schlechten Abhören der Konsument auch fein versorgt wird - 8 bit quasi .

Quote:
In Praxis wird das ja auch meines Wissens so gehandhabt, dass für für DVD/BluRay/Broadcast/Download etc. nochmal gezielt auf 8 Bit gemastert wird und man sich nicht blind auf einen Downconvert verlässt.


So WÄRE es richtig, aber wenn ich anschaue, was wir nur allzuoft an Amazon&Netflix, Watchever und Konsorten liefern MÜSSEN - die Praxis ist heute oft genug mit "good enough does it" kontaminiert.

Und der Unterschied zwischen einer spezifisch gefertigten & gemasterten bluray und dem typischen VoD-Stream ist eklatant.

Die sparen sich aus Kostengründen multipass soweiso, bei Fließband wird mit 6 bit LUTs (haupsache schnell) rausgeballert, Main statt High profile, 2 Mbit für HD anstelle 35Mbit usw usf.


Quote:

Nachdem hier min. 98 Prozent der Produktionen nicht Kino sind, sollte das ein Hinweis darauf sein. Dass man einen DCI-P3Master nicht auf 8 Bit beurteilt, ist - denke ich - hier jedem klar...

Schon TV-Broadcast ist - seit Jahrzehnten - 10 bit, DCI liegt mit 12 bit noch höher. Viele Konsumenten hängen an gruseligem DVB-T, VoD-Streams oder C-A und bekommen nur Datenpürree - und oftmals weniger als 8 bit.

Andererseits gibt es bluray - so gut war Film zuhause NIE zuvor, besser als so manches altes Kino mit abgenudelter 500* gerollter 35mm Kopie, und bluray geht ja auch auf 10bit (yay!).



Sehr ironisch btw: Nie waren exzellente 10bit & aufwärts Kamera & Studiotechnik und exzellente Home-Entertainmentsysteme günstiger als heute, und die Übertragung wird seit Jahren im Schnitt schlechter. Ferrari auf Mofareifen sozusagen.

Space


Antwort von Angry_C:

"Tiefflieger" wrote:
Es kommt der Tag, an dem ein Smartphone professionelle Video-Kameras und DSLR blass aussehen lässt ;-)

Gruss Tiefflieger


Schon möglich, auch wenn sie dann etwas größer ausfallen dürften. Mit den Nadelkopf großen Plastiklinsen vor einem Kleinstsensor werden diese das nämlich nicht schaffen.

Space


Antwort von Peppermintpost:

"studiolondon" wrote:

Sehr ironisch btw: Nie waren exzellente 10bit & aufwärts Kamera & Studiotechnik und exzellente Home-Entertainmentsysteme günstiger als heute, und die Übertragung wird seit Jahren im Schnitt schlechter. Ferrari auf Mofareifen sozusagen.


ja, aber sonst würde ja das ganze 4k Marketing gebrabbel nicht aufgehen. Würden wir die gleichen Standarts an HD anlegen die wir damals an SD angelegt haben, dann wären wir heute noch nicht über 720 hinaus weil technisch zu aufwendig ;-)

Space



Space


Antwort von Frank Glencairn:

Ich hab erst letzte Woche diverse Werbespots von 1080 (ursprünglich auf 4k gedreht) für deutsche Sender auf 720 runter gerechnet.

...just saying

Space


Antwort von WoWu:

@Angry_C
Warte mal ab, bis sich die nächste Generation an den "Rechnerlook" gewöhnt hat und DoF (und auch der Rest) aus dem Algorithmus kommt.
Ist ja heute schon so, dass die Kantenaufstellung für das "bessere" Bild gehalten wird und man nur noch 4K, 5K oder Mehr drauf schreibt, aber nur "Kante" drin ist.
An solche praktischen Tests, machen sich ja nur die Broadcaster -mit den entsprechenden Ergebnissen-
Was glaubst Du, was bei einer DSLR dabei herauskommen würde?

Space


Antwort von Tiefflieger:

"Angry_C" wrote:"Tiefflieger" wrote:
Es kommt der Tag, an dem ein Smartphone professionelle Video-Kameras und DSLR blass aussehen lässt ;-)

Gruss Tiefflieger


Schon möglich, auch wenn sie dann etwas größer ausfallen dürften. Mit den Nadelkopf großen Plastiklinsen vor einem Kleinstsensor werden diese das nämlich nicht schaffen.

Eine DSLR 52 Megapixel Konkurrenz könnte so aussehen.
http://petapixel.com/2015/04/17/coming-soon-52-megapixel-cameras-in-smartphones/
Mehrsensorenkameras können in Echtzeit ein Bild errechnen und 3D Informationen zu allen Bildteilen ermitteln. Daraus alle Objekte "herausarbeiten" und die Tiefeninformation ggf. zur Unschärfeebenenbildung nutzen.
Oder mit 3-4 kompletten identischen Kameramodulen könnten HDR und Farbverarbeitung ohne Debayering-Farbpattern in einem Schritt zum Video generiert werden (Simulation einer 3 Chip mit HDR Belichtungssteuerung)

Mit Digitaler Qualität kann man eine "perfekte" Qualität erreichen.
Analoge Unzulänglichkeiten zur "Verschönerung" können als letzter Schritt immer dazugefügt werden.

Das gleiche im Tongebiet mit Röhrenverstärkerharmonien etc.
192 khz Audio in 24 Bit (loss less) gibt es auf Handys schon länger.

@All
Eine 10 bit Darstellungskette wie sie in rec.2020 vorgesehen ist macht für mich Sinn.
10 bit oder Höher bei Aufnahme im professionellem Bereich um die Farben zu bearbeiten ok, dann will ich in 8 Bit auch kein Banding mehr sehen (Beispiel langsames Ausblenden/abdunkeln eines Sonnenuntergangs).
Die sehe ich aus meinem Consumer Camcorder nämlich auch nicht (nebst dem Farbtafeln in rec.709 bei guten Licht zu +/- 99% exakt abgedeckt wird).

Gruss Tiefflieger

Space


Antwort von Tiefflieger:

"WoWu" wrote:@Angry_C
Warte mal ab, bis sich die nächste Generation an den "Rechnerlook" gewöhnt hat und DoF (und auch der Rest) aus dem Algorithmus kommt.
Ist ja heute schon so, dass die Kantenaufstellung für das "bessere" Bild gehalten wird und man nur noch 4K, 5K oder Mehr drauf schreibt, aber nur "Kante" drin ist.
An solche praktischen Tests, machen sich ja nur die Broadcaster -mit den entsprechenden Ergebnissen-
Was glaubst Du, was bei einer DSLR dabei herauskommen würde?

Solange ich aus einem kleinen Sensor eine solche Qualität herausholen kann, kann man nicht direkt von Kanten sprechen.
Die Rundungen des Auges gehen sogar über die Pixelgrösse hinaus, da die Farbverläufe stimmig sind.

3-Chip AVCHD 1080p50 bewegte Kamera (Hand). Das Frame ist nicht im vollen RGB Bereich und unbearbeitet extrahiert.
/
800% (16K) Upscaling

zum Bild (click Original)
zum Bild

Ergänzung so sieht es als Original unskaliert aus
zum Bild

Gruss Tiefflieger

Space


Antwort von WoWu:

Du bewegst Dich in einem nicht bekannten Bereich der Auflösung.

All das, was Du da sagst mag ja zutreffen, ist aber relativ.
Objektivier das Ganze doch mal.
Nimm doch mal die besagten 4 Kacheln (2x2cm), platzier sie, entsprechend der angenommenen Auflösung an den Ecken des Bildkreises, rechne Dir anhand der Brennweite Deines Objektivs den Aufnahmeabstand aus und film das Ganze einfach mal ab.
(Einen Sportplatz, werdet Ihr ja wohl in der Nähe haben, um weit genug weg gehen zu können).
Wenn Du dann an jeder Ecke statt einer Kachel, 4 unterschiedliche Farben platziert hast, wirst Du auch noch sehn, wie Dein Chroma auflöst.
(Müsste ja klappen, wenn Deine Kamera das auflöst, wie Du sagst.)
Aliasing ist auch kein Thema, weil die Kamera über die kleine Fläche gar keine Schwebung aufbauen kann. Also perfekte Vorausetzungen.

Du wist aber die Überraschung Deines Lebens haben.
Ich dachte, Ihr seit alles Praktiker ... scheint ja nicht viel dran zu sein.

Space


Antwort von motiongroup:

Heise an Iasi bitte kommen unser top Redakteur für garantierten Traffic steht knapp vorm nächsten Pulitzer Preis...

http://www.heise.de/newsticker/meldung/Offener-Brief-Apple-ignoriert-seine-kreativen-Nutzer-2632783.html

Lesen, Aufsaugen und als Lebensweisheit in die Geschichte eingehen lassen...quasi "Die Nahtoterfahrung der Softwareentwickler die sich mit OSX herumschlagen müssen können wollen"

Space


Antwort von iasi:

"motiongroup" wrote:Heise an Iasi bitte kommen unser top Redakteur für garantierten Traffic steht knapp vorm nächsten Pulitzer Preis...

http://www.heise.de/newsticker/meldung/Offener-Brief-Apple-ignoriert-seine-kreativen-Nutzer-2632783.html

Lesen, Aufsaugen und als Lebensweisheit in die Geschichte eingehen lassen...quasi "Die Nahtoterfahrung der Softwareentwickler die sich mit OSX herumschlagen müssen können wollen"


Und?

Dass Apple seine Pro-Sparte nur noch unwillig mitschleift, ist doch bekannt.
Da erinnere ich mich nur auf den Aufschrei, der durch die Mac-Videoschnittschar ging - aber Apple ist clever: zwei Schritte zurück, dann wieder einer nach vorn und die Fans sind wieder ruhig ...
Der Eimer ist ja auch mehr Büroschmuck als ernsthaftes Arbeitswerkzeug. :)

Space


Antwort von Peppermintpost:

naja, ich bin ja hier noch belehrt worden das ein iMac die perfekte Workstation für einen 4k Red Workflow ist.

http://forum.slashcam.de/workflow-red-und-postproduktion-vt124296.html?highlight=

wenn Apple Kunden also derart anspruchslos sind, dann ist da noch jede menge Luft nach unten.

Space


Antwort von Peppermintpost:

habe mich falsch ausgedrückt, meine nicht den Apple Kunden an sich, sondern den durchschnittlichen Apple Kunden. Sorry wollte nicht alle Apple User bashen.

Space



Space


Antwort von iasi:

die Apple-Krone ist der Eimer ... mehr geht nicht bei Apple - mehr gibt"s nicht von Apple ...

Space


Antwort von Jott:

Und die aufgeregten Nicht-Apple-Nutzer wie Iasi kennen die konkrete Performance genau, die sich aus dem direkten Zusammenspiel von deren Hard- und Software ergibt? Das ist immer wieder erstaunlich. Macht euer Ding, andere machen ein anderes Ding und sind auch happy. Wo ist das Problem? Glaubensfragen? Oh je. Apple ist im Video-Pro-Bereich nicht vorhanden? Yep, Glaube. Schon unterhaltsam.

Des Rätsels Lösung ist ein grundlegender Paradigmenwechsel: "Profi" definiert sich nicht mehr durch teure komplexe Technik und andere Elfenbeintürme. Die Nummer ist durch. Für immer. Was NUR noch zählt: die Kompetenz.

Was den neuen Artikel angeht: 3D-Leute sind doch sowieso mit PCs besser bedient? Schiere Rechenpower gibt's da natürlich billiger.

Space


Antwort von motiongroup:

http://www.fcp.co/hardware-and-software/pro/1660-lumaforge-introduce-shared-storage-solutions-for-final-cut-pro-x

Was für ein langsamer Schrott jott

Space


Antwort von Jott:

Damit kann man endlich mal einen akzeptablen Katzenfilm schneiden. Bei "Pro" kommt Apple ja nicht vor.

Space


Antwort von DV_Chris:

Shared Storage kann man auch an einen Medion PC hängen. Was hätte das mit dem nicht erweiterbaren Single CPU Mac Pro zu tun?

Space


Antwort von motiongroup:

Katzefilm Jesus und Maria, eine Neuauflage...

https://m.youtube.com/watch?v=RZq3_mASEbo

Na dafür wird er reichen, dafür würd auch die Awatsch reichen ....

Space


Antwort von motiongroup:

Drüberstreuer

http://alex4d.com/notes/item/fcpx-shared-storage-gblabs-lumaforge

http://www.gblabs.co.uk/workflows/space_fcpx/

Hobbyisten, ihre Hobbykisten und ihr hello Kitty Nle .... Na das geht doch gar nicht..

Space


Antwort von DV_Chris:

Die nächsten Speichersysteme...süss. Nur halt am Thema vorbei. Der stärkste Mac Pro kommt beim Cinebench R15 auf nicht mal 1300 Punkte. Das ist langsamer als der aktuelle Haswell-E um einen knappen Tausender.

Space


Antwort von merlinmage:

Fakt ist aber auch, dass FCP X eine unterirdische Verbreitung im Profimarkt (ungleich 0 allerdings!) hat und die Mülltonne von heutigen HP System total auseinandergenommen wird. Aber wenn Apple nur alle 3Jahre+ das Ding updated ist das auch kein Wunder.

Space



Space


Antwort von motiongroup:

nicht Null, eher im Minusbereich Merlin. ;)und wer sich anmaßt mit iMovie pro arbeitet wird so oder so nicht ernst genommen..

Space


Antwort von merlinmage:

Weiß gar nicht was dein Sarkasmus soll, Nischendasein trifft FCP X ganz gut, ungeachtet der Qualität des Programms. Avid ist auch weit verbreitet, obwohl der Komfort des Programms aus der Vorhölle kommt.

Space


Antwort von Jott:

Ich find's gut, dass fcp x ignoriert wird. Bringt nur Wettbewerbsvorteile. Wie damals schon das jahrelang verlachte alte fcp. Cool!

Wer weiß, was inzwischen international das verbreitetste Arbeits-, Übergabe- und Masterformat ist? Das böse P, da fragt gar keiner, wird einfach vorausgesetzt. Um das nicht wahrzunehmen, muss man schon einen (deutschen?) Tunnelblick haben.

Benchmarks? Was testen die? Das letzte fcp-Update hat zum Beispiel die Geschwindigkeit des RED Raw-Processings verdreifacht. Reine Softwaresache. Wie soll ein Benchmark mitkriegen, wie Hard- und Software verzahnt sind? Wer nicht festgefahren ist, wird sich das heutige fcp x früher oder später mal anschauen. Auf MacPro oder iMac Retina ist das "um Faktoren" (Copyright: studioparis) flotter als vom Papier her zu erwarten. Schon schick.

Space


Antwort von motiongroup:

Was, dass absolut böse P.. Blödzinn verwendet kein Mensch mehr, hevc für alles und nix anderes...

Space


Antwort von Tiefflieger:

* gelöscht *

Space


Antwort von DV_Chris:

Jott, also ich lese in vielen Pflichtenheften als Abgabeformat XDCAM422 mit 50MBit im MXF Container. Was hätte das mit FCPX zu tun?

MXF Profile für HD-Programmbeiträge

Die für HD-Programmbeiträge spezifizierten MXF Profile von ARD, ZDF, ORF und ARTE finden Sie hier. Die Profile sind nur auf Englisch verfügbar.

ARD_ZDF_HDF01a - XDCAM 422, 1080i/25, 8 Audio Tracks - v1.0
ARD_ZDF_HDF01b - XDCAM 422, 1080i/25, 16 Audio Tracks - v1.0
ARD_ZDF_HDF02a - AVC-I 100, 1080i/25, 8 Audio Tracks - v1.0
ARD_ZDF_HDF02b - AVC-I 100, 1080i/25, 16 Audio Tracks - v1.0
ARD_ZDF_HDF03a - AVC-I 100, 720p/50, 8 Audio Tracks - v1.0
ARD_ZDF_HDF03b - AVC-I 100, 720p/50, 16 Audio Tracks - v1.0


Quelle: https://www.irt.de/de/publikationen/technische-richtlinien.html

Space


Antwort von motiongroup:

Lies genauer

http://www.servustv.biz/fileadmin/upload_media/servustv/download-pdfs/allgemein/servustv-technische-standards-11-8-2014.pdf

Bei atv, puls4 arbeiten sie auch mit prores, bei Puls 4 noch mit der alten fcp version

Space


Antwort von DV_Chris:

*lol*

Servus TV ist ja die Krone der in der EBU vertretenen Sender. Wie hoch ist noch mal die Reichweite?

Space


Antwort von motiongroup:

Zumindest sind sie von der Qualität her den ör um Lichtjahre voraus gewesen.. Wie geschrieben, lies nochmals deinen eigenen Link durch .. Der Rest ist belustigend wie das legendäre "4k alles in RT" Video auf ner Standardmaschine um wie viel tausend Euro mit ich lach mich schlapp 10bit Gui...

Lass gut sein..

Space



Space


Antwort von Jott:

adstream (beliefert so ziemlich alle Sender) will primär das böse P. XDCAM nur noch, wenn jemand das böse P nicht gebacken kriegt.

Und selbst gestrige Broadcaster merken so langsam, dass eine Festplatte mit bösem P billiger, praktischer und besser ist als ein uriges HDCAM SR-Tape.

Und die potentiellen Broadcaster der Zukunft wie Amazon haben ganz kurze technische Richtlinien: böses P und fertig. Gerne mal checken!

Aber ja, XDCAM 422 wird gerne noch vorgezogen in der D/A/CH-Broadcasterwelt. An dessen 8 Bit stört sich keiner - das böse P ist immer mindestens 10 Bit.

War der DV-Chris nicht auf der NAB? Kein Kamerahersteller ohne ProRes, kaum ein Post Pro-Stand ohne ProRes. Aber ja, Apple hat mit "Pro" nichts mehr zu tun. Interessanter Standpunkt. Was soll's.

Space


Antwort von DV_Chris:

Sony ProRes nur FHD...tolle Wurst bei einer 4K Kamera ;-)

Space


Antwort von motiongroup:

"DV_Chris" wrote:Sony ProRes nur FHD...tolle Wurst bei einer 4K Kamera ;-)

http://sales.joiz.ch/wp-content/uploads/2015/04/Adstream-Spezifikationen.pdf

Und wie viele in deiner gelobten ebu Sender List verarbeiten in den nächsten 10 Jahren 4k ... Tolle Würste 😜 für das tut's dann auch ein convergent oder etwas von Videodevices.

Space


Antwort von Peppermintpost:

oh adstream nimmt auch uncompressed, schick, ja manchmal hilft es auch die datenblätter zu lesen ;-)

Space


Antwort von Jott:

"DV_Chris" wrote:Jott, also ich lese in vielen Pflichtenheften als Abgabeformat XDCAM422 mit 50MBit im MXF Container. Was hätte das mit FCPX zu tun?

Am Rande: XDCAM 422 nach Vorschrift, auch AVC Intra (10 Bit, Iasi!), werden auf Knopfdruck broadcaster-mundgerecht im MXF-Container ausgegeben, genauso simpel wie ProRes. Damit ist allen Pflichtenheften gedient. Auch wenn Apple im Profisegment nicht vorkommt, wie wir wissen.

Space


Antwort von iasi:

Wenn da ein Auto einen starken Motor und das Design eines Sportwagens hat, warum beklagen sich die Käufer dann nicht über die Blockierung des 5.Ganges durch den Hersteller?

Space


Antwort von motiongroup:

sind wir hier im Autotalk? um welches Auto handelt es sich?

hast du schon wieder eine Renderpause oder was quält dich immer den gleichen Unsinn abzulassen.. Unabhängig davon das du weist wie du zu einer 10bit Ausgabe am Mac kommst wundert mich das erstens keinen Mac hast und zweitens auch nie einen haben wirst aus eben deinen von dir bemängelten "ich betrachte mein Scarlet Material in einer 10bit Windows GUI und da reicht mir eine Non Class One Wiedergabe in 60Hz Umgebung" zur Schaustellung deiner Präferenzen an einen Schnittplatz....

Irgendwie kommt das gleich nach den missing Colorweehls, dem Angeblichen Kabelsalat und der Irrwitzigen Form der schwarzen Torpedos..
haben fertig.

Space


Antwort von iasi:

"motiongroup" wrote:sind wir hier im Autotalk? um welches Auto handelt es sich?

aha - hat da jemand in der Schule nicht aufgepasst?

"motiongroup" wrote:
hast du schon wieder eine Renderpause oder was quält dich immer den gleichen Unsinn abzulassen..


nur weil du den Sinn nicht verstehst, ist es noch lange kein Unsinn ...

"motiongroup" wrote:
Unabhängig davon das du weist wie du zu einer 10bit Ausgabe am Mac kommst wundert mich das erstens keinen Mac hast und zweitens auch nie einen haben wirst aus eben deinen von dir bemängelten "ich betrachte mein Scarlet Material in einer 10bit Windows GUI und da reicht mir eine Non Class One Wiedergabe in 60Hz Umgebung" zur Schaustellung deiner Präferenzen an einen Schnittplatz....

Irgendwie kommt das gleich nach den missing Colorweehls, dem Angeblichen Kabelsalat und der Irrwitzigen Form der schwarzen Torpedos..
haben fertig.


Es ändert alles nichts an der Tatsache, dass Apple teure Hardware verbaut, dann aber verhindert, deren Möglichkeiten zu nutzen.
Wenn dies einen Apple-Kunden nicht stört, dann gehört er schlicht in die Schublade mit der Aufschrift "Fan-Boy" - wer das Verhalten von Apple auch noch verteidigt, ... die Bezeichnung für diese Schublade muss wohl erst noch erfunden werden ...

Space


Antwort von motiongroup:

Substanzlos was zu erwarten war.. Off

Space



Space


Antwort von Jott:

Die Hardware nutzt die Möglichkeiten hervorragend. Merkt man aber erst, wenn man damit mal arbeitet und nicht nur reflexhaft durchdreht alleine bei der Erwähnung des Wortes "Apple".

Kein Mensch braucht die Bedienoberfläche einer Schnittsoftware in 10Bit, oder? Ich weiß nicht, wie stark das die Grafikkarten mehr beanspruchen würde als eine 8Bit-Darstellung. Würde es aber mal annehmen. Wenn die Power in Videoprocessing fließt statt in sinnlose UI-Darstellung, dürfte das doch sinnvoll sein, oder?

Ich kann bei so was nicht mitreden, ist nur für Nerds. Ich gehöre mit meiner Crew zur produzierenden Seite. Schnell und zuverlässig muss alles sein, und das ist es. Monitoring läuft selbstverständlich wie an jedem Schnittplatz über echte Videoausgabe (hier Blackmagic). Ich wüste nicht, wie man anders korrekt arbeiten sollte, und da geht's nicht mal um Bits.

Möge jeder der vier oder fünf Anti-Apple-Evangelisten hier sich aufregen und zehn mal das Gleiche hinschreiben. Nur wozu eigentlich? Der Sinn erschließt sich mir nicht. Einfach zurücklehnen und genießen, dass man dem Feindbild Apple durch Miss- und Verachtung sein Geld vorenthält, sollte doch eigentlich reichen als warmes Gefühl? Bekehren klappt nicht.

Space


Antwort von Jott:

Suchspiel: wer findet den unbrauchbaren Consumer-iMer?

https://www.youtube.com/watch?v=2mV_x_I5kFA

Space


Antwort von motiongroup:

bei den revolvern... Die Edihadler die ham a Rad ab ghabd in sürich mid de fliagi ned söbst won de kidman neba mia schampus sauft dea banahaufn

;)))

Space


Antwort von R S K:

"Jott" wrote:Suchspiel: wer findet den unbrauchbaren Consumer-iMer?

https://www.youtube.com/watch?v=2mV_x_I5kFA


Meinste den, der obendrein gleich mit ZWEI Consumer-MacBook Pros seine Arbeit verrichtet? :D

- RK

Space


Antwort von Darth Schneider:

Wozu auf dem Mac 10 Bit anschauen, beim Schneiden ? Wozu denn ? Einfach den richtigen Monitor an der richtigen Karte mit Anschlüssen, je nach Bedürfnissen. Zusammen mit Final Cut , Premiere oder Avid. Bingo.

Space


Antwort von Jott:

Sogar Heise - immer für einen Apple-Shitstorm gut - hat eingeräumt, dass die Retina iMacs (eigener Screen) und der MacPro sehr wohl 10Bit darstellen. Das wiederkäut natürlich keiner der üblichen Handvoll Apple-Exorzisten oben im Thread.

Space


Antwort von WoWu:

Stimmt .. sehr fortschrittlich ...6 Jahre nach Windows.

Space


Antwort von Jott:

Da ist ja gleich wieder einer! :-)

Space


Antwort von WoWu:

Ich weiß gar nicht, was Du hast ... ich sage doch: sehr fortschrittlich.
Ich hätte auch sagen können NUR 6 Jahre nach Windows.
Das ist doch ein Lob für Apple.
Wenn sie in andern Bereichen ebenso fortschrittlich wären, wäre das ja gar nicht mehr auszuhalten.
Aber wahrscheinlich liegt das an ihrer Gründlichkeit, die Produkte erst in Ruhe aus zu entwickeln, um dann die Nische zu suchen, in der sie noch passen.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Off-Topic-Forum

Antworten zu ähnlichen Fragen //


bitte Tips: trotz "High-Speed"-PC keine zufriedenstellende Videoaufnahmen
Darstellung von mpeg2 Files in Premiere CC
Camcorder, komische Darstellung von Lichtern.
Wie viele Subpixel haben die Pixel auf dieser Darstellung?
Wie viele Subpixel hat diese Darstellung?
Sotware für 16:10 Darstellung des TV-Bildes
Trotz Chip-Knappheit und Chia-Farming: Entwarnung bei SSD-Preisen?
Bildqualität schlecht trotz hoher Datenrate bei XVID
Apple Mac Pro - keine GPU-Unterstützung für PCIe-Ports
Die Panasonic S1H in der Praxis: Die neue Vollformat-Referenz? Hauttöne, 6K 10 Bit intern, 4K 50p 10 Bit - Teil 1
Canon EOS C300 Mark III in der Praxis: Hauttöne, 10 und 12 Bit (internes) RAW und 10 Bit XF-AVC LOG Recording ?.
Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
Dynamik Smartphone mit 10 Bit Log vs. Vollformat Standardprofil 8 Bit
16 Bit Waveform schmaler als 24 Bit Waveform?
Sound von 8 Bit Mono in 16 Bit Stereo umwandeln...
Apple Pro Display XDR - 10 Bit-HDR 6K-Display mit konstanten 1.000 Nits ab 5.000 Dollar
Apple: iPad Air mit A14 Bionic CPU: Noch mehr Leistung für Echtzeit 10 Bit H.265 4:2:2 Editing?
Apple iPhone 13 Pro - Sensor-Qualität in 4K 10 Bit ProRes inkl. Dynamik und Rolling Shutter




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash