Newsmeldung von slashCAM:Die nächste Evoutionsstufe der Arri Alexa XT wird Mitte des Jahres eingeläutet, und sie wird ua
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Reloaded: Arri Alexa SXT mit ProRes 4K und Color Engine
Antwort von Thunderblade:
Wow! Das wars wohl für RED. Der Industriestandard (ALEXA XT) bereit für die Zukunft mit modernster/leistungsstärkerer High End Elektronik aus der ALEXA 65.
3 unabhängige SDI Outs mit unabhängigen Gammas und Peakins usw. . (Das ist das was man sich bei Kino seit Jahren wünscht).
Die mächtige Color Engine der AMIRA in der Alexa.
Und vor allem eine Elektronik die für 6K 65mm entwickelt wurde, damit ist Spielraum für viele neue Updates möglich (Highspeed???).
Und das beste die ganzen alten XTs sind upgradebar.
Obscolence Obsolete!
Das heißt wohl auch, dass ein neuer Sensor bei ARRI wohl noch ein paar Monate/ Jahre in der Zukunft liegt. Tja da besteht halt kein Grund zur Eile wenn bereits seit 6 Jahren den besten Sensor im ganzen Markt hat. Und die Konkurrenz noch nichtmal 6 Jahre später einen vergleichbaren Sensor hinbekommt :-)
Antwort von iasi:
4k aus 3,4k Bayer ... und dann ProRes statt Raw ...
Wie das Optimum klingt das nicht.
Das klingt doch eher nach Kompromissen.
Bekommt Arri denn nun einen neuen S35-Sensor für echte 4k gebacken oder nicht?
Mal sehen, was die NAB dann wirklich bringen wird.
Antwort von Thunderblade:
Bekommt Arri denn nun einen neuen S35-Sensor für echte 4k gebacken oder nicht?
Mal sehen, was die NAB dann wirklich bringen wird.
Ach iasi du checkst es mal wieder nicht scheinbar. DAS ist die neue ARRI NAB Ankündigung ;-). Du glaubst doch nicht, dass sie jetzt die SXT Alexas ankündigen die erst im Sommer kommen und zur NAB dann schon neue 4K Kameras!
Sieh es endlich ein! 4K braucht man nicht!
Antwort von Thunderblade:
By the way: Die erste Kamera mit REC2020 On-Set Monitoring Support.
Und dass die neuen Codex SXT Drives 20GB/sec wegschreiben dürfte uns allen zeigen wohin es geht ;-).
Das gepaart mit neuer Alexa65 Elektronik:
Ich denke mal das dauert nicht lange dann kommt da ein dickes Highspeed Update:
Dann braucht niemand mehr sich mit ner Phantom rumärgern.
ALEXA Bildqualität mit HighSpeed 800fps zum Beispiel.
Antwort von Abercrombie:
Wow! Das wars wohl für RED.
Welchen Vorteil hätte es eigentlich, wenn Red vom Markt verschwindet? Ich kann da nur Nachteile erkennen. Dabei geht es mir nicht um Red selber es kann auch Sony, BM oder AJA sein. Ich finde jeden Teilnehmer wichtig, auch wenn ich vielleicht nie mit einer seiner Kameras drehen werde. Ich bin echt neugierig, was die Argumente sind.
Antwort von Paralkar:
Ob der Sensor mehr als 200 fps auslesen kann bezweifel ich irgendwie
Antwort von dirkus:
Habt ihr den schon Geschichten, die ihr damit verfilmen wollt?
Oder werden es wiedermal nur Krimis in 4K?
Antwort von Thunderblade:
Diese SXT Module und Drives wurden ja schon mit der Alexa65 in Aussicht gestellt. Damit sollen ab jetzt ja alle ALEXA 65 ausgestattet werden und dann schaffen sie sogar 60fps in 6,5K RAW.
Antwort von iasi:
Sieh es endlich ein! 4K braucht man nicht!
Das sag aber auch mal Arri mit ihrem 4k-Upscaling, denn dann können sie sich die Mühe auch sparen. :)
Dieses 4k ProRes klingt so nach "schnell auf Sendung" - eben wie: raus aus der Kamera und rauf auf den Bildschirm.
Schnell und billig passt aber irgendwie nicht zur Alexa-Klasse.
Antwort von iasi:
Wow! Das wars wohl für RED.
Eine 6k S35 von Arri wäre eine echte Konkurrenz zur Red.
Diese 4k-Mogelpackung ist"s aber definitiv nicht.
Denn 3,4k-ArriRaw hatte man schon bisher - und das dann auf 4k aufzublasen war ja schon immer möglich.
Antwort von Thunderblade:
Welchen Vorteil hätte es eigentlich, wenn Red vom Markt verschwindet? Ich kann da nur Nachteile erkennen. Dabei geht es mir nicht um Red selber es kann auch Sony, BM oder AJA sein. Ich finde jeden Teilnehmer wichtig, auch wenn ich vielleicht nie mit einer seiner Kameras drehen werde. Ich bin echt neugierig, was die Argumente sind.
Naja dass man sich als Dop, Operator oder Kameracrew nicht mit ihren miesen Kameras am Set rumärgern muss. Es gibt ja hin und wieder ne Produktion die denkt sie können jetzt sparen/ die Billigschiene fahren und ne Epic statt ner Alexa mieten.
Das wäre dann hoffentlich vorbei.
Dann lieber F55 und Co ,,als Billigkamera''. Die sind wenigstens halbwegs anständig fürs Set konzipiert.
Zum Glück scheint die AMIRA gerade diesen Markt zu übernehmen ( für Produktionen die sich ne ALEXA sparen wollen)...
Antwort von j.t.jefferson:
Welchen Vorteil hätte es eigentlich, wenn Red vom Markt verschwindet? Ich kann da nur Nachteile erkennen. Dabei geht es mir nicht um Red selber es kann auch Sony, BM oder AJA sein. Ich finde jeden Teilnehmer wichtig, auch wenn ich vielleicht nie mit einer seiner Kameras drehen werde. Ich bin echt neugierig, was die Argumente sind.
Naja dass man sich als Dop, Operator oder Kameracrew nicht mit ihren miesen Kameras am Set rumärgern muss. Es gibt ja hin und wieder ne Produktion die denkt sie können jetzt sparen/ die Billigschiene fahren und ne Epic statt ner Alexa mieten.
Das wäre dann hoffentlich vorbei.
Dann lieber F55 und Co ,,als Billigkamera''. Die sind wenigstens halbwegs anständig fürs Set konzipiert.
Zum Glück scheint die AMIRA gerade diesen Markt zu übernehmen ( für Produktionen die sich ne ALEXA sparen wollen)...
-.-
Antwort von Thunderblade:
Die neue Color Engine ist natürlich der absolute Oberhammer für uns am Set:
Um das mal Leuten aus dem Semipro-Markt wie Iasi zu erklären:
Live-Grading des Monitorbilds (für Regie/Produzenten bei Spielfilm bzw Regie/Agency/Kunden bei Werbung) am SET durch einen DIT/On-Set Coloristen ist ein Luxus den man meist nur bei Hollywood-Großproduktionen genießen kann (bzw bei vereinzelter High End Werbung).
Bei deutschen Kinofilmen oder größeren Werbungen gibt es noch ne mögliche Zwischenlösung da leuchtet der DoP die Totale ein, dann kommt der DIT mit nem Laptop und Blackmagic Box, der 1st AC gibt an der Kamera ein Log Bild aus und dann macht der DoP mit dem DIT ein schnelles Grading und speist den dann per SD-Karte als ALEXA Look File in die Kamera ein für den Rest der Szene.
Ansonsten muss man halt mit einer kleinen Auswahl an verschiedenen Looks auf deiner SD-Karte oder halt wie auch kleinere (TV etc.) Produktionen mit dem Standard REC 709 Look der Alexa leben. Das ist aber meist gestalterisch für den DoP nicht das Optimum.
Diese AMIRA Color Engine in der ALEXA SXT ist dahingehend absolut revolutionär.
Der DoP leuchtet sein Set ein und kann in der Kamera die LUT/ den Look der auf die Monitore zu Regie/usw geht selber anpassen.
- Die Gammakurve verändern, die schatten ein bisschen anheben, die schatten verdunkeln, die Farben komplett verändern, einen ekligen grünstich irgendwo rausdrehen, das licht ein bisschen kühler, das Kleid einer Darstellerin ein bisschen roter etc.. Natürlich ohne sein Negativ (das Log-Bild) zu beeinflussen. Und das ganze geht dann noch als Metadaten-File an den Dailies/Muster Coloristen der das dann gleich auf die Muster/Dailies für Regie, Produzenten oder Verleiher (WarnerBrothers,etc.) packen kann.
bzw. nachher beim finalen Grading des films bleibt die info ja auch erhalten und kann als arbeitsgrundlage benutzt werden.
Du hast als Dop die komplette Macht über die Farbwiedergabe der Kamera und kannst das durch 1-2 Knöpfe in der Kamera feinst genau einstellen und verändern.
Ich habe selber viel mit den internen Color Möglichkeiten der Amira rumgespielt, das ist wirklich verdammt beeindruckend sag ich dir!!!
Für den DoP völlig neue Möglichkeiten in der Arbeit am Set und etwas vergleichbares bietet keiner der Konkurrensanbieter (RED,Sony und Co.) und solche Dinge sind der Grund dass sich eine Alexa als Industriestandard bei den Profis etabliert hat bzw jeder Kameramann sie bevorzugt.
Da geht es halt nicht um Specs (6K, 8K, 10K, usw) ;-)
Antwort von Paralkar:
Du hast eine sehr einseitige Sichtweise,
Hab schon bei einigen TVCs mitgemacht, wo es keine Kostenfrage war zur Epic zu greifen oder ne Alexa zu nehmen.
Genau genommen wurde ne Epic aus Gewichts- & Größegründen bevorzugt (Handkamera), aber auch genauso wenig wegen 5k oder sonst was.
Ob das mit der Alexa Mini der Vergangenheit angehört, werden wir sehen.
Und die Amira aus Kostengründen zu bevorzugen anstatt ner Alexa ist richtiger Müll, weil die Kamera nicht auf den Mehrmannbetrieb ausgelegt ist, wie ne Alexa.
da kannst du jeden 1.AC fragen, der momentan beliebte Wechsel auf die Amira geht einigen auf den Keks
Antwort von iasi:
Die neue Color Engine ist natürlich der absolute Oberhammer für uns am Set:
ja - wer eben den fertigen Film schon am Set will und braucht, ist eben darauf angewiesen, dass in der Kamera schon alles hingebogen werden kann.
So was kennt man ja vom EB-Bereich.
Alle anderen machen"s eben wie damals beim Film: Entwickelt wird später - und dann eben auch richtig.
Antwort von Thunderblade:
Dazu jetzt erstmals 3 vollkommen unabhängige SDI-Ausgänge an der Kamera mit 3 einzelnen Processings.
Der 1st AC kann sich jetzt ein Peaking in der Kamera auf seinen Onboard Monitor legen usw und das landet nicht bei Regie/Kunden/Agency beispielsweise.
Oder du bist ne Hollywood-Produktion mit Live Grading am Set, dann gibst du ein sauberes Log-Bild aus SDI1 aus was zum DIT und dann zu Regie/ Kunden/Agency und allen anderen geht. Die Leute die dann aber an der Kamera arbeiten/ Operator/ 1st AC usw. können sich auf ihre Monitore dann beispielsweise ein REC709 Gamma legen und müssen kein Log-Bild sehen bzw der 1st AC legt sich Peakins usw. in der Kamera drauf wie gesagt.
Oder der DoP spielt/gradet an der Kamera ein bisschen an den Farben rum um zu checken ob das später im Grading alles so funktionieren wird wie er sich das denkt. ohne dass es sofort im Kunden/Agency Zelt landet und die sich denken was ist denn da los?
Antwort von Thunderblade:
Und die Amira aus Kostengründen zu bevorzugen anstatt ner Alexa ist richtiger Müll, weil die Kamera nicht auf den Mehrmannbetrieb ausgelegt ist, wie ne Alexa.
da kannst du jeden 1.AC fragen, der momentan beliebte Wechsel auf die Amira geht einigen auf den Keks
Tja, auch wenn ich mittlerweile sehr häufig Operator bzw kleinere Projekte als DOP mache, mache ich auch noch viele 1st AC Jobs bei großen Produktionen das Jahr über und kann dir da aus eigener Erfahrung aber sagen, dass es leider kleinere Projekte gibt wo genau das der Fall ist. Und ja das geht mir und soziemlich allen Kollegen auf den Keks.
Aber das interessiert ne Spar-Produktion wenig ob ne Alexa für mich entspannter ist im Handling am Set wenn sie dafür das doppelte kostet beispielsweise.
Zum Glück ist das ja nur ein kleiner Teil (wie du schon sagst vereinzelte kleine TV-Werbespots). Bei den meisten Produktionen gibt es ,,bisher'' weiterhin ne ALEXA ;-).
Antwort von Spaceman:
Das klingt aber verdammt nach nem Amateur Workflow.
So umständlich hat man gedreht als es noch kein RAW gab!
Wir sind in 2015...
Antwort von Daniel P Rudin:
Die neue Color Engine ist natürlich der absolute Oberhammer für uns am Set:
Um das mal Leuten aus dem Semipro-Markt wie Iasi zu erklären:
Live-Grading des Monitorbilds (für Regie/Produzenten bei Spielfilm bzw Regie/Agency/Kunden bei Werbung) am SET durch einen DIT/On-Set Coloristen ist ein Luxus den man meist nur bei Hollywood-Großproduktionen genießen kann (bzw bei vereinzelter High End Werbung).
Bei deutschen Kinofilmen oder größeren Werbungen gibt es noch ne mögliche Zwischenlösung da leuchtet der DoP die Totale ein, dann kommt der DIT mit nem Laptop und Blackmagic Box, der 1st AC gibt an der Kamera ein Log Bild aus und dann macht der DoP mit dem DIT ein schnelles Grading und speist den dann per SD-Karte als ALEXA Look File in die Kamera ein für den Rest der Szene.
Ansonsten muss man halt mit einer kleinen Auswahl an verschiedenen Looks auf deiner SD-Karte oder halt wie auch kleinere (TV etc.) Produktionen mit dem Standard REC 709 Look der Alexa leben. Das ist aber meist gestalterisch für den DoP nicht das Optimum.
Diese AMIRA Color Engine in der ALEXA SXT ist dahingehend absolut revolutionär.
Der DoP leuchtet sein Set ein und kann in der Kamera die LUT/ den Look der auf die Monitore zu Regie/usw geht selber anpassen.
- Die Gammakurve verändern, die schatten ein bisschen anheben, die schatten verdunkeln, die Farben komplett verändern, einen ekligen grünstich irgendwo rausdrehen, das licht ein bisschen kühler, das Kleid einer Darstellerin ein bisschen roter etc.. Natürlich ohne sein Negativ (das Log-Bild) zu beeinflussen. Und das ganze geht dann noch als Metadaten-File an den Dailies/Muster Coloristen der das dann gleich auf die Muster/Dailies für Regie, Produzenten oder Verleiher (WarnerBrothers,etc.) packen kann.
bzw. nachher beim finalen Grading des films bleibt die info ja auch erhalten und kann als arbeitsgrundlage benutzt werden.
Du hast als Dop die komplette Macht über die Farbwiedergabe der Kamera und kannst das durch 1-2 Knöpfe in der Kamera feinst genau einstellen und verändern.
Ich habe selber viel mit den internen Color Möglichkeiten der Amira rumgespielt, das ist wirklich verdammt beeindruckend sag ich dir!!!
Für den DoP völlig neue Möglichkeiten in der Arbeit am Set und etwas vergleichbares bietet keiner der Konkurrensanbieter (RED,Sony und Co.) und solche Dinge sind der Grund dass sich eine Alexa als Industriestandard bei den Profis etabliert hat bzw jeder Kameramann sie bevorzugt.
Da geht es halt nicht um Specs (6K, 8K, 10K, usw) ;-)
Man bildet sich ja gerne mal weiter..
Können diese Farbkorrekturen in Kamera alle gleichzeitig angewendet werden (zb. Grünstich im Gesicht raus und das Kleid roter machen ohne die Hauttöne an der Händen zu verändern?) oder reden wir hier von einer ASC CDL?
Antwort von iasi:
Im Zeitalter von leistungsfähiger Hardware und Programmen ala Resolve etc. will sich doch hoffentlich niemand auf on-Set-Spielereien beschränken.
Niemand kann am Set das leisten, was eine gute Post-Truppe in Tagen vor dem Rechner zaubern kann.
Entweder der Kameramann will nichts an Gestaltungsspielraum an die Post-Leute abgeben, weil er "sein Bild" kontrollieren will.
Oder der ganzen Set-Truppe ist es egal, welches Potential noch in der Post steckt - oder noch schlimmer: sie haben keine Vorstellung davon.
Übrigens ist es teurer, alles während der knappen Drehzeit machen zu wollen, als schlicht nach dem Dreh.
Antwort von Spaceman:
Das mit dem ganzen Color einstellen in der Kamera mithilfe von Luts etc. zeigt mir dass Arri mehr und mehr den Consumer/Video/ Fernsehmarkt im Auge hat. Sozusagen als Hilfestellung für den Amateur.
Profis wissen wir man ein Raw oder Log belichtet ...
Antwort von Jake the rake:
So schaut das in der Kamera aus. Man kann wie blöd Looks kopieren, neue erstellen und verschrauben bis der Arzt kommt...
@iasi: Es geht nicht darum das grading am Set zu machen sondern einfach mit den looks herumspielen zu können und diesen Look dann weiter zu reichen.
Normalerweise bekommt der dop ja noch mindestens einen Tag um beim (finalen) grading dabeizusein (Bei Fernsehproduktionen) damit er den "seinen" Look sozusagen absegnen kann...
Antwort von Daniel P Rudin:
Entweder der Kameramann will nichts an Gestaltungsspielraum an die Post-Leute abgeben, weil er "sein Bild" kontrollieren will.
Um genau das gehts.. damit ich den Leuten in Post weiterreichen kann was ich mir beim Ausleuchten gedacht habe.. Schliesslich werde ich unter anderem gebucht weil man den Look meiner Aufnamen mochte.. und den mag ich im Endergebnis schon gerne wiederfinden..
Antwort von Jott:
Wenn der gute Iasi mal mit Kunden wie meinetwegen Werbern drehen würde, wäre das Verständnis für solche Produktionslogistik, wie Arri sie ermöglicht, vielleicht eher da. Der EB-Vergleich ist doch Quatsch, es werden nur Metadaten erzeugt, die in der Post Zeit zeitsparend als Basis genutzt werden können. Oder auch nicht, falls plötzlich alle wieder was anderes wollen als noch beim Dreh.
Antwort von Daniel P Rudin:
So schaut das in der Kamera aus. Man kann wie blöd Looks kopieren, neue erstellen und verschrauben bis der Arzt kommt...
Ja, das war mir bekannt, ist aber bei weitem nicht so revolutionär wie uns das Thunderblade hier verkaufen will...
Antwort von iasi:
Klar verziehen die Leute beim Anblick von einem Raw-Monitorbild das Gesicht, aber wenn mit Film gedreht wird, bekommen sie auch nicht das endgültige Bild zu sehe.
Wer das Maximale aus der Alexa holen will, gewinnt durch die SXT gar nichts - was an Raw rauskommt, ist dasselbe, wie bisher.
Das scheint es wohl auch gewesen zu sein, was Arri zur NAB zu bieten hat.
http://www.heise.de/foto/artikel/Ende-L ... &hgf=false
Schwach.
Antwort von Spaceman:
Looks in der Kamera kann man sich vorstellen wie Stützräder am Fahrrad... 😉
Antwort von Thunderblade:
Das klingt aber verdammt nach nem Amateur Workflow.
So umständlich hat man gedreht als es noch kein RAW gab!
Wir sind in 2015...
Es geht hier nicht um den Negativ/ RAW Bild was aus der Kamera kommt sondern dein On-Set Monitoring!!!
ja - wer eben den fertigen Film schon am Set will und braucht, ist eben darauf angewiesen, dass in der Kamera schon alles hingebogen werden kann.
So was kennt man ja vom EB-Bereich.
Alle anderen machen"s eben wie damals beim Film: Entwickelt wird später - und dann eben auch richtig.
Es ist halt ein Unterschied ob ihr selber privat/ bzw für irgendeinen kleinen Verein ein Musikvideo für Youtube dreht und dann eigenverantwortlich ,,filmt'' uns sagt ,,das ist alles RAW! Das mach ich in der Post'' oder ob ihr ne fette Werbung oder nen Kinofilm dreht. Da geht sowas halt nicht.
Da hast du anspruchsvolle Regisseure/Produzenten/Agency-Leute und Kunden vor den Monitoren die dort live vor Ort ein mehr oder weniger perfektes Bild brauchen zur Beurteilung/Abnahme. Deshalb entweder bei Hollywood sogar einen On-Set Coloristen bzw nun sogar das.
Beispiel du drehst ne Werbung einfach mit deinem Standard REC 709 Monitor Look der ALEXA. Aufeinmal ein Kunde im Zelt: ,,Oh nein! Unser Produkt (ich sag jetzt mal wieder rotes Kleid) sieht nicht rot genug/zu orange in der Kamera aus usw. Dann wir der DoP angekackt und dann kannst du halt nicht sagen: das machen wir im Grading in der Post. Da hast du 20 Leute im beheizten/mit Teppichboden ausgelegten Zelt sitzen die hunderttausende Euros in diesen Spot stecken die wollen dann sofort Ergebnisse sehen ;-)
Oder du hast nen Kinofilmregisseur der der Meinung ist seine dunkel geleuchtete gruselige Nachtszene wirkt nicht, weil er in den Schatten noch zu viel sieht. Da kannst du als DoP auch nicht einfach sagen: das machen wir in der Post. Das braucht der Man halt zum Arbeiten.
Das sind halt diese Ansprüche die natürlicherweise jetzt mit Digital/Livebild am Set gekommen sind. Früher war das was anderes wo nur der DoP mit 35mm Kameras wusste wie es nachher aussehen wird. Das bemängeln ja auch viele prominente DoPs in Interviews, dass diese Magie weg ist.
Aber so ist das halt jetzt. Der Vorteil ist dass du ruhiger schläfst. So bist du halt schon am Set mit Regie/Kunden in Kommunikation um deren Vorstellung umzusetzen/zu erfüllen. Früher kam manchmal das böse erwachen Tage später im Dailies-Screening und bedeutete unter Umständen einen teuren Nachdreh den man sich so spart ;-).
Im Zeitalter von leistungsfähiger Hardware und Programmen ala Resolve etc. will sich doch hoffentlich niemand auf on-Set-Spielereien beschränken.
Niemand kann am Set das leisten, was eine gute Post-Truppe in Tagen vor dem Rechner zaubern kann.
Nein natürlich soll das auch nicht die Post-Arbeit ersetzen die gibt es ja weiterhin. Aber auch hier wird die Kommunikation verbessert.
Der DoP kann am Set grob/künstlerisch seinen Look so bestimmen wie er sein soll und das den Post Leuten weitergeben. Die das dann nochmal fein/sauber mit dem Originalmaterial machen.
Aber jetzt gibt es halt oft den Fall dass der Dailies Colorist das Material vollkommen anders gradet als der DoP sich das künstlerisch vorgestellt hat. Aber der DoP arbeitet ja parallel und dreht die nächsten Szenen während der Dailies Colorisz die Szenen der Vortages gradet. Und wenn der DOP dass dann in den Mustern merkt ist es schon zu spät. Dann ist das schon so mit diesem Grading bei Regie/Produzenten und Verleiher gelandet und unter Umständen entstand Panik.
So kann man das umgehen indem der DoP am Set seinen Look bestimmen und weiter kommunizieren kann.
Antwort von Thunderblade:
Wenn der gute Iasi mal mit Kunden wie meinetwegen Werbern drehen würde, wäre das Verständnis für solche Produktionslogistik, wie Arri sie ermöglicht, vielleicht eher da.
Ganz genau das sage ich ja! Das kann sich ein SemiPro halt nicht vorstellen wie es an einem richtigen Set abläuft bzw was man da als DOP für ne Verantwortung hat bzw abliefern muss.
Antwort von Valentino:
Doch bei der Alexa Serie ist das mit den 3D LUT schon recht revolutionär, da man sich vorher mit einfachen 1D LUTs begnügen musste und immer eine AJA oder BM 3D LUT Box dazwischen schalten musste.
Naja aber wer halt noch nie mit dem Problem konfrontiert war, für den hört sich das sehr stark nach der 0815 Farbeinstellungen einer EB-Mühle an, was es aber definitiv nicht ist.
Was ich bis jetzt noch nicht finden konnte, das die ganzen Funktionen wie bei der Alexa Mini natürlich auch über WLAN in Echtzeit gesteuert werden können.
Bei den EPICs geht das so weit auch, nur kann diese bis heute keine standardisierten 1DLUTs geschweige den 3D LUTs importieren oder gar anzeigen.
Mit dem 3D LUT kann man z.B. auch eine Monitor kalibrieren, wenn man die Werkzeuge/Messgeräte dazu hat.
BTW: 200fps sind das Maximum, das mit dem Sensor erreicht werden kann,
das habe ich so weit mal direkt von Arri beantwortet bekommen.
@Iasi
Hast du dir mal die komplette News von Arri durchgelesen oder willst du einfach nur wieder bashen?
Die neue SXT hat eine komplett überarbeitet A/D Wandlung und Fehler/Pixelkorrektur verbaut, da kann man also nicht wirklich vom gleichen RAW sprechen.
Antwort von Thunderblade:
Ja, das war mir bekannt, ist aber bei weitem nicht so revolutionär wie uns das Thunderblade hier verkaufen will...
Ja es ist ja auch nichts was bisher unmöglich war. Wie gesagt mit DIT mit nem Laptop mit Blackmagic-Box und Software ging das rudimentär auch bisher am Set.
Jetzt halt direkt in der Kamera was ne Menge Aufwand und Zeit spart.
Wieder mögliches Beispiel aus der Praxis:
Der DoP hat seine Totale eingeleuchtet macht dann per Laptop mit dem DIT seinen Look und spielt den per SD Karte ein.
Nun ist er also irgendwann am drehen (oder ist beispielsweise schon ne Einstellung weiter im Gegenschuss und stellt fest) jetzt funktioniert sein Look nicht mehr weil er jetzt im Gegenschuss ein Fenster im Bild hat. Jetzt ist man also schon mitten im Prozess die Darsteller sind am Set. Dann kannst du ja nicht die Darsteller wieder in ihren Trailer schicken, den DIT mit Hardware usw. wieder ans Set rufen und nochmal den Look anpassen und den Regisseur warten lassen.
Tja, jetzt sind das halt mal 2 schnelle Knöpfe an der Kamera und du kannst schnell zwischendurch was anpassen, während die Maskenbildnerin den Darsteller nachpudert ;-).
Antwort von iasi:
Tja - wie schon gesagt:
Wer mit Film dreht, der lässt seinen Kunden auch nicht durch den Sucher blicken. Und dort würde er eh auch nicht das Endergebnis sehen.
Und wenn ich mich an einen Sony F65-Dreh erinnere, galt da auch:
Das Videobild zeigt nicht das Ergebnis. Wir nutzen den DR bestmöglich aus und "entwickelt" wird in der Post.
Dem Kunden ein Videobild zu zeigen und zu sagen, so sieht"s am Ende aus, kommt doch einer Selbststrangulation gleich.
Antwort von Spaceman:
Die eigentliche Krux liegt woanders: die Kameras zaubern heutzutage perfekte Raw , oder meinetwegen Log Dateien.
Diese Rohdaten dann auch mittels Grading zu Gold zu machen kann kaum einer. Da sind fast alle insbesondere mit Fernseh/ Videovergangenheit überfordert. Auch sogenannte "professionelle Coloristen"
Nur ganz wenige wissen wie man wirklich ein Hollywood Bild zaubert...
Antwort von Thunderblade:
Doch bei der Alexa Serie ist das mit den 3D LUT schon recht revolutionär, da man sich vorher mit einfachen 1D LUTs begnügen musste und immer eine AJA oder BM 3D LUT Box dazwischen schalten musste.
AH! Da kommt wieder mein fehlendes DIT (der ich ja nicht bin) wissen hervor.
Heißt das die internen Möglichkeiten der SXT Alexen (3D LUT) können jetzt mehr als die Lösung mit der Blackmagic Box (1D LUT)?
Antwort von iasi:
Ja, das war mir bekannt, ist aber bei weitem nicht so revolutionär wie uns das Thunderblade hier verkaufen will...
Ja es ist ja auch nichts was bisher unmöglich war. Wie gesagt mit DIT mit nem Laptop mit Blackmagic-Box und Software ging das rudimentär auch bisher am Set.
Jetzt halt direkt in der Kamera was ne Menge Aufwand und Zeit spart.
Wieder mögliches Beispiel aus der Praxis:
Der DoP hat seine Totale eingeleuchtet macht dann per Laptop mit dem DIT seinen Look und spielt den per SD Karte ein.
Nun ist er also irgendwann am drehen (oder ist beispielsweise schon ne Einstellung weiter im Gegenschuss und stellt fest) jetzt funktioniert sein Look nicht mehr weil er jetzt im Gegenschuss ein Fenster im Bild hat. Jetzt ist man also schon mitten im Prozess die Darsteller sind am Set. Dann kannst du ja nicht die Darsteller wieder in ihren Trailer schicken, den DIT mit Hardware usw. wieder ans Set rufen und nochmal den Look anpassen und den Regisseur warten lassen.
Tja, jetzt sind das halt mal 2 schnelle Knöpfe an der Kamera und du kannst schnell zwischendurch was anpassen, während die Maskenbildnerin den Darsteller nachpudert ;-).
Wozu das alles?
Licht messen und so belichten, dass der DR optimal genutzt wird.
Mehr braucht"s doch nicht.
War und ist beim Filmen auf Negativ doch auch nicht anderes.
Antwort von Spaceman:
Naja für nen DOP oder die Crew mit mangelnder Vorstellungskraft reicht zumindest mal die 1D LUT für Kontraste im Bild.
Obs wirklich ne 3D Lut braucht ? Bissel übertrieben, aber ok wer nen blaue statt grüne Wiese haben will...
Antwort von j.t.jefferson:
3D LUT ist schon geil.
Bisher hatte ich dafür immer den SmallHD DP7 mit Paralinx genutzt. Darüber dann das Bild zum Kunden.
@iasi
Leider sind die Kunden oft so verwöhnt, dass sie direkt was sehen wollen XD
Antwort von Valentino:
Also die LUT Box von BM war leider eh nie so der große Renner, da die 3D LUTs nicht genau genug wiedergegeben wurden, habe die Genauigkeit aber nicht mehr im Kopf.
Bei der AJA sind es aber definitiv eine 16 bzw. 17 Punkt 3D LUT möglich und dazu lässt sich noch ein 1D LUT davor schalten, gibt auch noch ein paar andere LUT Boxen, die so etwas können.
Da die HDLink Pro anscheinend EoL ist, hoffe ich mal das da BM endlich nachlegt und zur NAB ein kleinen LUT Stickt raus bringt.
Sonst halt Live Grading über eine I/O Box oder Karte, dafür braucht man aber ein anständiges Gerät mit viel Leistung.
Antwort von iasi:
@Iasi
Hast du dir mal die komplette News von Arri durchgelesen oder willst du einfach nur wieder bashen?
Die neue SXT hat eine komplett überarbeitet A/D Wandlung und Fehler/Pixelkorrektur verbaut, da kann man also nicht wirklich vom gleichen RAW sprechen.
Fehler/Pixelkorrektur???
Gab"s da denn bisher Probleme?
Komplett überarbeitet A/D Wandlung?
War die notwendig?
Ist ja nett, dasss Arri versucht, den alten Sensor bis zum Limit auszureizen - aber andere entwickeln eben neue Sensoren.
Antwort von Thunderblade:
Wozu das alles?
Licht messen und so belichten, dass der DR optimal genutzt wird.
Mehr braucht"s doch nicht.
War und ist beim Filmen auf Negativ doch auch nicht anderes.
Wie gesagt: So war es ohne Frage früher als man noch auf Film drehte ;-)
Doch jetzt mit Livebild: Da muss das Livebild halt auch nach was aussehen.
So ein Anspruch besteht halt von Seiten der Kunden/Agency usw am Set und das sind die Leute die den Spot und damit dich bezahlen :P.
Beim Spielfilm nicht anders: Du musst die Vision des Regisseurs umsetzen er ist dein Chef ;-).
Und wenn die jetzt alle ein Livebild haben hast du halt am Set die Situation dass du es so anpassen musst wie sie sich das vorgestellt haben.
So ist das halt jetzt. Willkommen in der Welt des digitalen Filmemachers ;-)
Antwort von Spaceman:
Also wenn ich einen Regisseur hätte der sich ein Grading nicht ohne Vorschau vorstellen kann, den würde ich sofort feuern!
Antwort von Frank Glencairn:
D
Live-Grading des Monitorbilds (für Regie/Produzenten bei Spielfilm bzw Regie/Agency/Kunden bei Werbung) am SET durch einen DIT/On-Set Coloristen ist ein Luxus den man meist nur bei Hollywood-Großproduktionen genießen kann (bzw bei vereinzelter High End Werbung).
na ja... "Hollywood Luxus" - jeder Depp kann die kostenlose Version von Resolve runterladen und eine billige BM I/O Box and den Laptop hängen, und schon haste echtes Livegrading mit noch ganz anderen Möglichkeiten. Also ne Kostenfrage ist das sicher nicht.
Antwort von iasi:
@iasi
Leider sind die Kunden oft so verwöhnt, dass sie direkt was sehen wollen XD
und das ist ziemlich gruselig - erklärt man ihnen dann z.B. anhand von "Birdman", was sich an dem Videobild dann doch noch alles ändern wird.
Gerade so ein DR wie bei der Alexa bietet doch noch so viel Gestaltungsspielraum für die Post.
Vielleicht sollte man dem Kunden einfach mal vorrechnen, wie viel ihn dieses Vorschauvideobild insgesamt kostet, dann wird er sich"s vielleicht anderes überlegen.
Antwort von Spaceman:
Übrigens gibt es auch Log Varianten mit Hilfestellung für nicht Profis.
Anders als reine Logs wie z.B. Redlogfilm (Cineon) oder Log-C Arri haben Sony S-Log, Panasonic V-log und auch die von Blackmagic eingebaute Knicke in den Schatten damit die auch beim Dreh schon ganz ok aussehen (nach Lift Gain Justage)
Antwort von iasi:
So ist das halt jetzt. Willkommen in der Welt des digitalen Filmemachers ;-)
Eigentlich war das bisher die EB-Welt.
Meine Befürchtung ist eben, dass durch dieses ganze Videovorschaubildgemache am Ende die Möglichkeiten der Post nicht mehr ausgereizt werden.
Ist ja leider schon zu oft Praxis.
Dabei dreht man mit High-End-Kameras ...
Antwort von Spaceman:
Außer Iasi und Spaceman kenne ich ansonsten in ganz Deutschland keinen der ein echtes Hollywood Bild Graden könnte.
Traurig aber wahr ;-)
Antwort von Spaceman:
Und die zwei sind nur Hobby-Isten :-)
Antwort von Thunderblade:
na ja... "Hollywood Luxus" - jeder Depp kann die kostenlose Version von Resolve runterladen und eine billige BM I/O Box and den Laptop hängen, und schon haste echtes Livegrading mit noch ganz anderen Möglichkeiten. Also ne Kostenfrage ist das sicher nicht.
Tja das ist schon so wieder ein simpler Hobby Aufbau der nicht fürs professionelle Arbeiten an einem großen Set funktioniert.
Eigentlich war das bisher die EB-Welt.
Meine Befürchtung ist eben, dass durch dieses ganze Videovorschaubildgemache am Ende die Möglichkeiten der Post nicht mehr ausgereizt werden.
Ist ja leider schon zu oft Praxis.
Dabei dreht man mit High-End-Kameras ...
Das ist das was Michael Cioni von LIGHTIRON schon seit Monaten/Jahren predigt, die Post wandert lediglich immer weiter direkt ans Set. Ob es das Post Haus als physisches Haus/Einrichtung in ein paar Jahren noch gibt bezweifelt er ja.
Antwort von Funless:
Und die zwei sind nur Hobby-Isten :-)
Nö einfach nur zwei Möchtegern-reaktionäre Spammer.
Antwort von Spaceman:
Es ist aber schon ein Unterschied ob Du am Set professionell mit Quantel gradest oder das Bild amateurhaft in der Kamera mit Luts verbiegst...
Antwort von Spaceman:
Stichwort Light Iron
Antwort von Thunderblade:
Außer Iasi und Spaceman kenne ich ansonsten in ganz Deutschland keinen der ein echtes Hollywood Bild Graden könnte.
Traurig aber wahr ;-)
Und die zwei sind nur Hobby-Isten :-)
AHA! Ich glaube damit Spaceman bestätigst du eine Vermutung die ich schon seit langem hege:
Spaceman ist irgendein Zweitaccount von einem anderen User der nur zum provozieren da ist.
Und jetzt hat dieser User hier im falschen Account gepostet und sich über sich selbst als Spaceman lustig gemacht.
Das ist beruhigend weil das bedeutet dass deine verschrobenen Ansichten nicht wirklich echt sind. So weltfremd kann man ja gar nicht denken.
Antwort von Thunderblade:
Oder meinst du das tatsächlich ernst?
Und Du willst uns sagen du hälst dich für den einzigen in Deutschland der die Fähigkeit hat ein Hollywood Bild zu graden!!
Da bist du aber mächtig schief gewickelt mein Freund ;-)
Antwort von DV_Chris:
Wenn man sich das hysterische Geschreibe von Thunderblade so durchliest, dann entsteht der Eindruck, dass Filme machen bis vor kurzem gar nicht möglich war. Jahrzehnte lang waren alle DOPs Glücksritter, die ab und an etwas richtig belichtet haben ;-)
Im Ernst: es ist zu hoffen, dass die Menschheit in 200 Jahren über das zu Tode gegradete, komplett artifizielle Material (müde) lächeln wird als Laune einer durch das Web2.0, Instagram etc verblendeten technophilen Filmerkaste, die keine Sekunde an den Inhalt verschwendet hat.
Antwort von Spaceman:
Mensch Thunder, ein Bissel Selbstironie würde auch Dir nicht schaden.
Antwort von Thunderblade:
Wenn man sich das hysterische Geschreibe von Thunderblade so durchliest, dann entsteht der Eindruck, dass Filme machen bis vor kurzem gar nicht möglich war. Jahrzehnte lang waren alle DOPs Glücksritter, die ab und an etwas richtig belichtet haben ;-)
Wie gesagt: Das hat ja weniger was mit den DoPs zutun, sondern ist eher eine Sache des Anspruchs von Kunden/Agency und dem ganzen Volk.
Antwort von Spaceman:
Color Grading hebt das Videobild aus der Realwelt in die Fantasywelt.
Vergleich Foto und Gemälde.
Amen.
Antwort von Thunderblade:
Und Iasi:
Laut ARRI soll auch das RAW/ProRes Bild aus der Kamera ,,verbessert'' sein:
,,completely overhauled image processing chain, advanced pixel correction and optional noise reduction''
Was das in der Praxis bedeutet oder wie groß der Unterschied nun ist: Naja da bin ich skeptisch! Wird sich zeigen!
BTW: 200fps sind das Maximum, das mit dem Sensor erreicht werden kann,
das habe ich so weit mal direkt von Arri beantwortet bekommen.
Dann wundert mich aber, wozu das neue SXT Recording Modul mit den neuen Drives eingebaut wurde. Weil mit den bekannten Datenraten kommen ja auch die alten XT Mags bzw sogar CFast2.0 und SxS zurecht.
ARRI hat glaube ich mal gesagt bei der Alexa sind 120fps das Maximum und nur bei der AMIRA gehen 200fps weil da der Sensor irgendwie modifiziert ist oder auf nem neueren Board oder so sitzt.
Vielleicht haben sie das ja jetzt wieder modifiziert und mit ALEXA 65 Elektronik ist noch mehr als 200fps möglich. Anders machen doch die neuen SXT Drives keinen Sinn, oder übersehe ich etwas?
Bisher gibt es noch gar keine Infos bezüglich Framerates das wird ausgeschwiegen. Es ist also noch nichtmal sicher, dass sie die 200fps der Amira schafft (die XT Alexen schaffen ja nur 120).
Vielleicht hört man in den nächsten Tagen bzw spätestens zur NAB mehr.
Und vorallem:
Wozu dann die ALEXA 65 Elektronik? Ein bisschen internes 4K Upscaling? Das schafft ja sogar die 25.000€ AMIRA.
Ich glaube ja da kommt noch irgendne Info/ Verbesserung von der bisher nichts gesagt wurde.
Weil nur für 3 separate SDIs und die AMIRA Color Software bringen die doch keine neue Kamera raus…
Vorallem machen bisher die SXT Drives mit 20GB/sec keinen Sinn in dieser Kamera.
In der ALEXA 65 schon die jetzt mehr als die 27fps schafft, aber wozu dann diese neuen 35mm ALEXAs mit diesen Drives?
Antwort von sottofellini:
Mir kommt dieses ganze Geplänkel der Profiligafilmer etwa so vor, wie ein Tümpel voller Krokodile, die sich um den reingeworfenen Happen balgen.
Die Krokodile sehen alle gleich aus, aber der Fleischmocken ist zur Abwechslung nicht saftiges Schweinefleisch, sondern zur Abwechslung mal edles Rindsfilet ;-)
Und alle schlagen sie Wellen mit dem Ende ihres Körpers...
Antwort von Tiefflieger:
Die Kamera ist optisch und vom Signalweg am "Original".
Mit 4K Aufzeichnung, auch wenn es Upscaling ist, werden im bestmöglichen Verfahren die Daten "normiert" und konserviert.
Und scheinbar ist die Elektronik in der Kamera dazu fähig.
Weiter werden durch "Normierung" der Signale und Aufzeichnungsverfahren auch Daten aus höherwertigen Kameras einfacher mischbar.
Gruss Tiefflieger
Antwort von iasi:
Und Iasi:
Laut ARRI soll auch das RAW/ProRes Bild aus der Kamera ,,verbessert'' sein:
,,completely overhauled image processing chain, advanced pixel correction and optional noise reduction''
Was das in der Praxis bedeutet oder wie groß der Unterschied nun ist: Naja da bin ich skeptisch! Wird sich zeigen!
Ist ja immerhin auch nicht schlecht, wenn sie versuchen, das Maximale rauszuholen - zumal mehr Rechenleistung dazu ja vorhanden ist.
Aber dennoch bleibt das Problem, dass die Konkurrenz in den Bereichen, in denen die Alexa die Nase vorn hatte/hat erheblich aufholen, während in den Bereichen, in denen die Alexa "hinten" liegt, sich bei Arri nicht viel tut.
Antwort von merlinmage:
Trotzdem nach den Jahren enttäuschend, nur nen 4K Upscale vom gleichen Sensor zu bekommen - ich habe nicht viel erwartet, Arri hat es dennoch unterboten. Oh man.
Antwort von iasi:
Die Kamera ist optisch und vom Signalweg am "Original".
Mit 4K Aufzeichnung, auch wenn es Upscaling ist, werden im bestmöglichen Verfahren die Daten "normiert" und konserviert.
Und scheinbar ist die Elektronik in der Kamera dazu fähig.
Gruss Tiefflieger
na na na - es ist ja nicht gerade so, dass die Alexa perfekt ist - das ist keine Kamera.
Und jetzt wird eben an dem herumgefrickelt, was der Sensor liefern kann:
Upscaling hier, NR da, ...
Antwort von Thunderblade:
Aber dennoch bleibt das Problem, dass die Konkurrenz in den Bereichen, in denen die Alexa die Nase vorn hatte/hat erheblich aufholen, während in den Bereichen, in denen die Alexa "hinten" liegt, sich bei Arri nicht viel tut.
Trotzdem nach den Jahren enttäuschend, nur nen 4K Upscale vom gleichen Sensor zu bekommen - ich habe nicht viel erwartet, Arri hat es dennoch unterboten. Oh man.
Ich vermute es ist ein Fehlglaube zu denken, dass bei ARRI nichts passiert.
Die werden schon seit Jahren an neuen Sensoren forschen/entiwckeln.
Nur lassen sie sich vermutlich halt Zeit und wollen alles richtig machen und wieder einen so genialen Sensor herausbringen wie der Alexa Sensor seinerzeit.
RED zum Beispiel hat den Dragon ja ohne Frage verfrüht/ unreif rausgehauen und jetzt versuchen sie da mit irgendwelchen verschiedenen OLPFs und weiteren Basteleien solche Probleme behelfsmäßig zu lösen.
Ich denke wir wären alle besser dran gewesen wenn die sich auch noch 1-2Jahr mehr Zeit für den Dragon genommen hätten und dann ein besseres Endprodukt abgeliefert hätten.
Man hätte dich auch noch 2-3 Jahr länger mit dem MX klarkommen können.
Das ist halt ne andere Mentalität bei den Amis von RED als bei uns deutschen (und damit auch ARRI).
Antwort von Tiefflieger:
Die Kamera ist optisch und vom Signalweg am "Original".
Mit 4K Aufzeichnung, auch wenn es Upscaling ist, werden im bestmöglichen Verfahren die Daten "normiert" und konserviert.
Und scheinbar ist die Elektronik in der Kamera dazu fähig.
Gruss Tiefflieger
na na na - es ist ja nicht gerade so, dass die Alexa perfekt ist - das ist keine Kamera.
Und jetzt wird eben an dem herumgefrickelt, was der Sensor liefern kann:
Upscaling hier, NR da, ...
Jede Kamera und die dahinter stehende Philosophie hat Ihre Berechtigung, da ggf. Jahre/Jahrzehnte an Entwicklung und Know How dahinter stecken.
Wenn die Luft dünn ist, dann gibt es nicht die eine Lösung.
Wenn sich Firmen technisch verrennen würden, wäre das eine Chance für "Kickstarter" mit ggf. sogar einer simplen Lösung.
Technisch hat jede Firma ein Interesse Ihre "Standards" und Verfahren durchzusetzen, so werden in jeder Sparte "Spezialisten" gebraucht die den Workflow kennen.
Gruss Tiefflieger
Antwort von Thunderblade:
ARRI hat ja mal vor Monaten gesagt, dass in der ursprünglichen ALEXA Roadmap schon vor Jahren direkt nach den UR-ALEXAs eine 4K ALEXA kommen sollte. (Dann halt mit weniger DR und LowLight Fähigkeiten etc.) und man sich aber dagegen entschieden hat.
Und jetzt haben sie sich halt das Ziel gesetzt für eine höhere Auflösung keine Einbußen bei DR und Rauschen usw einzugehen bzw sich auch da noch zu verbessern im Vergleich zum ALEXA-Sensor. Und dafür braucht es halt Zeit.
Antwort von Spaceman:
Ich hoffe nur dass Arri nicht zuviel Zeit verstreichen lässt und sich das eigene Grab schaufelt. Die driften mir viel zu sehr in den Semiprofibereich ab :-(
Antwort von Spaceman:
L'Oreal hat ne ganz gute Color Engine.
Die haben hier das Dragon Material geschminkt:
https://m.youtube.com/watch?v=sYfshZxWqn4
Antwort von Tiefflieger:
Künstliche Schönheit bekommt man perfekt aus dem Computer, da nichts natürliches enthalten ist.
Gruss Tiefflieger
Antwort von Paralkar:
Man kann die Augen auch schlicht vor der Realität schließen,
Wie wärs, geht doch mal an ein Set mit ner Alexa und dann lernt ihr ganz schnell vor- & nachteile.
Bis jetzt habt ihr nur ne Red in der Hand gehabt, aber wie kann man so ein objektives Bild kriegen?
Ihr seit richtig geil und bashed immer egal was geht gegen Arri und sobald Red was rausbringt, wird das immer von iasi gleich mit dutzenden von Kommentaren in nem neuen Thread gepostet.
Sowas ist einfach nicht objektiv, und auch eure Sichtweise ist halt kaum marktkonform und realistisch.
Bitte macht einfach mal bei ner TVC mit, bei nem großen Spielfilm und macht euch ein größeres Bild vom ganzen.
Nicht das alles immer Sinn macht, wie man es macht, aber in dem Fall ist es halt so das die Welt sich anders dreht.
Ich bin auch kein Fan von Avid, aber es ist nunmal einer der beliebtesten NLEs, für eigene Projekte werd ich selten bis niemals ein Offline Schnitt machen, bei TVCs und Spielfilmen muss ich aber immer wieder Proxies rendern genau deshalb.
Und bei ner TVC will der Endkunde eben in seinem Zelt kein Log Bild sehen oder ein Rec 709, das vielleicht garnicht dem entspricht, wie das Produkt präsentiert werden soll, da geht auch niemand hin und versucht den zu erklären, das ist so und so aus Qualitätsgründen (obwohl ich das bei nem strangen Griechenland dreh sogar mal gemacht hab, weil die Serviceproduktion kein fähigen Video OP ranschaffen konnte)
Ab und zu wäre mal etwas weiter denken als der eigene Horizont gut
Antwort von iasi:
ARRI hat ja mal vor Monaten gesagt, dass in der ursprünglichen ALEXA Roadmap schon vor Jahren direkt nach den UR-ALEXAs eine 4K ALEXA kommen sollte. (Dann halt mit weniger DR und LowLight Fähigkeiten etc.) und man sich aber dagegen entschieden hat.
Und jetzt haben sie sich halt das Ziel gesetzt für eine höhere Auflösung keine Einbußen bei DR und Rauschen usw einzugehen bzw sich auch da noch zu verbessern im Vergleich zum ALEXA-Sensor. Und dafür braucht es halt Zeit.
Nur muss Arri eben aufpassen, dass da nicht plötzlich ein Konkurrent mit einer 4k-Kamera da steht, die den DR und all die anderen Stärken bietet ...
Die anderen schlafen schließlich nicht.
Antwort von iasi:
Man kann die Augen auch schlicht vor der Realität schließen,
Wie wärs, geht doch mal an ein Set mit ner Alexa und dann lernt ihr ganz schnell vor- & nachteile.
Welches Set denn?
Ich hör hier ständig von ach so vielen Sets.
Und dann schau ich mir so an, was da oft gedreht wurde ... Viel ist da nicht sehr überzeugend.
Und wenn ich dann die guten Sachen sehe, stelle ich fest, dass da mal mit Alexa, mal mit Sony, mal mit Red, mal mit Negativ etc. gedreht wurde.
Nachteile hat auch die Alexa.
Manche wird Arri eben wohl nur mit neuem Sensor beseitigen können.
Antwort von Thunderblade:
Ich hoffe nur dass Arri nicht zuviel Zeit verstreichen lässt und sich das eigene Grab schaufelt. Die driften mir viel zu sehr in den Semiprofibereich ab :-(
Ehrlich gesagt überraschen mich diese SXT-ALEXAs so in dieser Form auch. Hätte nicht gedacht, dass ARRI nochmal die ALEXA pimpt wie bei der XT bevor sie mit ner neuen Kamera mit neuem Sensor ankommen.
Ich hätte gedacht, dann haben sie jetzt dieses interne 3,2K/UHD Upscaling in den XT ALEXAs als Zwischenlösung und zeigen dieses Jahr vielleicht sone Art Sensor Preview und Anfang nächsten Jahres gibt es neue Kameras mit neuem Sensor.
Aber jetzt kommen nochmal diese nur leicht verbesserten SXT ALEXAs (und das selbst erst im Sommer). Da werden wir wohl dieses Jahr noch nichts von nem neuen Sensor hören vermute ich mal.
Nur muss Arri eben aufpassen, dass da nicht plötzlich ein Konkurrent mit einer 4k-Kamera da steht, die den DR und all die anderen Stärken bietet ...
Die anderen schlafen schließlich nicht.
Die bei ARRI wissen aber schon was sie tun. Der Erfolg gibt ihnen Recht.
Die können sicher besser als wir einschätzen wann es nötig ist einen neuen Sensor zu etablieren. Und wenn dieser Zeitpunkt schon gekommen wäre hätten sie jetzt nicht mehr die SXT ALEXAs angekündigt.
Und wie du schon richtig sagst: Bisher hat das noch niemand anderes erreicht und von wem soll momentan Gefahr ausgehen.
Bei Red kommt jetzt erstmal ein neues Gehäuse mit dem gleichen Dragon-Sensor. Ein neuer Sensor kommt da sicher erst in frühestens 3 Jahren.
Bei Sony, naja ehrlich gesagt sehe ich da dieses Jahr auch keinen Ultrasensor in der Pipeline. Und selbst wenn: So wenig wie Sony bisher etabliert ist geht da auch nicht wirklich ne Gefahr aus für die ALEXA. Bei RED wäre das deutlich gefährlicher.
Canon: Da kommen jetzt ne neue C300 und ne neue C500 aber die werden wieder nichtmal auf dem Niveau der ALEXA von 2010 sein. Also geht von denen erst Recht keine Gefahr aus.
Blackmagic,AJA, Panasonic und CO. sind in nem völlig anderen Markt.
Antwort von Paralkar:
TVCs & professioneller Spielfilm
Antwort von iasi:
Nur muss Arri eben aufpassen, dass da nicht plötzlich ein Konkurrent mit einer 4k-Kamera da steht, die den DR und all die anderen Stärken bietet ...
Die anderen schlafen schließlich nicht.
Die bei ARRI wissen aber schon was sie tun. Der Erfolg gibt ihnen Recht.
Die können sicher besser als wir einschätzen wann es nötig ist einen neuen Sensor zu etablieren. Und wenn dieser Zeitpunkt schon gekommen wäre hätten sie jetzt nicht mehr die SXT ALEXAs angekündigt.
nochmal der Link:
http://www.heise.de/foto/artikel/Ende-L ... &hgf=false
Kodak, Leica, ..., Nokia, ...
Und wie du schon richtig sagst: Bisher hat das noch niemand anderes erreicht und von wem soll momentan Gefahr ausgehen.
Bei Red kommt jetzt erstmal ein neues Gehäuse mit dem gleichen Dragon-Sensor. Ein neuer Sensor kommt da sicher erst in frühestens 3 Jahren.
Der Sensor ist neu ... die oft genannten Unterschiede bei Color, DR, Highlight-Verlauf sind doch eher eine Glaubensfrage.
Der Dragon hat eben doch noch mehr "Ausreizpotential", als der mittlerweile in die Jahre gekommene Alexa-Sensor (hier hatte Arri mittlerweile schon seit Jahren an den Stellschrauben gedreht.)
Bei Sony, naja ehrlich gesagt sehe ich da dieses Jahr auch keinen Ultrasensor in der Pipeline. Und selbst wenn: So wenig wie Sony bisher etabliert ist geht da auch nicht wirklich ne Gefahr aus für die ALEXA. Bei RED wäre das deutlich gefährlicher.
Sony schläft nicht. Die scheinen ja doch auch ziemlich viel in ihrer Küche zu kochen ... Es gab da z.B. einige interessante Patentanmeldungen.
Canon: Da kommen jetzt ne neue C300 und ne neue C500 aber die werden wieder nichtmal auf dem Niveau der ALEXA von 2010 sein. Also geht von denen erst Recht keine Gefahr aus.
na - die C300 ist schließlich beim Verleihranking vor den Arris
Blackmagic,AJA, Panasonic und CO. sind in nem völlig anderen Markt.
Auch die Ecken am unteren Rand fehlen Arri, wenn sie abgeknappert werden.
Arri"s Fundament ist der Ruf.
Wenn der auch nur in Frage gestellt wird, ...
Antwort von Frank Glencairn:
Früher(TM) waren an einem Set Fachleute, die den jeweiligen Workflow, und alles was damit zusammenhängt verinnerlicht, und von vorne bis hinten verstanden haben.
Heute sind es ADHS Agenturfritzen auf Speed, die noch nicht mal ihren eigenen Fernseher richtig einstellen können, geschweige denn ein LOG Bild beurteilen.
Antwort von Spaceman:
Das ist exakt das Problem - die Leute haben keine Ahnung mehr von dem was sie tun. Merken es aber oftmals nicht und dann läuft der Workflow falsch und viel zu kompliziert.
Wenn man manche Beiträge liest fehlt völlig das Basiswissen.
Dass man sich dann an veraltete Abläufe klammert ist klar.
Das geht für eine gewisse Zeit gut, doch dann wird man von Hobby Filmern und Fotografen abgehängt...
Antwort von Jito:
Die neue Color Engine ist natürlich der absolute Oberhammer für uns am Set:
ja - wer eben den fertigen Film schon am Set will und braucht, ist eben darauf angewiesen, dass in der Kamera schon alles hingebogen werden kann.
So was kennt man ja vom EB-Bereich.
Alle anderen machen"s eben wie damals beim Film: Entwickelt wird später - und dann eben auch richtig.
Du hast überhaupt keine Ahnung. Roger deakins hat immer wieder
erwähnt, dass der look seiner Filme am Set kreiert wird. in der Post passieren nur noch Kleinigkeiten.
Wieso auch anders wenn ich mich für eine look entscheide z.B Gelbstich. Dann ist es doch viel sinnvoller, es gleich so wie es ist , auf dem Monitor zu sehen und in die bildkomposition einfließen zu lassen.
Wahrscheinlich aber sind dann Roger deakins Filme mit der EB-Bereich Methode gedreht wurden.
Antwort von Thunderblade:
na - die C300 ist schließlich beim Verleihranking vor den Arris
Zum letzen Mal: Dieses Ranking schließt auch völlig andere Rental-Märkte mit ein Doku, EB, Broadcast, etc. ein.
Im High End Bereich (Kino, TV-Spielfilme/Serien, Werbung) ist die ALEXA ohne Diskussion auf Platz 1 (sie ist ja nicht ohne Grund der ,,Industriestandard'').
Die C300 bedient einen völlig anderen Markt. Für die große Kinoleinwand ist weder ihr Bildästhetik wünschenswert noch ihre technische Qualität ausreichend ( 8bit 4:2:2 MPEG 2 ;-) )
Um in dem Segment mitspielen zu können muss bei Canon erstmal ne ganze Menge passieren.
uch die Ecken am unteren Rand fehlen Arri, wenn sie abgeknappert werden.
Unsinn. Arri hat und hatte nie Interesse am Consumer/Amateur/ultra Low Budget Markt wo sich Blackmagic,AJA und Co. tummeln.
Da waren sie noch nie vertreten also kann da auch niemand was abknabbern.
In dem Segment hat eine High Ende Premiummarke wie ARRI auch nichts verloren. RED hat das ja mal mit der Scarlet (3K for 3K) ins Auge gefasst aber dann auch verstanden, dass das keine gute Idee ist.
Sony schläft nicht. Die scheinen ja doch auch ziemlich viel in ihrer Küche zu kochen ... Es gab da z.B. einige interessante Patentanmeldungen.
Ja aber guck dir doch mal zum Beispiel diese Bildästhetik an:
http://movietrailers.apple.com/movies/d ... h1080p.mov
gedreht mit F65 und F55
Das findet doch niemand wirklich schön diese Bildästhetik. Mag ja sein, dass dieses Bild hochauflösender sein kann als ein Alexa Bild (mit richtiger Verarbeitung die so noch nicht praktiziert wird) aber die Bildästhetik ist nichtmal ansatzweise vergleichbar mit dem Alexa-Sensor.
Das hier ist einfach ein scharfes Bild mit Videolook/ästhetik.
Keine angenehmen Farben wie man sie von chemischen Film/Alexa kennt.
Ekliges digitales Noise mit Video-Look (dank 6K Sensor sogar noch um ein vielfaches stärker als bei der 3,4K ALEXA). Guck dir doch mal das Clooney-Close Up bei 0:14 an. Da rauscht es selbst im Quicktime Webvideo überall (inklusive auf seiner Haut). Wie soll das dann erst auf der großen Leinwand aussehen.
Eine Alexa rauscht nicht nur weniger als ne F65 es sieht auch mehr aus wie Filmgrain und dadurch organischer.
Das ist halt der Fehler den alle machen (6K Pixel auf nen Super35 Sensor quetschen und damit hohes Rauschen in Kauf zu nehmen). Und da hat ARRI sich vor Jahren dagegen entschieden. Die bringen erst einen 4K+ Sensor wenn der dann nicht mehr rauscht als der jetzige 3,4K Sensor in der ALEXA bzw sogar noch weniger rauscht als selbiger.
Noise bei 1:33min: Das ist so grausam da kann ich nicht mal mehr was dazu sagen!!!
Antwort von CameraRick:
hmmm...
Es ist nicht die Kamera die die schönen Bilder macht, sondern der Mensch dahinter.
Antwort von Spaceman:
Bei der Alexa erkennt man kein Rauschen weil die so schlecht auflöst!
Antwort von Spaceman:
Der Trailer oben ist übrigens ein gutes Beispiel für ein schlechtes Grading.
Da wurden völlig falsch die Kontraste eingestellt und schwups nix mit Filmlook.
Macht aber nix, ist ja nur ein Trailer. Da kann man den Praktikanten mal ranlassen...
Antwort von iasi:
gedreht mit F65 und F55
Das findet doch niemand wirklich schön diese Bildästhetik. Mag ja sein, dass dieses Bild hochauflösender sein kann als ein Alexa Bild (mit richtiger Verarbeitung die so noch nicht praktiziert wird) aber die Bildästhetik ist nichtmal ansatzweise vergleichbar mit dem Alexa-Sensor.
Das hier ist einfach ein scharfes Bild mit Videolook/ästhetik.
Keine angenehmen Farben wie man sie von chemischen Film/Alexa kennt.
Ekliges digitales Noise mit Video-Look (dank 6K Sensor sogar noch um ein vielfaches stärker als bei der 3,4K ALEXA). Guck dir doch mal das Clooney-Close Up bei 0:14 an. Da rauscht es selbst im Quicktime Webvideo überall (inklusive auf seiner Haut). Wie soll das dann erst auf der großen Leinwand aussehen.
Eine Alexa rauscht nicht nur weniger als ne F65 es sieht auch mehr aus wie Filmgrain und dadurch organischer.
Das ist halt der Fehler den alle machen (6K Pixel auf nen Super35 Sensor quetschen und damit hohes Rauschen in Kauf zu nehmen). Und da hat ARRI sich vor Jahren dagegen entschieden. Die bringen erst einen 4K+ Sensor wenn der dann nicht mehr rauscht als der jetzige 3,4K Sensor in der ALEXA bzw sogar noch weniger rauscht als selbiger.
Noise bei 1:33min: Das ist so grausam da kann ich nicht mal mehr was dazu sagen!!!
das ist genau das, was die Handlung erfordert und unterstützt
und der hier?
Mit der Alexa kann man eben nicht in einer Landschaft schwelgen - da geht eben ab 2k die Luft aus ...
Antwort von Funless:
Ist das dein Ernst??
Du gibst als Beispiel für ARRIS angeblichem "Zukunftsunvermögen" zwei Filme an, die zu 90% vorm Greenscreen entstanden und dessen Landschaften (für die ARRI deiner Meinung nach ja nicht "auf der Höhe der Zeit" ist) größtenteils per CGI generiert worden sind??
Wie lächerlich ist das denn???
Antwort von iasi:
Ist das dein Ernst??
aber natürlich
Du gibst als Beispiel für ARRIS angeblichem "Zukunftsunvermögen" zwei Filme an, die zu 90% vorm Greenscreen entstanden und dessen Landschaften (für die ARRI deiner Meinung nach ja nicht "auf der Höhe der Zeit" ist) größtenteils per CGI generiert worden sind??
Wie lächerlich ist das denn???
größenteils - aber es sind eben auch Aufnahmen dabei, die eine Arri überfordern würden, die einen Film aber visuell eben enorm bereichern.
Antwort von Paralkar:
Diese Logik macht so überhaupt kein Sinn, da die Alexa auch für Gravity genommen wurde und der besteht auch fast nur aus VFX.
Das läuft hier mal wieder ins nix, warum noch weiter reden, lasst die Leute die bisher noch nie damit gedreht haben ihre Meinung, wen interessiert es, Arri, Sony und Red machen ja Kameras für den Profimarkt und nicht für einpaar Hansel die ne kleine Produktionsfirma haben. Und wenn man die auf dem größeren Level vergleicht kann man halt nur objektiv mitsprechen, wenn man mal ein größeres Spielfilm Set oder TVC Set gesehen hat und weiß was pro und con ist.
Das geht natürlich nicht ohne alles mal gesehen zu haben.
Wen interessierts, ich muss so Ignoranz nicht versuchen zu bekehren, hat halt nix mit der Realität zutun
Antwort von iasi:
Diese Logik macht so überhaupt kein Sinn, da die Alexa auch für Gravity genommen wurde und der besteht auch fast nur aus VFX.
Gravity entstand (mit Außnahme des Endes) nur im Studio - für "Oblivion" war man wohl auch mal in der freien Natur.
Das läuft hier mal wieder ins nix, warum noch weiter reden, lasst die Leute die bisher noch nie damit gedreht haben ihre Meinung, wen interessiert es,
das kannst du auch über Film sagen -alle hatten auf Film gedreht - die Zeiten ändern sich - und bei Kodak hatte man, ebenso wie bei Arri heute, genau gewußt, was man macht ...
Arri, Sony und Red machen ja Kameras für den Profimarkt und nicht für einpaar Hansel die ne kleine Produktionsfirma haben. Und wenn man die auf dem größeren Level vergleicht kann man halt nur objektiv mitsprechen, wenn man mal ein größeres Spielfilm Set oder TVC Set gesehen hat und weiß was pro und con ist.
ja - und nur die "Profis" können beurteilen, was die "Profis" machen.
Sagst du es den Filmkritikern, dass sie Filme nicht beurteilen können, da sie ja schließlich keine "Profis" sind.
Das geht natürlich nicht ohne alles mal gesehen zu haben.
Wenn da ein großes Set ist, mit vielen Profis, dann ist das Ergebnis schließlich automatisch sehr gut, denn die wissen ja genau was sie tun.
Wen interessierts, ich muss so Ignoranz nicht versuchen zu bekehren, hat halt nix mit der Realität zutun
Realität?
Da muss ich mir nur mal ansehen, was da über die Leinwand und den Bildschirm flimmert. All die "Profi"-Werke, die ja fast alle mit Alexa gedreht wurden.
Vielleicht sollte gleich zu Beginn eingeblendet werden: "Die Profis hatten eine Alexa genutzt." ... damit wir Zuschauer auch gleich einschätzen können, ob da jetzt ein "Profi"-Werk anläuft.
Immer dieses Gerede vom großen Set ...
Antwort von Borke:
Die Hunde bellen, die Karawane zieht weiter...
Antwort von CameraRick:
größenteils - aber es sind eben auch Aufnahmen dabei, die eine Arri überfordern würden, die einen Film aber visuell eben enorm bereichern.
Hast Du eigentlich mal akute Beispiele dafür? Also Bilder die die Alexa klar überfordern, wo eine andere Kamera besser gewesen wäre?
Wo sich jeder andere auch sagen würde: ach, stimmt, die Alexa hat das nicht gut gemacht...?
Antwort von iasi:
größenteils - aber es sind eben auch Aufnahmen dabei, die eine Arri überfordern würden, die einen Film aber visuell eben enorm bereichern.
Hast Du eigentlich mal akute Beispiele dafür? Also Bilder die die Alexa klar überfordern, wo eine andere Kamera besser gewesen wäre?
Wo sich jeder andere auch sagen würde: ach, stimmt, die Alexa hat das nicht gut gemacht...?
Landschaftsaufnahmen - schau dir Aufnahmen einer F65 an - z.B. in Oblivion ...
Das ist dann eben wie bei Nolans "Dark Night" - man sieht nun einmal der Unterschied zwischen IMAX und 35mm ... entsprechend ist"s mit F65 und Alexa ...
Antwort von CameraRick:
Nein nein, Du hast mich falsch verstanden.
Ich will nicht sehen wo die F65 toll ist, ich will wissen wo die Alexa versagt hat. Keine hypothetischen Ansagen dass sie es nicht kann, ich will sehen was Du genau meinst.
Beim Dark Knight sieht man ja auch vor allem verzockten Fokus.
Antwort von iasi:
Nein nein, Du hast mich falsch verstanden.
Ich will nicht sehen wo die F65 toll ist, ich will wissen wo die Alexa versagt hat. Keine hypothetischen Ansagen dass sie es nicht kann, ich will sehen was Du genau meinst.
Beim Dark Knight sieht man ja auch vor allem verzockten Fokus.
Etwas zu zeigen, das man nicht sieht, ist schwierig.
Such doch mal eine Landschaftsaufnahme einer Alexa, die wirklich besticht.
Wenn ich z.B. Skyfall ansehe, dann hab ich da vor allem Farben ...
Game of Thr. : Schöne Locations - aber nicht bestechend - es wird auch nur immer sehr kurz darauf geschnitten - meist bleibt"s bei unscharfem Hintergrund
Antwort von Jott:
Immer die gleiche Schallplatte wird jetzt doch mal langweilig. Habt ihr nichts Neues auf Lager?
Pixelpitch und Beugung wurden lange nicht mehr durchgekaut. Wie wär's? Dazu könnte man im Dragon-Arri-Kampf vielleicht auch mal was beitragen.
Antwort von CameraRick:
Etwas zu zeigen, das man nicht sieht, ist schwierig.
Such doch mal eine Landschaftsaufnahme einer Alexa, die wirklich besticht.
Wenn ich z.B. Skyfall ansehe, dann hab ich da vor allem Farben ...
Game of Thr. : Schöne Locations - aber nicht bestechend - es wird auch nur immer sehr kurz darauf geschnitten - meist bleibt"s bei unscharfem Hintergrund
Wenn etwas versagt, sieht man das meistens recht gut.
Und jetzt kommst Du uns sagst mir, ich müsse Dir den Gegenbeweis liefern.
In Game of Thrones finde ich die Landschaften nicht "unbestechend", bzw, ich finde Äquivalente RED Aufnahmen nicht bestechender (zugegeben, wenn ich sie bei 1080p gucke - aber andererseits kann ich es ja eh nicht anders schauen, nicht wahr).
Ich glaub das ist so eine Grundabneigung bei Dir, die Du mehr fühlst als wirklich siehst. Ist ja auch legitim, aber halt irgendwie albern in einer Unterhaltung, wenn Du nicht einmal richtig drauf zeigen kannst.
Antwort von iasi:
Immer die gleiche Schallplatte wird jetzt doch mal langweilig. Habt ihr nichts Neues auf Lager?
Pixelpitch und Beugung wurden lange nicht mehr durchgekaut. Wie wär's? Dazu könnte man im Dragon-Arri-Kampf vielleicht auch mal was beitragen.
die Rede ist von F65 und Alexa ... aber man muss natürlich seinen Senf dazu abgeben - schon klar
Antwort von Jott:
Was für Senf? Wo war da Senf?
Antwort von iasi:
Etwas zu zeigen, das man nicht sieht, ist schwierig.
Such doch mal eine Landschaftsaufnahme einer Alexa, die wirklich besticht.
Wenn ich z.B. Skyfall ansehe, dann hab ich da vor allem Farben ...
Game of Thr. : Schöne Locations - aber nicht bestechend - es wird auch nur immer sehr kurz darauf geschnitten - meist bleibt"s bei unscharfem Hintergrund
Wenn etwas versagt, sieht man das meistens recht gut.
Und jetzt kommst Du uns sagst mir, ich müsse Dir den Gegenbeweis liefern.
In Game of Thrones finde ich die Landschaften nicht "unbestechend", bzw, ich finde Äquivalente RED Aufnahmen nicht bestechender (zugegeben, wenn ich sie bei 1080p gucke - aber andererseits kann ich es ja eh nicht anders schauen, nicht wahr).
Ich glaub das ist so eine Grundabneigung bei Dir, die Du mehr fühlst als wirklich siehst. Ist ja auch legitim, aber halt irgendwie albern in einer Unterhaltung, wenn Du nicht einmal richtig drauf zeigen kannst.
Ich schau mir Oblivion-Aufnahmen an und die genannten Alexa-Aufnahmen - ... Ich hab also Beispiele genannt ... Wenn du von Grundeinstellungen sprichst, dann erkenne ich die eher bei dir, denn du behauptest letztlich nur ... nun zeig doch mal Alexa-Aufnahmen, bei denen die Landschaft ähnlich genutzt wird, wie z.B. bei Oblivion ...
Nebenbei bist du es doch, der dauernd von Red spricht ... "Oblivion" ist kein Red-Film.
Und nicht, dass da einer denkt, "Oblivion" sei einer reiner Film aus dem Rechner:
http://www.blackfilm.com/read/wp-conten ... ion-37.jpg
Antwort von iasi:
Was für Senf? Wo war da Senf?
auf der Schallplatte
Antwort von Jott:
Deine so oft zitierten tollen Oblivion-Landschaftsaufnahmen hast in du in 2K gesehen.
"The camera was configured to capture 4K raw format. The aspect ratio was 2.35:1, extracted from the F65’s 1.9:1 sensor. “There’s complete latitude to do whatever you want,” says Miranda. “We shot 4K because we imagined that there might be a 4K release, but there never was. But I think 4K is better for visual effects. We could always down-res. I’m of the mindset that 4K is too sharp anyway. Skyfall looks great. Why do you need more?” -
http://www.creativeplanetnetwork.com/ne ... PERIl.dpuf
Antwort von Spaceman:
Ankündigung:
Habe heute alte 2k Cams für die Sonnenfinsternis genutzt ( Alexa,...)
An ne Drohne dran, in den Himmel steigen lassen und dann die Cam feierlich ausgeklinkt.
R.I.P. 2k
Den Speicher hab ich danach noch aus dem Gehäuse rausgenommen.
Die Aufnahmen werden auf den youttube Kanal "Low Fi, Low Res" hochgeladen.
Antwort von eko:
Hat man Dich nicht über die Schädlichkeit des direkten Blicks auf die Sonne aufgeklärt?
Ein Spaceman müßte das doch wissen,sollte man glauben.
Kann nämlich nicht nur die Augen schädigen:-)
Antwort von iasi:
Deine so oft zitierten tollen Oblivion-Landschaftsaufnahmen hast in du in 2K gesehen.
"The camera was configured to capture 4K raw format. The aspect ratio was 2.35:1, extracted from the F65’s 1.9:1 sensor. “There’s complete latitude to do whatever you want,” says Miranda. “We shot 4K because we imagined that there might be a 4K release, but there never was. But I think 4K is better for visual effects. We could always down-res. I’m of the mindset that 4K is too sharp anyway. Skyfall looks great. Why do you need more?” -
http://www.creativeplanetnetwork.com/ne ... PERIl.dpuf
Ich schau mir "Dark Night" auf BD an und stelle fest: Die IMAX-Aufnahmen bieten mehr als die 35er - das ist eben bei F65 zu Alexa nicht anderes.
Antwort von Borke:
Hier mal interessantere Infos, damit die Diskussion nicht so fruchtlos bleibt:
http://www.cinematography.net/valvula-2014.html
Ich finde die besseren Digitalkameras nehmen sich alle nicht so viel. Der Auflösungsvorsprung der F65 erscheint nebensächlich. Film gefällt mir persönlich immer noch am besten.
Antwort von iasi:
Hier mal interessantere Infos, damit die Diskussion nicht so fruchtlos bleibt:
http://www.cinematography.net/valvula-2014.html
Ich finde die besseren Digitalkameras nehmen sich alle nicht so viel. Der Auflösungsvorsprung der F65 erscheint nebensächlich. Film gefällt mir persönlich immer noch am besten.
na - also was da gefilmte wurde ...
Antwort von Borke:
Verstehst es wirklich nicht?
Antwort von Jott:
Wie schön wäre es, all die Sehenden mal zu einem Blindtest mit lustigem Kameraraten einzuladen. Ich bin sicher, das wäre großartig. Man darf ja mal träumen.
Antwort von iasi:
Verstehst es wirklich nicht?
Für ein Gesicht vor einer Wand benötigt man wirklich keine hohe Auflösung.
Wenn"s im Hintergrund eh alles nur unscharf zugeht, braucht"s keine hohe Auflösung ...
Sprich: Wenn ich eh nichts zu zeigen hab, brauch ich keine hohe Auflösung.
Antwort von Borke:
Vor welchem 8k Monitor sitzt Du denn?
Antwort von Jott:
In der Höhle des Löwen (reduser) gibt es ebenfalls einen Arri-Thread.
Da schreibt doch tatsächlich einer folgendes (wenn auch vielleicht nicht mehr lange, hihi):
"I love grading R3D too, but the point is what do the big employers , VFX, Edit houses , even ACs, want to work with...its not R3D, and 90% of the time its not a RED Camera either.
Have you ever tried to get an Agency Producer, VFX house, Editor, and Color house all to commit to this workflow. I have and it makes you and the RED camera seem like a pain in the ass for the Agency and they go running to an Alexa on the next job.
I completely understand your/REDs workflow but in order to grade from the R3D you need the entire R3D of every cut in the piece on the server. That could add up to 100s of hours of footage were only 30seconds of the data is actually going into the commercial. No Color grade house wants all those clips on their server and no VFX house wants to keep conforming re conforming, and no Agency producer is going monitor these steps. That is why getting it off R3D and into a single DPX file sequences is preferred.
The Alexa is so loved and so successful its hard to fight it."
Ist auch hier so. Alexa/Amira, weil's halt flutscht. Für wen genau lohnt es sich, dagegen anzukämpfen? Kämpft man wirklich mit seinen Auftraggebern mit Iasi-Argumenten? Wohl kaum. Die interessiert das alles einfach nicht, denen reicht, was sie sehen. Dicke.
Antwort von Borke:
Vielleicht steigt ja RED wieder auf Sonnenbrillen um :-)
Antwort von Spaceman:
Übersetzt aus dem Englischen bedeutet das:
"Der Red Workflow ist nur was für Profis"
und weiter heisst es
"Mit Arri kommt auch jeder Amateur zurecht da ähnlich DSLR Workflow"
Antwort von Spaceman:
Wer also vor einem Filmprojekt steht, hier eine Entscheidungshilfe:
Kategorie 1: Hollywood Blockbuster mit Budget min. 200 Mio. $
Kamera: Red
Kategorie 2: Low Budget Film, Independent, Werbung, Doku, TV
Kamera: Alexa,Amira, C300
Kategorie 3: Imagefilme, Homevideos, Billig TV, Youtube
Kamera: Panasonic GH4 o.ä.
Die Verkaufszahlen und Marktdurchdringung kann sich jeder demgemäß ableiten.
Als Faustformel gilt:
Je besser sich eine Kamera verkauft desto schlechter ist die Bildqualität.
Antwort von olja:
Übersetzt aus dem Englischen bedeutet das:
"Der Red Workflow ist nur was für Profis"
und weiter heisst es
"Mit Arri kommt auch jeder Amateur zurecht da ähnlich DSLR Workflow"
Jo, macht die Sache dann wohl einfacher ;-)
Time is Money ;-)...
Dogmatisches Verhalten findet man aber in jeder Branche...Lernprozess...manchmal dann eben schmerzhaft ;-)
Evtl. sollte man mal die Zielgruppe fragen, ob sie einen Unterschied erkennt. Wenn nein, dann würde ich einfach nur die Wirtschaftlichkeit und Effektivität mal ganz nüchtern betrachten.
Komische Branche ...:-O...
Antwort von Valentino:
@Spaceman
Was für eine Sockenpupe bist du den eigentlich, seit 2008 hier angemeldet aber erst 200 Beiträge und davon alleine wahrscheinlich 100 bis 150 die letzten Monate.
Da hier es hier um einen Herr Reiff recht ruhig geworden ist, hatte ich erst diese in Verdacht, der schreibt aber etwas anders und ist erst seit 2013 auf Slashcam aktiv.
Und für den Fall das jemanden die Bedeutung von einer "Sockenpuppe" unbekannt ist: http://de.wikipedia.org/wiki/Sockenpupp ... zkultur%29
Würde mich nicht wundern, wenn man hier einen User mit ähnlichem Anmeldedatum wiederfindet, der so zwischen 2 bis 6k Beiträge hat.
Wer mal etwas Zeit hat hier im Forum, der kann da mal gerne ein paar Nachforschungen anstellen.
So ist iasi nur ein paar Monate älter als Spacemann und ich bin mir sogar recht Sicher, das das Slashcam-Team mit den IPs ganz genau darüber Bescheid weiß, welcher User sich wirklich hinter unserem Astronauten verbirgt.
Was noch für iasi spricht, kurz bevor Spacemann aufgehört hat zu schreiben, hat sich der Iasi angemeldet. Dazu hat er teilweise 1 bis 3 Jahre überhaupt nichts geschrieben ;-)
Wäre schön wenn auch hier im Forum endlich mal ein paar Sockenpuppen gelöscht werden würden.
Antwort von iasi:
Würde mich nicht wundern, wenn man hier einen User mit ähnlichem Anmeldedatum wiederfindet, der so zwischen 2 bis 3k Beiträge hat.
Wer mal etwas Zeit hat hier im Forum, der kann da mal gerne ein paar Nachforschungen anstellen.
etwa ein "Valentino" : Beiträge des Autors: 3033 ???
Aber warum sollte der das machen?
Sehr merkwürdig ...
Antwort von Valentino:
Nur mit dem großen Unterschied, das ich dieses Jahr dann so seit 10 Jahren online bin und recht blöd wäre auf einen eigenen Sockepuppen Account aufmerksam machen würde.
Ich habe auch keinen Solchen Account, da ich zu dem stehe was ich schreibe.
Habe es jetzt mal auf deine 6k Beiträge erweitert ;-)
Antwort von iasi:
Nur mit dem großen Unterschied, das ich dieses Jahr dann so seit 10 Jahren online bin und recht blöd wäre auf einen eigenen Sockepuppen Account aufmerksam machen würde.
na - immerhin kommst du ja auf die Idee mit dieser "Sockepuppe" und kennst dich da scheinbar gut aus.
Wahrscheinlich hast DU dir auch schon Gedanken über Sinn und Zweck von so etwas gemacht.
Wer ihn zuerst gerochen,
dem ist er aus dem ... gekrochen.
Siehste - ich kenn mich nur mit solchen Zweizeilern aus.
Antwort von Borke:
iasi und Spaceman sollen identisch sein?
Antwort von Frank Glencairn:
Ist auch hier so. Alexa/Amira, weil's halt flutscht. Für wen genau lohnt es sich, dagegen anzukämpfen? Kämpft man wirklich mit seinen Auftraggebern mit Iasi-Argumenten? Wohl kaum. Die interessiert das alles einfach nicht, denen reicht, was sie sehen. Dicke.
Mag schon sein, persönlich finde ich die Angst for einem raw Workflow völlig überzogen. Ich mach jetzt seit 2 Jahren so gut wie nix anderes mehr, und sooo riesig sind die Unterschiede nun auch nicht.
Gerade in den "etablierten" Posthäuser werden nach wie vor Proxies für Avid gerechnet und dann in der CC auf das original Material conformed, selbst wenn es ProRes ist. Da kann ich dann auch gleich raw nehmen.
Antwort von CameraRick:
Ich schau mir Oblivion-Aufnahmen an und die genannten Alexa-Aufnahmen - ... Ich hab also Beispiele genannt ... Wenn du von Grundeinstellungen sprichst, dann erkenne ich die eher bei dir, denn du behauptest letztlich nur ... nun zeig doch mal Alexa-Aufnahmen, bei denen die Landschaft ähnlich genutzt wird, wie z.B. bei Oblivion ...
Nebenbei bist du es doch, der dauernd von Red spricht ... "Oblivion" ist kein Red-Film.
Und nicht, dass da einer denkt, "Oblivion" sei einer reiner Film aus dem Rechner:
http://www.blackfilm.com/read/wp-conten ... ion-37.jpg
Red war ein beispiel, schreib 4k hin, Aussage bleibt gleich.
Du nennst nur keine Beispiele. Oblivion ist keins. Ich sehe bei GOT kein Problem, vielleicht hast ein akutes Beispiel, nicht nur den Namen einer Show, wo der Shot einfach, platt gesagt, verkackt ist?
Was jetzt bei Oblivion so beeindruckend sein soll, landschaftlich, sehe ich nicht. Und das soll sich dann in einen 1080p h264 Clip auf YouTube übertragen?
Du sagst in jeder dieser Diskussionen die Alexa kann keine Landschaft, 70mm war dafür schon immer besser als 35mm und 4k folglich besser als 2K. Aber du zeigst nie akut wo die Alexa Mist war.
Wenns jetzt um dein Gefühl geht ist das legitim, aber so viel wert wie jeder der sagt daß das was Dich beeindruckt ihn kalt lässt. Meinungen sind schließlich nichts wo man klar stellen kann, etwas sei per se ungeeignet weil zb shlecht aufgelöst.
Antwort von iasi:
iasi und Spaceman sollen identisch sein?
ne - Valentino und Spaceman ... wundert mich auch ...
vielleicht so eine Schizophrenie-Sache.
Antwort von iasi:
Ich schau mir Oblivion-Aufnahmen an und die genannten Alexa-Aufnahmen - ... Ich hab also Beispiele genannt ... Wenn du von Grundeinstellungen sprichst, dann erkenne ich die eher bei dir, denn du behauptest letztlich nur ... nun zeig doch mal Alexa-Aufnahmen, bei denen die Landschaft ähnlich genutzt wird, wie z.B. bei Oblivion ...
Nebenbei bist du es doch, der dauernd von Red spricht ... "Oblivion" ist kein Red-Film.
Und nicht, dass da einer denkt, "Oblivion" sei einer reiner Film aus dem Rechner:
http://www.blackfilm.com/read/wp-conten ... ion-37.jpg
Red war ein beispiel, schreib 4k hin, Aussage bleibt gleich.
Du nennst nur keine Beispiele. Oblivion ist keins. Ich sehe bei GOT kein Problem, vielleicht hast ein akutes Beispiel, nicht nur den Namen einer Show, wo der Shot einfach, platt gesagt, verkackt ist?
Was jetzt bei Oblivion so beeindruckend sein soll, landschaftlich, sehe ich nicht. Und das soll sich dann in einen 1080p h264 Clip auf YouTube übertragen?
Du sagst in jeder dieser Diskussionen die Alexa kann keine Landschaft, 70mm war dafür schon immer besser als 35mm und 4k folglich besser als 2K. Aber du zeigst nie akut wo die Alexa Mist war.
Wenns jetzt um dein Gefühl geht ist das legitim, aber so viel wert wie jeder der sagt daß das was Dich beeindruckt ihn kalt lässt. Meinungen sind schließlich nichts wo man klar stellen kann, etwas sei per se ungeeignet weil zb shlecht aufgelöst.
nun - ich seh mir GOT an und bemerke, dass zwar an tollen Locations gedreht wurde, aber mit keiner Einstellung länger darauf verweilt wird.
Und die paar Frames, bei denen man einen Blick auf die Landschaft erhaschen kann, sind eher schemenhaft gestaltet.
Bei Skyfall lebt das Bild auch von Licht und Farben, aber nicht von Details.
Bei Oblivion hast du längere Einstellungen, die die Landschaft mit einbeziehen.
Mir kommt gerade auch kein Alexa-Film in den Sinn, bei dem die Location bzw. Landschaft bewußt ins Bild gesetzt wurde.
Die Filmemacher, die dies beabsichtigen greifen wohl scheinbar zum Negatv oder zu einer höher auflösenden Digitalkamera.
Umgekehrt gibt es eben viele 4k-Filme, bei denen Panoramen bewußt geboten werden.
Hier fallen mir eben mehrere Beispiele ein.
Antwort von Jott:
Die aber nicht in 4K zu sehen sind, sondern in 2K/HD. Siehe Oblivion. Das Übliche: der "4K-Film" ist nur als Rohmaterial einer. Und du meinst im Ernst, es wäre erkennbar, ob in der Post Production von 4K oder von 3,4K downgesampled wurde? Vielleicht kennen die aus deiner Sicht Verrückten, die eine Arri für ihren Spielfilm wählen, die Antwort ja ganz genau.
Nach der Spaceman-Doktrin ist alles unter 200 Millionen eine Low Budget-Produktion und somit Arri-Land. Ich denke, damit können die Münchener ganz gut leben! :-)
Antwort von iasi:
Die aber nicht in 4K zu sehen sind, sondern in 2K/HD. Siehe Oblivion. Das Übliche: der "4K-Film" ist nur als Rohmaterial einer. Und du meinst im Ernst, es wäre erkennbar, ob in der Post Production von 4K oder von 3,4K downgesampled wurde? Vielleicht kennen die aus deiner Sicht Verrückten, die eine Arri für ihren Spielfilm wählen, die Antwort ja ganz genau.
Wie schon gesagt:
1. Ich bekomme von F65- und Red-Filmen mehr Landschaft serviert, als von Alexa-Filmen - mein Eindruck.
2. Ich sehe den Unterschied zwischen den IMAX- und 35mm-Aufnahmen in "Dark Night" auch auf dem TV von der BD.
Ich denke auch, dass die Alexa-Nutzer wissen, dass für Panoramaaufnahmen andere Kameras besser geeignet sind - und daher verzichten sie so weit wie möglich darauf.
Umgekehrt greifen diejenigen, die Landschaft mit einbeziehen wollen, scheinbar zu F65 oder Red - oder eben Negativ.
Antwort von Spaceman:
Insgesamt sind die Werkzeuge die zur Verfügung stehen schon sehr gut.
Einige Kameras haben schon mehr Auflösung, andere ziehen bald nach.
Das Hauptproblem ist eher das Umgehen mit den Werkzeugen. Da sehe ich noch extremen Schulungsbedarf bei der Nachbearbeitung.
Im Color Grading liegt das Geheimnis. Das ist sozusagen der heilige Gral.
Hier wird entschieden ob das Material nachher wie Standard Video aussieht (passiert in 99% aller Fälle, vermutlich ungewollt) oder ob das Material zu Film wird (passiert in 1% der Fälle, können nur wenige Postmeister).
Da dies der einzige gravierende Unterschied zwischen Hollywood und Otto Normal Filmer ist, wird der heilige Gral des Gradings natürlich bestens gehütet.
Es gibt glaube ich zwei , drei Bücher über Color Grading. Beim durchblättern sind mir hier aber schon so falsche Vorgehensweisen beim Grading von Log-Material aufgefallen dass ich die gleich wieder weggelegt habe...
Antwort von Tiefflieger:
Eigentlich ist es simpel ein "klares" Bild in Nachbearbeitung filmisch aussehen zu lassen.
Zuerst die Farben und Helligkeitsverläufe anpassen.
Als letzter Schritt etwas Filmgrain und leichten Blur darüber ziehen.
Ggf. ein Downscaling zu 2K.
Fertig ;-)
Antwort von Spaceman:
Hehe, genau.
Guter Scherz ;-)
Antwort von CameraRick:
Mir kommt gerade auch kein Alexa-Film in den Sinn, bei dem die Location bzw. Landschaft bewußt ins Bild gesetzt wurde.
Die Filmemacher, die dies beabsichtigen greifen wohl scheinbar zum Negatv oder zu einer höher auflösenden Digitalkamera.
Ok, es wird nicht so viel gemacht, das habe ich verstanden.
Aber ein richtiges Beispiel, wo die Alexa versagt hat, hast Du nicht, habe ich das richtig verstanden?
Nur die Beobachtung dass andere es mehr machen wenn sie nicht auf Alexa drehen und Dir die Sachen von der Alexa nicht unbedingt so gut gefallen (was sehr subjektiv ist)?
Wenns jetzt darum geht, dass 2-3K Auflösung Landschaften nicht so schön abbilden wie 4K könnte man sich auch mal Gedanken machen wo weniger manchmal mehr wäre, gibts ja auch. Und wo es mehr oder weniger Schnurz ist, auch.
Aber Deine ausgeleierte Schallplatte kriegt für mich dazu irgendwie nicht mehr Substanz, nur eben eine Färbung.
"Beste Kamera" beim deutschen Werbefilmpreis hat gestern übrigens ein Film auf 8mm bekommen. Hat nicht viel damit zu tun, aber ist schon interessant.
Antwort von Jott:
Hat vielleicht schon was damit zu tun. Es geht um Wirkung. Da geben sich Werbung und Kino ja durchaus die Hand.
Kann es sein, dass sich Regisseure und Producer tatsächlich mehr für Bildwirkung interessieren als für Kameraquartett? Unvorstellbar! :-)
Antwort von Spaceman:
@ Tiefflieger: neben Deinen habe ich auch noch ein paar Klöpse zum Filmlook Grading:
- Schwarzpunkt hochziehen sodass das Bild verwaschener aussieht
- Kontrast rausnehmen in der Hoffnung das Bild cremiger wirken zu lassen
- Flares und Gegenlichtaufnahmen einbauen damits irgendwie verträumter wirkt
- Farbsättigung reduzieren um vom Videolook abzulenken
- Die Lichter mit Gelbstich versehen und die Schatten evtl. mit Blaustich
- Möglichst bei available light drehen, wirkt automatisch filmischer
;-)
Antwort von Bergspetzl:
Und nicht, dass da einer denkt, "Oblivion" sei einer reiner Film aus dem Rechner:
http://www.blackfilm.com/read/wp-conten ... ion-37.jpg
Eine ganze Truppe und keiner weiß, wozu man einen Helm in den Bergen wirklich braucht. Ein Hoch auf die Versicherungen und ihre Logiken :D
Antwort von iasi:
Mir kommt gerade auch kein Alexa-Film in den Sinn, bei dem die Location bzw. Landschaft bewußt ins Bild gesetzt wurde.
Die Filmemacher, die dies beabsichtigen greifen wohl scheinbar zum Negatv oder zu einer höher auflösenden Digitalkamera.
Ok, es wird nicht so viel gemacht, das habe ich verstanden.
Aber ein richtiges Beispiel, wo die Alexa versagt hat, hast Du nicht, habe ich das richtig verstanden?
Nur die Beobachtung dass andere es mehr machen wenn sie nicht auf Alexa drehen und Dir die Sachen von der Alexa nicht unbedingt so gut gefallen (was sehr subjektiv ist)?
Wenns jetzt darum geht, dass 2-3K Auflösung Landschaften nicht so schön abbilden wie 4K könnte man sich auch mal Gedanken machen wo weniger manchmal mehr wäre, gibts ja auch. Und wo es mehr oder weniger Schnurz ist, auch.
Aber Deine ausgeleierte Schallplatte kriegt für mich dazu irgendwie nicht mehr Substanz, nur eben eine Färbung.
"Beste Kamera" beim deutschen Werbefilmpreis hat gestern übrigens ein Film auf 8mm bekommen. Hat nicht viel damit zu tun, aber ist schon interessant.
na - ich schau mir z.B. GOT an und sehe einige wenige sehr sehr kurze Einstellungen, die auch mal eine Landschaft zeigen - und da sehe ich eher Formen - also ein Tal, eine Bergkette, eine Bucht - aber eben keine Details ...
Daran ändert doch auch
"Beste Kamera" beim deutschen Werbefilmpreis
nichts.
Also ich denke mir immer: Warum wird wohl so selten die Location so ins Bild gesetzt, dass sie die Handlung und den Film bereichert - vielleicht liegt"s ja daran, dass so häufig mit der Alexa gedreht wird. :)
Und wenn da mal ein Schloss ins Bild gesetzt wird, dann so, wie bei "Der Nanny" ... Trailer gesehen?
Antwort von Spaceman:
Eins muss man dem Tom Cruise lassen: Schwindelfrei ist der. Respekt!
Das Filmteam ist vermutlich vorher noch am K2 oder an der Anapurna im Karakorum in der Todeszone gewesen und direkt eingeflogen worden.
Die haben ja extremen Zeitdruck. Kurz raus aus den Daunenanzügen und schon geht's weiter in Island mit dem Dreh...
Antwort von Paralkar:
Hmm dieses Zitat da oben mit Red und Problemen im Workflow halt ich auch für nichtmehr aktuell (oder seit 3 Jahren nicht aktuell)
Man kann über RedCine X, den Schnitt mittels xml importieren und per RedTrim auch eine einzelne R3D Datei aus meheren encodieren lassen, somit hätte man dann auch nur die eine 5k/6k Wurscht für das Grading & VFX und nicht das ganze Rohmaterial
Kostet halt Zeit, es rendern zu lassen, da ist ne dpx wahr. schneller, wegen proprietärem R3d bzw. Kompression etc.
VFX kann ich das Argument verstehen, bei 6k DPX/ OpenEXR zu sein ist schon ein Pain in the Ass,
Und dann kommt es da spätestens zu schnellen Problemen mit Farbraum und ist alles richtig und gleich sobald wir im Finishing sind (wobei das auch bei Log-C passieren kann)
Arbeitssicherheit mim Kran, ob dir da nochn Helm hilft, wenn du das Teil gegen den Schädel kriegst?
Antwort von Spaceman:
Einen Color Grading Klops habe ich noch:
In Log drehen und dann mit einer inversen Log wieder in Rec709 wandeln.
Und keiner fragt sich warum nicht gleich in Rec709 gedreht wurde ;-)
Antwort von CameraRick:
Also ich denke mir immer: Warum wird wohl so selten die Location so ins Bild gesetzt, dass sie die Handlung und den Film bereichert - vielleicht liegt"s ja daran, dass so häufig mit der Alexa gedreht wird. :)
Also hast Du keine Aufnahme, wo eine geringe Auflösung von 2-3K in Landschaften richtig versagt? Sondern es ist im Endeffekt Dein Gefühl gepaart mit Deiner Meinung?
Und verschon uns mit der Anekdote aus Lawrence von Arabien, wenn bei 70mm die Leute zum Becher greifen und bei 35mm nicht.
Hab ich mir so gedacht. Dann mach mal weiter wie bisher, vielleicht darfste dann auch mal zum deutschen Werbefilmpreis :)
Antwort von iasi:
Also ich denke mir immer: Warum wird wohl so selten die Location so ins Bild gesetzt, dass sie die Handlung und den Film bereichert - vielleicht liegt"s ja daran, dass so häufig mit der Alexa gedreht wird. :)
Also hast Du keine Aufnahme, wo eine geringe Auflösung von 2-3K in Landschaften richtig versagt?
Ich hab dir doch GOT als Beispiel genannt.
Auch Skyfall besticht nicht gerade durch Panorama-Aufnahmen - Bonds Haus könnte schöner in der Landschaft liegen ... Skyfall bzw. Deakins konzentriert sich daher wohl auch mehr auf Licht und Farben.
Du bist aber immer noch ein Beispiel für einen Lamndschaftsshot schuldig, bei dem die Alexa glänzt.
Antwort von j.t.jefferson:
So am Rande---Red setzt jetzt auch auf ProRes bei der Weapon XD
Antwort von Paralkar:
Is das so eine Art Mainzer Modul 2.0?
Der Name ist so misslungen, aber gut es wird eine "Stealth" Version geben, wo nicht fett Weapon drauf steht.
Allein schon das als "Stealth" Version zu bezeichnen, wo der Name nicht drauf steht, damit man nicht Probleme kriegt bei Security Checks etc. ist doch ein solcher Schmarn,
Als würde die Waffenindustrie da mitmischen,
Ob es Red mittlerweile schafft das der TC nicht immer auseinander läuft?
Wir dürfen gespannt sein
Antwort von j.t.jefferson:
ne direkt gleichzeitig auf eine Karte
Antwort von Thunderblade:
Tja Iasi, Spaceman!
Das war es wohl.
Wenn jetzt sogar RED selbst ihren schwachsinnigen ,,RAW only'' Kriegszug aufgegeben haben, solltet ihr eure ,,RAW ist die einzige professionelle Lösung'' Mentalität endlich begraben.
Da läuten wohl bei RED sämtliche Alarmglocken weil die ALEXA ihnen alle Jobs wegnimmt und notgedrungen um nicht völlig vom Markt zu verschwinden bieten sie jetzt interne ProRes Aufnahme an um wenigstens einen Bruchteil der Alexa Jobs zurückzubekommen.
Ob das reicht oder ob der Zug für RED im professionellen Sektor nicht abgefahren ist wird sich zeigen.
Aufjedenfall begrüße ich diese neue Entwicklung. Das macht die RED-Kameras für viele Jobs wieder um einiges attraktiver.
Antwort von mediavideo:
Das passt doch ins Bild, die zwei Figuren erzählen doch schon seit einiger Zeit hier nur noch eine Menge wirres und unlogisches Zeugs, aber so sind verblendete RED-Jünger halt überwiegend.
Die Fakten sprechen doch schon lange eine andere Sprache:
Die Absatzzahlen müssen aufgrund der Dragon Hollywoodproduktionen (nur 1 Titel im Q1-2015) und des Rental-Report (abgeschlagen auf Platz 7 noch hinter der alten Epic) katastrophal sein. Ob der Umschwung für RED nun auch zum Überleben reicht, könnte an den RED-Fanatikern hängen:
Gehen die mit der neuen Richtung und bluten kräftig beim Upgradepreis mit neuen Minimags, dann könnte es zum nackten Überleben reichen.
Anderenfalls geht es mit RED den Weg von Aaton ( http://de.wikipedia.org/wiki/Aaton ) und Panavision ( http://de.wikipedia.org/wiki/Panavision ), die sind schon mit eigenen S35-Digitalkameras vom Markt verschwunden. Da kräht auch kein Hahn mehr danach, die Welt dreht sich auch ohne RED wunderbar weiter und im Slashcam-Forum wird es wieder fachlich kompetenter und damit auch lesenswerter.
Und ob all die Iasi"s und Spaceman"s hinter dem Mond leben, vielleicht nur in einem Don Quijote Roman existieren, schlicht vom Balkon der Muppet-Show stammen oder nur Sockenpuppen sind, man wird es nicht wirklich klären können.
Mal sehen was hier im Forum von denen so gelallt wird wenn die später torkelnd aus der Taverne zurückkommen und die Schockstarre überwunden haben ...
Antwort von Spaceman:
Finde ich einen noblen Zug von Red für alle Deppen die nicht mit RAW umgehen können eine kleine ProRes Hilfe anzubieten...
Hut ab!
Bietet nicht Porsche auch mittlerweile ESP an?
;-)
Antwort von Borke:
Und ob all die Iasi"s und Spaceman"s hinter dem Mond leben, vielleicht nur in einem Don Quijote Roman existieren, schlicht vom Balkon der Muppet-Show stammen oder nur Sockenpuppen sind, man wird es nicht wirklich klären können.
@mediavideo: Danke, selten so herzlich gelacht...YMMD :-)
Antwort von Spaceman:
Bin mal gespannt wer sich hier am meisten über die ProRes Hilfe freut.
Das sagt dann schon alles ...
Antwort von mediavideo:
@Borke
Eigentlich todtraurig und nicht mehr zum Lachen.
Wenn Du gelesen hast was die Iasi und Spaceman-Fraktion letzte Woche hier im Forum über ihre 800.- Euro Fotolinsen und 4k Produktionen (die locker gleich gut wie 25.000,- Euro ARRI/Zeiss Master Primes sind) gelabert haben, da ist man nur noch fassungslos ...
Antwort von Spaceman:
Hab mal den Opa Paule gefragt wie der seine Bilddaten verarbeitet, und was der von Prores hält.
O-Ton Opa Paule: " Wasn dat für nen Kindergarten, nie von gehört. Die Raw Fotos werden in Lightroom reingeladen und sauber entwickelt. Wo lebst denn Du?"
;-)
Antwort von ennui:
Ist das dein "technical advisor"? Dann würd ich mir einen anderen suchen.
Antwort von Spaceman:
Hab Opa Paule dann erklärt das wir im Filmbereich noch nicht so weit sind, alle etwas konservativer unterwegs sind, uns noch an gewohnte Zwischenlösungen klammern, aber hoffentlich bald aufschließen...
War dann wieder für ihn ok, puh, war mit meiner Frage kurz vorm Rausschmiss.
Antwort von ennui:
Ist das der hier?
http://www.uschi-neubauer.de/opa-paul-und-1.html
Antwort von iasi:
@Borke
Eigentlich todtraurig und nicht mehr zum Lachen.
Wenn Du gelesen hast was die Iasi und Spaceman-Fraktion letzte Woche hier im Forum über ihre 800.- Euro Fotolinsen und 4k Produktionen (die locker gleich gut wie 25.000,- Euro ARRI/Zeiss Master Primes sind) gelabert haben, da ist man nur noch fassungslos ...
Nicht "man" ist fassungslos - sondern eben nur die mit Problemen beim Leseverstehen.
Umgekehrt wird da eher ein Schuh draus:
Wer alles ignoriert, was selbst Leute sagen, die Test mit Objektiven durchgeführt hatten, und nur auf den Preis starrt, der hat eben eine undifferenzierte und oberflächliche Sichtweise ... und das hinterlässt einen nur fassungslos.
Aber bleib schön dabei: Ein 25.000 € Objektive ist natürlich 30mal teurer, weil es eine 30mal bessere Bildqualität liefert - da gibt"s sonst keinerlei andere Faktoren.
Und die Alexa SXT ist die beste Kamera und die Kamera ohne Mängel und alles ganz toll, weil sie ja schließlich so viel Geld kostet ... und natürlich weil"s "alle" sagen.
Vor allem sagen"s "alle Profis" - ja dann muss es ja stimmen - denn die "Profis" die wissen und können alles - sieht man ja täglich in Kino und TV ... Hab z.B. den Trailer zu "Der Nanny" gesehen - wow - war sicher eine Alexa-Produktion ...
Antwort von Jott:
Und von dir, der du alles noch viel besser weißt und kannst, sieht man trotz deines gloriosen Durchblicks leider gar nichts.
Antwort von iasi:
Und von dir, der du alles noch viel besser weißt und kannst, sieht man trotz deines gloriosen Durchblicks leider gar nichts.
Frag dich doch mal, wieviel mehr als pauschale Klischees du denn bisher beigetragen hast ... so nach dem Motto:
"Alle sagen das.
Alle machen da.
Die Profis sagen das.
Die Profis machen das.
Die Arri-Leute wissen was sie machen."
Denkst du eigentlich auch mal selbst?
Ich geb dir mal ein Beispiel für"s eigene Nachdenken:
1. Wenn man dem einzigartigen Moment vor der Kamera hohe Bedeutung zumisst, dann will man ihn wohl in bestmöglicher Weise festhalten.
2. Früher war da immer der Entwicklungsprozess beim Filmemachen. Nur im EB-Bereich konnte man direkt aus der Kamera auf Sendung gehen.
3. Welche Vorteile bietet ProRes gegenüber Raw?
a) Man erhält aus der Kmera heraus ein "fertiges", "entwickeltes" Bild und kann wie schon früher bei EB-Kameras direkt "auf Sendung" gehen.
b) Man erhält bei manchen Kameras ein herunterskaliertes Bild vom ganzen Sensor bei höherer Framerate - also z.B. die 200fps der Alexa in 1080p.
c) Man kann sich das Grading erleichtern, da das meiste schon in der Kamera abgelaufen ist (siehe a).
Aber dieser Vorteil hat eben auch den Nachteil, dass man während des Drehs das Bild "entwickeln" muss.
d) Runterskaliertes ProRes-2k hat im Vergleich zu 4k-6kRAW geringere Datenraten.
Dem steht eben gegenüber:
Raw bietet mehr und bessere Möglichkeiten.
Raw ist die bestmögliche Art und Weise die Ereignisse vor der Kmera aufzuzeichnen - weil die Unverfälschtere.
Wer eh nur ein 1080p/2k-Ergebnis produziert, das eine kurze "Verfallszeit" hat und mal geliefert, auch schon aus dem Gedächtnis gestrichen werden kann, ist mit ProRes wahrscheinlich gut bedient.
Viele sehen das so pragmatisch, dass sie auch mit dem Output einer C300 ihre Ziele erreichen können, und sich die Mehrkosten für eine Arri sparen.
Antwort von Jott:
Deine EB-Schallplatte hat einen Kratzer und hängt. Du hast nichts verstanden. Bleibe bei raw und beschwer dich bei RED. Gerne direkt im Forum bei "Jarred" für das, womit er deine Filmerseele so quält und schändet. Dort wird man auf dich hören.
Antwort von Spaceman:
Info:
Ab sofort bietet Opa Paule RAW Tutorials an.
Für alle die bisher damit auf Kriegsfuß standen bzw. sich von zu aufwendigen Amateur-Workflows trennen wollen.
Voraussetzung: Keine
Bildungsgrad: Gering
Die besagten 7 haben natürlich Voranmeldungsrecht!
Antwort von Jott:
Du musst Auftraggeber missionieren, hast du das noch nicht verstanden? Agenturen zum Beispiel wollen ProRes, ProRes, ProRes, oft herrscht striktes Red-Verbot, was beileibe nicht primär am Raw-Workflow liegt, da gibt es noch andere Gründe. Dort liegt der Hase im Pfeffer, du predigst an der falschen Stelle, Mann aus dem All! :-)
Antwort von iasi:
Du musst Auftraggeber missionieren, hast du das noch nicht verstanden? Agenturen zum Beispiel wollen ProRes, ProRes, ProRes, oft herrscht striktes Red-Verbot, was beileibe nicht primär am Raw-Workflow liegt, da gibt es noch andere Gründe. Dort liegt der Hase im Pfeffer, du predigst an der falschen Stelle, Mann aus dem All! :-)
Tja - die Geister die man rief, bekommt man nun nicht mehr los ...
Wenn man den Leuten erzählt, dass sie schon während des Drehs sehen können, was am Ende rauskommt, dann glauben sie"s einem eben gern - und erwarten dann genau das immer.
Antwort von Valentino:
Etwas OffTopic:
Die DCPs von Leviathan sind leider auch nur in 2k!!!
Habe mir den Film die Tage in einem Kino mit 4k Anlage angeschaut und laut dortigem Projektionsleiter wurden weder die OmU/RU_DE noch die De_XX Fassung in 4k angeliefert.
Dafür sind die DCPs mit weit über 250Gb recht groß.
Gegen ein 4k DCPs spricht bei der Produktion außer Zeitdruck nicht viel, da anscheinend in 3k vom 35mm Bild gescannt wurde(Quelle: Film&TV Kameramann), ein 4k DCP auch nur die 250Mbit an maximaler Datenrate hat und die 4k DCPs abwärtskompatibel zu 2k DCI Anlagen sind.
Antwort von iasi:
Etwas OffTopic:
Die DCPs von Leviathan sind leider auch nur in 2k!!!
Habe mir den Film die Tage in einem Kino mit 4k Anlage angeschaut und laut dortigem Projektionsleiter wurden weder die OmU/RU_DE noch die De_XX Fassung in 4k angeliefert.
Dafür sind die DCPs mit weit über 250Gb recht groß.
Gegen ein 4k DCPs spricht bei der Produktion außer Zeitdruck nicht viel, da anscheinend in 3k vom 35mm Bild gescannt wurde(Quelle: Film&TV Kameramann), ein 4k DCP auch nur die 250Mbit an maximaler Datenrate hat und die 4k DCPs abwärtskompatibel zu 2k DCI Anlagen sind.
Da hat der Verleih die Kosten gescheut - viele Kinos mit 4k-Projektoren hätten diesen Film eh nicht gezeigt.
Man muss doch schon froh sein, wenn er eine Weile in Kinos zu sehen ist.
Antwort von CameraRick:
da anscheinend in 3k vom 35mm Bild gescannt wurde(Quelle: Film&TV Kameramann)
Es ist aber auch nicht unüblich, höher zu scannen als man nachher arbeitet/die DPXe vorliegen.
Da wurde 3K gescanned um in 2K zu arbeiten, oder 6K für 4K
Diese Zahlen waren aber nicht nach außen kommuniziert worden, es war mehr die gängige Praxis eine Nummer höher zu scannen. Weiß natürlich nicht wie andere Labore das früher so gemacht haben.
Antwort von Valentino:
Was den für Kosten?
Wenn die DI wirklich in 4k gemastert wurde, warum dann kein 4k DCP?
Wegen der maximalen Datenrate von 250mbit, ist das 2k DCP nicht kleiner!
Dazu sind 4k DCPs abwärtskompatibel, wo sollen hier bitte Mehrkosten für den Verleiher entstehen?
Mach dich doch nicht lächerlich, der Film wurde am Ende nur in 2k gemastert und der 3k Scan nur wegen des Oversamplings.
So viel zum Thema des iasi Syndroms, Details und Auflösung sehen wo eigentlich keine ist.
Antwort von iasi:
Was den für Kosten?
Wenn die DI wirklich in 4k gemastert wurde, warum dann kein 4k DCP?
Wegen der maximalen Datenrate von 250mbit, ist das 2k DCP nicht kleiner!
Dazu sind 4k DCPs abwärtskompatibel, wo sollen hier bitte Mehrkosten für den Verleiher entstehen?
Mach dich doch nicht lächerlich, der Film wurde am Ende nur in 2k gemastert und der 3k Scan nur wegen des Oversamplings.
So viel zum Thema des iasi Syndroms, Details und Auflösung sehen wo eigentlich keine ist.
Du hast wohl gar keine Ahnung, wie das bei den Verleihern läuft.
Und eine Vorstellung davon, was eine 4k DCP an zusätzlichen Kosten erzeugen würde, hast du wohl auch nicht.
Nicht"s da mit günstiger und leichter zu bekommen durch digital.
Die Verleiher löschen sogar die HDDs und erzählen einem Kinobetreiber, er solle doch von BD spielen, denn der Film sei nicht mehr im Verleihprogramm.
Da konnte man ja früher noch leichter an eine 35mm-Kopie kommen.
"Leviathan" ist kein Film, der überall läuft. Und wenn ein 4k Master deshalb zu teuer ist, muss man sich wohl schon darüber freuen, wenn in 3k gescannt wird, damit wenigstens ein gutes 2k rauskommt.
Immerhin ist das dann noch mehr, als die 3k Bayer der Alexa.
Wie sagte doch einer, der Skyfall im Imax gesehen hatte: Es war "fuzzy" ...
Und wenn ich mir die Kerzenlicht-Szene in "House of Cards" (Ep.3) ansehe, dann wird eben deutlich, wer den neueren Sensor bietet.
Antwort von Valentino:
Das die Verleiher ihre DCPs recht schnell löschen und zu Faul sind das Backup an die Nachspieler zu schicken, ist kein großes Geheimnis.
Aus diesem Grund gibt es einige Kinos, die die erfolgreichsten Filme auf USB3.0 Platten speichern.
Der Rest was du von dir gibts ist völliger Mist, ich habe schon auf beiden Seite gearbeitet, bei der Postpro/Verleiher und in mehreren Kinos und wenn du die 250Mbit der DCI Norm erreicht hat wird das DCP bei 4k nicht viermal so groß.
Die Datenrat der meisten DCPs bei solchen ruhigen Filmen wie Leviathan liegt eher bei 150 bis 200Mbit und somit eher bei 80 bis 120GB je Film.
Fakt ist aber das das Leviathan 2k DCPs fast 300GB groß ist und somit die Datenrate schon bei knapp 250Mbit liegt.
Nehmen wird mal an das DHL oder UPS nicht das vierfache Porto für ein 4k DCP, dann sehe ich da beim besten Willen keine Mehrkosten!
Antwort von Jott:
"Wie sagte doch einer, der Skyfall im Imax gesehen hatte: Es war "fuzzy" ..
Genau, einer. Im Arri-Thread auf reduser. Dem allerdings sofort widersprochen wird von einem anderen reduser. Da sei nichts soft und fuzzy.
Egal. Du suchst dir halt punktuelle Sätze aus dem Web, um dein Weltbild zu zementieren. Selektives Zitieren ist eine wichtige Grundlage für den Aufbau von Dogmen. Du musst dich aber mehr anstrengen, Arri verkauft immer noch Kameras.
Siehe zum Beispiel ein paar Posts über deiner "Quelle": die NFL hat 30 Amiras gekauft für ihren UHD-Bedarf. Müsstest du auch gesehen haben. Ein nettes Sümmchen - ob die Verantwortlichen wohl mal vor dem Kauf auf einem UHD-Monitor geguckt haben, was Sache ist? Gehen wir mal davon aus.
Die reale Welt ist halt nicht so einfach gestrickt wie deine.
Antwort von iasi:
"Wie sagte doch einer, der Skyfall im Imax gesehen hatte: Es war "fuzzy" ..
Genau, einer. Im Arri-Thread auf reduser. Dem allerdings sofort widersprochen wird von einem anderen reduser. Da sei nichts soft und fuzzy.
Egal. Du suchst dir halt punktuelle Sätze aus dem Web, um dein Weltbild zu zementieren. Selektives Zitieren ist eine wichtige Grundlage für den Aufbau von Dogmen. Du musst dich aber mehr anstrengen, Arri verkauft immer noch Kameras.
Ich schau mir Skyfall an und vergleich"s mit anderen Filmen - und sehe Landschaften, die im Vergleich eben "fuzzy" sind - es geht nun mal besser.
Und wieder dieses Lemminge-Argument zu bringen, bedeutet doch auch nur, dass es da wohl sonst keine Argumente gibt.
Nun ist gerade ProRes in Mode, daher dreht man ProRes ... die Entscheidng fällt auf Grundlage von "Millionen Fliegen können nicht irren" ... aber dann ständig von "Profis" reden.
Antwort von Tiefflieger:
Es gibt nicht nur eine Lösung.
Es gewinnt auch selten die "beste" Lösung.
Es gewinnt derjenige mit den meisten und "billig" verfügbaren/austauschbaren wie auch immer Lemmingen.
Man ist wie man sich fühlt oder behandelt werden will.
Grundsätzlich empfinde ich als Konsument eine grosse Diskrepanz zwischen Aufwand und 8 bit Ertrag in den Medien (TV/Kino).
Trotzdem erkennt man Unterschiede und hochwertiges im (HD-) Bild.
Wie sähe das bei einer 1:1 Darstellungskette aus ;-)
Gruss Tiefflieger
Antwort von Jott:
Ich schau mir Skyfall an und vergleich"s mit anderen Filmen - und sehe Landschaften, die im Vergleich eben "fuzzy" sind - es geht nun mal besser.
Noch mal zum Verständnis: du meinst, im Kino einen Unterscheid sehen zu können zwischen einem Downsampling von 3,4k zu 2k und einem von 4k zu 2k? Fantastische Fähigkeit.
Antwort von iasi:
Ich schau mir Skyfall an und vergleich"s mit anderen Filmen - und sehe Landschaften, die im Vergleich eben "fuzzy" sind - es geht nun mal besser.
Noch mal zum Verständnis: du meinst, im Kino einen Unterscheid sehen zu können zwischen einem Downsampling von 3,4k zu 2k und einem von 4k zu 2k? Fantastische Fähigkeit.
Ich sagte ja schon:
Selbst bei "Dark Knight" von der BD erkennt man, was nun mit IMAX und was mit 35mm gefilmt wurde.
Und richtig: Man kann erkennen, was von einer 5k-Kamera stammt - und was von einer 3,4k.
Antwort von Thunderblade:
Ich sagte ja schon:
Selbst bei "Dark Knight" von der BD erkennt man, was nun mit IMAX und was mit 35mm gefilmt wurde.
Schwachsinn. Erzähl bitte nicht schon wieder irgendeinen Murks wenn du keine Ahnung hast.
Abgesehen vom wechselnden Seitenformat ist der große Unterschied den du wahrnimmst die größere Negativfläche und der dadurch anderer Look. Ein 65mm 15 perf Negativ fängt das Licht anders ein als 35mm 4perf.
Dass die IMAX Szenen schärfer sind liegt nicht an der überlegenen Auflösung vom Ursprungsnegativ (auch das 35mm Negativ wurde von einer höheren 4K Auflösung etc. abgetastet und für die Bluray runterskaliert. Einen Schärfeunterschied wirst du da nicht sehen).
Dass die 35mm Szenen nicht so scharf sind liegt bei THE DARK KNIGHT (RISES) daran dass sie die 35mm-Szenen auf alten Panavision Anamorphoten gedreht haben die verglichen mit modernen gängigen sphärischen Objektiven weicher/nicht so scharf sind und durch weitere technische ,,Mängel'' (technisch! nicht ästhetisch) wie Barrel Distorsions und einem staken Schärfeabfall an den Bildrändern daherkommen.
Auch hier war den Filmemachern (Chris Nolan, Wally Pfister ASC) der Look/ die Bildästhetik wichtiger als Specs/ technische Perfektion.
Und aus solchen Gründen will auch jeder lieber ne Alexa gegenüber einer Dragon (obwohl diese höher auflöst und damit mehr Bilddetails einfängt).
Die Bildästhetik ist das Entscheidende, nicht Technik-Gelaber.
Und richtig: Man kann erkennen, was von einer 5k-Kamera stammt - und was von einer 3,4k.
Aber nicht in einem finalen 2K/HD Produkt!!!
Antwort von iasi:
Ich sagte ja schon:
Selbst bei "Dark Knight" von der BD erkennt man, was nun mit IMAX und was mit 35mm gefilmt wurde.
Schwachsinn. Erzähl bitte nicht schon wieder irgendeinen Murks wenn du keine Ahnung hast.
Tja - eben das Übliche: Es kann nicht sein, was nicht sein darf.
Antwort von Funless:
Ich sagte ja schon:
Selbst bei "Dark Knight" von der BD erkennt man, was nun mit IMAX und was mit 35mm gefilmt wurde.
Bei den unterschiedlichen Aspect Ratios nicht gerade ein Kunststück das zu erkennen. *nur mal so nebenbei angemerkt**
Antwort von mediavideo:
Tja - eben das Übliche: Es kann nicht sein, was nicht sein darf.
@Iasi bzw. Spaceman:
Schaut mal in den Spiegel und sagt diesen Satz laut auf, denn wenn der Satz in diesem Forum gilt, dann als allererstes für die Iasi und Spaceman-Fraktion.
Falls noch Zweifel sind, lest meinen letzten Post zur Iasi Meinung und der Realität zu RED:
https://www.slashcam.de/forum/viewtopic.php?p=780451#780451
Antwort von iasi:
Tja - eben das Übliche: Es kann nicht sein, was nicht sein darf.
@Iasi bzw. Spaceman:
Schaut mal in den Spiegel und sagt diesen Satz laut auf, denn wenn der Satz in diesem Forum gilt, dann als allererstes für die Iasi und Spaceman-Fraktion.
Falls noch Zweifel sind, lest meinen letzten Post zur Iasi Meinung und der Realität zu RED:
https://www.slashcam.de/forum/viewtopic.php?p=780451#780451
ne - ich schau nicht in den Spiegel, um eine Aufnahme zu beurteilen - das tun die Theoretiker - ich schau mir die Aufnahmen an.
Das solltet ihr vielleicht auch mal machen.
Antwort von iasi:
Ich sagte ja schon:
Selbst bei "Dark Knight" von der BD erkennt man, was nun mit IMAX und was mit 35mm gefilmt wurde.
Bei den unterschiedlichen Aspect Ratios nicht gerade ein Kunststück das zu erkennen. *nur mal so nebenbei angemerkt**
auch ohne diesen Hinweis, sieht man den Unterschied.
wie schon gesagt:
dann nimm die Landschaftsaufnahmen von "Skyfall" oder "GoT" und vergleich mal mit Red oder F65-Aufnahmen ...
Antwort von Funless:
Ich sagte ja schon:
Selbst bei "Dark Knight" von der BD erkennt man, was nun mit IMAX und was mit 35mm gefilmt wurde.
Bei den unterschiedlichen Aspect Ratios nicht gerade ein Kunststück das zu erkennen. *nur mal so nebenbei angemerkt**
auch ohne diesen Hinweis, sieht man den Unterschied.
wie schon gesagt:
dann nimm die Landschaftsaufnahmen von "Skyfall" oder "GoT" und vergleich mal mit Red oder F65-Aufnahmen ...
Mich hälst Du da bitte schön raus, weder besitze ich eine ARRI-was-weiß-ich, noch eine RED-was-weiß-ich und werde auch niemals einer dieser Teile besitzen. Resultierend hat diese Diskussion für mich nichts mehr als einen reinen Unterhaltungswert.
Zudem fand' ich "Skyfall" als Hardcore Bond Fan ziemlich enttäuschend (eine andere Kamera hätte den Film auch nicht besser gemacht) und "Game of Thrones" hab' ich nur die erste Folge beim Flug nach Dubai geschaut und bin bei der zweiten Folge eingeschlafen. Liegt vielleicht auch daran, dass mich Fantasy Filme eh' nicht reizen.
Antwort von iasi:
Ich sagte ja schon:
Selbst bei "Dark Knight" von der BD erkennt man, was nun mit IMAX und was mit 35mm gefilmt wurde.
Bei den unterschiedlichen Aspect Ratios nicht gerade ein Kunststück das zu erkennen. *nur mal so nebenbei angemerkt**
auch ohne diesen Hinweis, sieht man den Unterschied.
wie schon gesagt:
dann nimm die Landschaftsaufnahmen von "Skyfall" oder "GoT" und vergleich mal mit Red oder F65-Aufnahmen ...
Mich hälst Du da bitte schön raus, weder besitze ich eine ARRI-was-weiß-ich, noch eine RED-was-weiß-ich und werde auch niemals einer dieser Teile besitzen. Resultierend hat diese Diskussion für mich nichts mehr als einen reinen Unterhaltungswert.
Dich raushalten?
Aber du hast dich doch selbst reinbegeben.
Du benötigst doch auch keine Arri oder Red, um dir mal die Landschaftsaufnahmen in Filmen anzusehen.
Zudem fand' ich "Skyfall" als Hardcore Bond Fan ziemlich enttäuschend (eine andere Kamera hätte den Film auch nicht besser gemacht) und "Game of Thrones" hab' ich nur die erste Folge beim Flug nach Dubai geschaut und bin bei der zweiten Folge eingeschlafen. Liegt vielleicht auch daran, dass mich Fantasy Filme eh' nicht reizen.
Es geht aber nur um die Landschaftsaufnahmen - nicht um die Filme oder Serien.
Nur soviel zu Skyfall:
Licht und Farbe in manchen Bond-Szenen hatten mir gefallen - die Handlung eher nicht.
Antwort von Funless:
Du benötigst doch auch keine Arri oder Red, um dir mal die Landschaftsaufnahmen in Filmen anzusehen.
Stimmt, würde ich tatsächlich nicht benötigen aber es interessiert mich einfach nicht. Entweder der Film als Gesamtwerk gefällt mir oder er gefällt mir nicht. Und in beiden Fällen ist es mir herzlichst egal welche Kamera mit welcher Auflösung dabei zum Einsatz kam.
Ich sitze auch nicht Zuhause im ledernen Ohrensessel beim knisternden Kaminfeuer, in der einen Hand einen Kelch mit Dujardin, in der anderen meine Elfenbeinpfeife und schaue mir irgendeine Kerzenlichtszene aus einer Polit Serie an und schwelge dabei auch nicht sinnierend darin wie wunderschön und toll es doch ist, dass es in 4K, 6K, 20K oder eine MilliardeK aufgenommen wurde.
Es geht aber nur um die Landschaftsaufnahmen - nicht um die Filme oder Serien.
s.o.
Antwort von iasi:
Es gibt Filme, bei denen ist das Bild eben Teil des Gesamtwerkes.
Antwort von Borke:
Deshalb nervt das hochkomprimierte RAW aus der RED ja so bei Landschaftsaufnahmen...
Antwort von iasi:
Deshalb nervt das hochkomprimierte RAW aus der RED ja so bei Landschaftsaufnahmen...
die Komprimierung wirkt sich in anderen (bestimmten) Konstallationen negativ aus
Antwort von Borke:
Nein, gerade dort.
Antwort von iasi:
Nein, gerade dort.
ähhh - ne
Antwort von Borke:
.. was der iasi auch immer unter Landschaftsaufnahme verstehen mag. Ist aber eigentlich auch egal.