die kamera braucht nur hdmi-out ... thunderbolt gibt´s bei apple und nun auch bald bei win-pcsWoWu hat geschrieben:Welche Kamera unterstützt denn Thunderbolt ?
das wäre wirklich nur eine lösung fürs studio.Valentino hat geschrieben:Du spielst wirklich mit dem Gedanken per Intensity Shuttle aufzuzeichnen?
Da musste doch ständig Laptop und Raid bzw. SSD für die Aufzeichnung mit schleppen.
Fürs Studio macht es vielleicht noch Sinn, aber für Außendrehs doch eher ungeeignet.
Bevor du jetzt mit Thunderbold und Windows anfängst,
die bisherigen Ultrabooks sind eher ungeeignet für so eine Lösung und
auch hier wirst nicht auf einen Laptop unter 1,5k € stoßen, der für so was geeignet ist.
Auf der Karte wird der Proxy sein und auf dem Shuttle das eigentliche RAW File ohne Reverse.was mich ein wenig wundert sind solche kombinationen:
die ikonsokop speichert die raw-files auf ssd.WoWu hat geschrieben:Auf der Karte wird der Proxy sein und auf dem Shuttle das eigentliche RAW File ohne Reverse.was mich ein wenig wundert sind solche kombinationen:
Macht absolut Sinn.
Keine 25 falls du darauf hinaus willst. Wie sollte das auch funktionieren? Im 5k Modus macht die Scarlet 12 Bilder, da kann der SDI-Out auch keine herzaubern. Wofür genau produzierst du denn, dass du immer 50p brauchst?iasi hat geschrieben: es kommt eben auch darauf an, wie viele fps die scarlet im 5k-modus am hd-sdi aus gibt.
am hd-sdi kann man eben z.b. mit dem atomos samurai ProRes oder eben mit dem HyperDeck uncompressed aufnehmen - und da stellt sich schon die frage, ob die hohe datenmenge bei uncompressed sinn macht (es ist ja nicht raw sondern auch 4:2:2 10 bit debayerd)WoWu hat geschrieben:Ich verstehe.
Es kommt immer darauf an wofür der Content gemacht wird, ob für Film oder für TV, denn für Film hat der RAW Content natürlich deutlich mehr Inhalt als die Proxy Aufzeichnung, die ja eigentlich nur Arbeitsmaterial für EDLs sind.
Also, für mich macht beides Sinn, zumal man im RAW ja auch noch in die "üblichen" Parameter Weißabgleich, Rauschunterdrückung, Kantenanschärfung, Farbraum Verstärkung usw. eingreifen kann, was im Proxy nicht der Fall ist.
das dachte ich mir schon fast - andererseits lieferen viele dsrl im live-view auch höherer bildratebn am display und hdmi, als sie in raw wegspeichern können.wontuwontu hat geschrieben: Keine 25 falls du darauf hinaus willst. Wie sollte das auch funktionieren? Im 5k Modus macht die Scarlet 12 Bilder, da kann der SDI-Out auch keine herzaubern. Wofür genau produzierst du denn, dass du immer 50p brauchst?
Scheint mir nicht wirklich notwendig zu sein...
laut scarlet-handbuch hat sie G3 ... und bietet 24, 25, 30, 48, 50 und 60 (die kommawerte habe ich mir gespart) ...WoWu hat geschrieben:Aber 1080p50 (60) transparent setzt ein G3 Interface voraus. Da wäre ich mir nicht so sicher, dass das die Scarlet hat und das Shuttle auf gar keinen Fall.
ich habe mir schon sehr genau überlegt, was ich will und warum ich (nun doch) eine scarlet bestellt habe.Valentino hat geschrieben:Wenn du unbedingt so auf 1080 50p stehst, dann kauf dir einen FS100 mit externem Rekorder und sei glücklich.
Wenn du vom 5k Chip der Scarlet auf 50p kommen willst musst du auf 2k herunter und dann bist du am Ende irgendwo bei 2/3" Chipgröße.
Der 2K Modus macht keinen Sinn und sieht dazu wie schon bei der R1 einfach beschissen aus. Es kann durchaus sein,
das durch eine 7:1 Komprimierung auch irgendwann 3k möglich sein werden, genauso wie es wahrscheinlich auch ein 4,5k WS geben wird.
http://www.reduser.net/forum/showthread ... post855509
Also bitte denke noch mal darüber nach ob die Scarlet wirklich die Kamera ist,
die deinen Anforderungen entspricht. Macht dir eine Liste mit vor und Nachteilen und
vergleiche die auch noch mal mit anderen Kameras die in Frage kommen würden.
Genau wie du es gesagt hast stimmt das schon, Pixel bleibt Pixel.iasi hat geschrieben:wie kommst du denn darauf, dass der 2k-crop "beschissen" sein soll? das würde ja implizieren, dass auch 4k "beschissen" wäre. pixel bleibt pixel, egal, wie viele ich davon nun nutze...
Erklär mal, denn am Rauschen würde sich nur etwas gegenüber der Gesamtfläche des Sensors verändern, wenn man binnen würde.Da der Sensor aber immer noch der gleiche ist vergößerst du durch den Crop das Rauschen.
Stimmt nicht .. würde man Objektive mit dem gesamten Bildkreis benutzen, hätte man zwar nur einen Ausschnitt des Bildkreises, aber keine Randfehler des Objektivs mehr. das Bild wird also besser.Dazu kommt dann noch die Auflösungsgrenze der einzelnen Objektive und z.B vergrößerte CA. Es wird halt alles vergrößert und dadurch sieht das Bild einfach schlechter aus.
Stimmt auch nicht, weil das Farbresultat aus dem De-Bayering pro Pixel immer dasselbe ist, egal wieviele Pixels De-Bayered werden.Da du bei 2k auch knapp vor HD bist, kann bei einem Bayer-Sensor die Farbtrennung nicht mehr so gut seine, wie bei einem 4k Bild, das für jede Farbe die volle HD Auflösung liefert.
Das kann man auch anders verstehen:Auch wenn RAW eine schöne Sache ist, haben uns doch gerade Sony und ARRI gezeigt, das 80 Porzent der Spielfilmproduktion mit 4:4:4 10bit, guter Bildwandlung und einer LOG Kurve eine Menge anzustellen ist.
das kann ich nur bedingt nachvollziehen.Valentino hat geschrieben: Genau wie du es gesagt hast stimmt das schon, Pixel bleibt Pixel.
Da der Sensor aber immer noch der gleiche ist vergößerst du durch den Crop das Rauschen. Dazu kommt dann noch die Auflösungsgrenze der einzelnen Objektive und z.B vergrößerte CA. Es wird halt alles vergrößert und dadurch sieht das Bild einfach schlechter aus.
Da du bei 2k auch knapp vor HD bist, kann bei einem Bayer-Sensor die Farbtrennung nicht mehr so gut seine, wie bei einem 4k Bild, das für jede Farbe die volle HD Auflösung liefert.
JVC scheint für ihren kleinen 4K-Erstling aber doch eine Lösung gefunden zu haben, sogar für erstaunliche 2160p60. Unter Verwendung eines angeblich besonders schnellen Prozessors.WoWu hat geschrieben:denn diese riesen Pixelmengen sind auf die herkömmliche Art, Auslesen-De-Bayern-RGB-Scaling-YCbCr-Codec gar nicht mehr leistbar.
Eigentlich hast Du Dir die Antwort schon gegeben.Was das CA angeht muss du mich aber bitte noch mal aufklären.
Gehen wir davon aus, das wir einen Baum im Gegenlicht filmen und deutlich CA an den Ästen zu sehen ist, wird durch den Crop die CA größer.
Der einzige Denkfehler bei der Sache war bei mir, das ich mich dann natürlich für den gleichen Bildausschnitt vom Baum wegbewegen muss oder ein anderes Objektiv benutzte.
Warum sollte das so sein ?bleibt müsste an einem Waveform das Grundrauschen gleich bleiben, aber durch den Crop wird das Rauschen sichtbarer als vorher.
Die Auflösung ist ja immer Lp/mm, also ist es egal, ob man damit 36mm oder nur einen mm bedient. Es findet ja keine andere Fokussierung statt.Was die Objektive angeht, würde ich mich doch schon sehr Stark wundern wenn jede Canon Linse bei diesem kleine Ausschnitt noch genug Linien/Millimeter auflösen kann.
Genau das hatten wir ja als Voraussetzung für die Flexen. Wir hatten einen Haufen Cineprimes, die wir über optische Adapter an 1/3 und 1/2" angekoppelt hatten und einen Schrank voll teuerster E-Type HD Linsen.Wer echt mit 2k Arbeiten will kann sich gleich mal ein Satz DigiPirmes oder einen 2/3" HD-Zoom zulegen ;-)
Das glaube ich kaum, denn für digi Cinema ist ein Container vorgeschrieben, den man nach DIGI CINEMA SPECIFICATIONS füllen muss und das geht nur mit dem Workflow.Zu deinem 12bit Workflow, der ist ja schön und gut, aber der ist wie ein 4k Workflow einfach zu teuer und den Unterschied sieht nur der Fachmann.