Frage von klusterdegenerierung:Da ich kein Proficutter bzw Profifilmer bin, wie viele hier, frage ich mich wann brauche ich es?
Filme 4K mit GH4 und 2K mit 5DII diverse Projekte, das übliche halt, mal ein Imagefilm, mal ein Produktfilm etc.
Bislang war alles ok, dennoch versuche ich mich stetig weiter zu entwickeln und neues Equipment an zu schaffen.
Eigentlich wollte ich mir die URSA kaufen, da ich es aber gewohnt bin mit DSRL zu filmen und viele meiner Projekte auch davon partizipieren, habe ich mich dann doch für die GH4 entschieden.
Jedoch möchte ich ja nicht auf der stelle stehen und der ständig wachsenden Konkurrenz etwas entgegen halten können.
Da kam dann auch wiedermal die Frage auf 10Bit 422 wenn man fast nur fürs Web arbeitet?
Ich habe durch eigenes arbeiten in Speedgrate oder Davinci noch keine großen Probleme gehabt, weiß aber von meiner Pocket was man an "Fleisch" haben kann wenn man raw verwendet.
Allerdings habe ich wenig Erfahrung mit reinem 10Bit 422 Material, so das ich keinen Vergleich habe und demnach auch nicht wirklich viel über eine echte Notwendigkeit urteilen kann.
Mit dem Hintergrund das ich einen neuen Fieldmonitor kaufen möchte und die Tage eine Woche auf Dreh bin und ein leihen des Shogun Kostentechnisch nicht unerheblich ist, stellt sich mir die Frage Shogun ja oder nein.
Wie ist da eure Einschätzung, auch vor dem Hintergrund der Zukunftssicherheit oder ganz einfach für die Erweiterung der Möglichkeiten, was ja auch nicht uninteressant ist!?
Antwort von wolfgang:
Vorab: ich habe das Gerät geordert.
Meiner Meinung nach macht der Shogun dann Sinn wenn
- du eine Kamera hast die auch 10bit ausgibt (wie etwa die GH4)
- du Wert auf höherwertige Helligkeits- und Farbkorrekturen legst
- wenn du das Material verarbeiten kannst - CinemaDNG geht nicht überall, ProRes hat seine Probleme in einigen Schnittsystemen
- du dir den Aufwand des 10bit workflows antun möchtest, respektive wenn es der Kunde bereit ist zu bezahlen
Die Zusatzaspekte Nutzung als Fieldmonitor in full-HD, Vectorscope, Waveform-Monitor sind natürlich auch durchaus wertvoll - auch für 8bit.
Also wie so oft im Leben - es hängt halt von deinen Rahmenbedingungen ab ob die Sache für dich Sinn macht - meine Meinung.
Gretchenfrage: wenn du davon lebst, verdienst du mit dem Teil einen einzigen Euro mehr?
Antwort von Jott:
Normalerweise nicht. Wie sollte man einen 10-Bit-Zuschlag bei Image-/Webfilmen rechtfertigen? Damit, dass man bessere Möglichkeiten hat, versemmelte Aufnahmen zu retten, kann man ja schlecht daherkommen! :-)
Antwort von klusterdegenerierung:
Normalerweise nicht. Wie sollte man einen 10-Bit-Zuschlag bei Image-/Webfilmen rechtfertigen? Damit, dass man bessere Möglichkeiten hat, versemmelte Aufnahmen zu retten, kann man ja schlecht daherkommen! :-)
Na Prostmalzeit, wenn dass das einzige ist was Dir zu dem Thema einfällt!
Das einzige was es wiederspiegelt, ist Deine negagive Grundhaltung!
@Wolfgang
Danke schon mal für die Einwände und abwägungen!
Was würde mich denn ein vergleichbarer Fieldmoni in der quali kosten, weißt Du das?
Antwort von Jott:
Zu dem Thema fällt mir noch viel mehr ein! :-)
Antwort von r.p.television:
Speziell der Shogun macht schon aus mehreren Sichtweisen Sinn:
1) Zunächst mal tatsächlich die 10bit Quantisierung. Der erweiterte Farbraum und die zusätzlichen Helligkeitsabstufungen haben nichts damit zu tun dass man versemmelte Aufnahmen korrigieren kann, sondern gerade wenn man mal etwas tiefer in die Gradingkiste greift wird schnell erkennen dass gerade bei Farbverläufen oder auch in Gesichtspartien die 8bit-Quantisierung zu unschönem Banding oder Blockartefakten führt.
2) Wer mal nicht nur als One-Man-Show unterwegs ist sondern einen Cutter mit einem altbackenen NLE beliefern muss wird froh sein direkt mit ProRes aufwarten zu können.
3) Wer mal länger auf einen 3"-grossen LCD gestarrt hat um bei Offenblende die Schärfe zu ziehen wird froh sein wenn er dies zukünftig mit einem 7" grossen und mit 1080p-Resolution machen darf. Dann braucht man auch kein Peaking mehr und die Augen freuen sich. Hat auch den Vorteil dass man die 7"-Lösung direkt auch für das Screening für Kunden aufstellen kann.
Antwort von klusterdegenerierung:
Das sehe ich auch so!
Allerdings weiß ich nicht so recht was jetzt der große bzw. viel größere Aufwand sein soll dies zu verarbeiten?
Denn ausser das die Files ca. 3 mal so groß sind habe ich noch keine schwierigkeit feststellen können.
Aber gerade dies finde ich ja interessant, wo ist jetzt der mehr Aufwand? Ein paar MBs mehr ist ja noch kein Mehraufwand.
Antwort von r.p.television:
Ich habe da auch keinen Mehraufwand abgesehen vom höheren Speicherbedarf.
Im Gegenteil.
8bit zu graden ohne dass es scheisse aussieht ist bei bestimmter Footage oder bestimmten Vorgaben eine Herausforderung.
Bei 10bit ist es vergleichsweise ein Kinderspiel.
Timeline durchscubben bei 4k MP4 mit Long GOP? Viel Spaß.
Timeline durchscrubben bei einem Intraframe-basierten Format wie XAVC - bei SSDs oder RAID kein Problem. Hier sollten logischerweise Speicherlösungen angebunden sein die genug Datendurchsatz liefern - was aber kein Problem ist.
Wer da von Mehraufwand redet hat für mich keine Ahnung.
Klar ist da ein finanzieller Mehraufwand. Aber warum sollte man auch bessere Quailtät hinterhergeworfen bekommen? Das Leben ist kein Ponyhof.
Ich habe übrigens mehrfach bei Kunden den Aufpreis für 10bit oder 12bit Raw rechtfertigen können. Ich hab ihnen einfach Stilframes gezeigt von den interen AVCHD Aufnahmen gegradet und von 12bit Raw. Es kamen keine Einwände und hinterher auch keine Klagen.
Antwort von klusterdegenerierung:
Das hört sich gut und plausiebel an!
Was hälst Du denn von dem Cineform bzw. GoPro Chef Kommentar, das man das GH4 4K Material in 10bit 4:4:4 umwandeln kann und auch die dementsprechenden Vorteiel hat?
Habe das probiert und keinen Unterschied feststellen können!
Wie deutlich war denn zb. der Unterschied den Du beim Kunden rechtfertigen konntest, bzw wie muß ich mir den vorstellen?
Antwort von r.p.television:
Ich kenne den Kommentar nicht.
Ich kenne die Theorie dass man beim Runterskalieren unter bestimmten Umständen eine bessere Farbauflösung erhält, also beispielsweise statt 4:2:0 dann 4:2:2.
Ich konnte das aber selbst nie testen und will das weder bejahen noch abstreiten.
Warum man aber eine andere Quantisierung erhalten sollte erschließt sich mir nicht. Durch Zusammenlegen von Pixeln kann man meinetwegen ein optimaleres Colorsampling erreichen, aber woher sollen denn bitte die zusätzlichen Helligkeitsabstufungen kommen und die Reserven?
Der Unterschied beim Kunden sind 400 Euro mehr Tagessatz beim Dreh wenn ich extern in 4k 12bit Raw aufzeichne statt internem AVCHD bei meiner FS700. Meine Ausgaben bezüglich der Recordingeinheit haben sich bereits amortisiert. Und ich habe jetzt keinen Odyssey und keinen Shogun sondern den teuren R5-Rekorder.
Plus dem Eindruck beim Kunden dass ich qualitativ höherwertig produzieren kann als jemand der mit ner DSLR in H264 losbrettert.
Es stellt sich halt die Frage wer Deine Kundschaft ist und ob das bei denen überhaupt im Budget ist. Denn gefallen tut es allen besser.
Antwort von WoWu:
GH4 4K Material in 10bit 4:4:4 umwandeln
Die Theorie basiert auf einer Computergrafik, in der bei jeder Darstellung die, im Computer erzeugten Signale neu berechnet werden.
Leider funktioniert das nicht mit einem Videobild, da die Unterabtastung bereits in der Kamera geschieht und die unter-abgetasteten Signale an den Rechner übergeben werden.
Eine Unterabtastung ist kein "fehlendes" Signal sondern ein verändertes Signal, dessen Ausgangswerte nicht mehr bekannt sind und daher auch nicht mehr reproduzierbar.
(Wenn Du vier Farben miteinander mischt, wird es einem neuen Betrachter nicht möglich sein, die vier ursprünglichen Farben aus der neu entstandenen -Mischfarbe exakt zu benennen).
Antwort von klusterdegenerierung:
Der Unterschied beim Kunden sind 400 Euro mehr Tagessatz beim Dreh wenn ich extern in 4k 12bit Raw aufzeichne statt internem AVCHD bei meiner FS700. Meine Ausgaben bezüglich der Recordingeinheit haben sich bereits amortisiert. Und ich habe jetzt keinen Odyssey und keinen Shogun sondern den teuren R5-Rekorder.
Plus dem Eindruck beim Kunden dass ich qualitativ höherwertig produzieren kann als jemand der mit ner DSLR in H264 losbrettert.
Es stellt sich halt die Frage wer Deine Kundschaft ist und ob das bei denen überhaupt im Budget ist. Denn gefallen tut es allen besser.
Sorry wenn ich jetzt so viel Frage :-)
Aber hast Du denn direkt mit der R5 Combi gestartet oder hast Du auch mit was preislich ähnlichem wie dem Shogun angefangen und hast trotzdem was draufschlagen können?
Und ist denn mit der Combi GH4+Shogun+Davinci oder Speedgrade auch ein so sichtbarer Unterschied zu erzielen den ich dem Kunden auch verkaufbar machen kann?
Antwort von klusterdegenerierung:
GH4 4K Material in 10bit 4:4:4 umwandeln
Die Theorie basiert auf einer Computergrafik, in der bei jeder Darstellung die, im Computer erzeugten Signale neu berechnet werden.
Leider funktioniert das nicht mit einem Videobild, da die Unterabtastung bereits in der Kamera geschieht und die unter-abgetasteten Signale an den Rechner übergeben werden.
Eine Unterabtastung ist kein "fehlendes" Signal sondern ein verändertes Signal, dessen Ausgangswerte nicht mehr bekannt sind und daher auch nicht mehr reproduzierbar.
(Wenn Du vier Farben miteinander mischt, wird es einem neuen Betrachter nicht möglich sein, die vier ursprünglichen Farben aus der neu entstandenen -Mischfarbe exakt zu benennen).
Da kennst Dich da natürlich gut aus und kannst das auch bennen.
Aber das entspricht auch meinem Bauchgefühl und meiner Verstandsorientierten Annahme.
Ich habe es mal so probiert, das ich das Material in Cineform 10Bit 4:4:4 zu 1080 downkonvertiert habe.
Jedoch habe ich keinen Mehrwert ausmachen können.
Antwort von r.p.television:
Sorry wenn ich jetzt so viel Frage :-)
Aber hast Du denn direkt mit der R5 Combi gestartet oder hast Du auch mit was preislich ähnlichem wie dem Shogun angefangen und hast trotzdem was draufschlagen können?
Und ist denn mit der Combi GH4+Shogun+Davinci oder Speedgrade auch ein so sichtbarer Unterschied zu erzielen den ich dem Kunden auch verkaufbar machen kann?
Ich habe letztes Jahr den Odyssey 7Q sehr früh geordert. Mir wurde als Liefertermin Oktober 2013 genannt. Als dann November war und mir vom Lieferanten plötzlich der vage Liefertermin Februar 2014 genannt wurde und zudem im Netz die Gerüchte kursierten dass Convergent Design nicht das genannte 4k Format hinbekommt (was auch bis heute stimmt - Sony hat nachgegeben und denen die Eckdaten für das Raw Recording gegeben), habe ich dann umgehend den R5 mit dem Interface für die FS700 bestellt. War natürlich teuer und die Lösung ist ein wenig klobig, aber seitdem kann ich wesentlich wertigere Footage produzieren. Falls ich das nicht getan hätte hätte ich im Januar einen Auftrag wieder abgeben müssen und hätte einen Kunden verloren, der mir später reichlich Aufträge im hohen Budgetbereich verschafft hat.
Ich kenne leider die Raw-Optionen beim Shogun nicht und mit welcher Kamera er dieses Raw aufnehmen kann.
Aber wenn echtes 10bit anliegt ist das schon eine gewaltige Verbesserung gegenüber 8bit. Das sieht man schon wenn man eine ganz simple Gammakurve in der Post zieht. Bei 8bit werden Schattenbereiche sehr schnell sehr "komisch" und zudem dürfte beispielsweise das 100mbit der GH4 sehr früh zu unschönem Artefakten führen.
Klar, noch besser ist Raw, aber dabei entstehen dann wirklich sehr riesige Dateien und je nach Art des Raws ist die Bearbeitung tatsächlich umständlich.
In meinem speziellen Fall kann das Sony Raw direkt in Premiere geschnitten und gegradet werden ohne Umwege über Resolve oder Speedgrade. Das ist nicht mit allen Formaten möglich. Auch ist mein Raw effizienter komprimiert als das Raw aus dem Odyssey 7Q (braucht doppelt soviel Speicherplatz) oder den Black Magic Cinema DNGs.
Du solltest Dich vorher damit auseinandersetzen was Du aktuell verarbeiten kannst.
Grundsätzlich aber ist ProRes 422 10bit in 4k ein gewaltiger Schritt nach vorne. Ein ganz simpler Test ist ein simples LUT für diesen Teal Orange Effekt. Bei 10bit sieht das in der Regel richtig gut aus (klar muss man da nachbessern), bei 8bit brechen mir die Tiefen weg und die Schatten in den Hauttönen gehen auch gar nicht mehr.
Antwort von wolfgang:
@Wolfgang
Danke schon mal für die Einwände und abwägungen!
Was würde mich denn ein vergleichbarer Fieldmoni in der quali kosten, weißt Du das?
Weiß ich zuwenig, sorry. Aber ein vergleichbarer Feldmonitor müßte m.E. dann auch die Funktionen Vektorskope, Waveform-Monitor, Zebra, Eichungsmöglichkeit, Monochromansicht mitbringen - und natürlich die 7-Zoll-Full-HD Darstellung.
Ob sich sowas findet kann ich zu wenig sagen.
Ich habe übrigens mehrfach bei Kunden den Aufpreis für 10bit oder 12bit Raw rechtfertigen können. Ich hab ihnen einfach Stilframes gezeigt von den interen AVCHD Aufnahmen gegradet und von 12bit Raw. Es kamen keine Einwände und hinterher auch keine Klagen.
Finde ich interessant - wenn das geht dann bringt die Sache auch kommerziell was.
Antwort von DV_Chris:
In Full HD gibt es was in 5,6" und 9". 7" habe ich jetzt auf die Schnelle nichts gefunden. Preise für erstere beginnen bei 1.200 netto.
Antwort von r.p.television:
Der Shogun ist in dem Zusammenhang ein extrem guter Deal.
Ich habe lange den TVLogic 5,5" mit 1080 Resolution im Warenkorb gehabt für 1640 netto.
Der kann aber kein Recording.
Mir persönlich wären zwar 5,5" lieber weil 7" schon wieder so ein sperriges Teil ist, aber bei den ganzen anderen Vorzügen wäre man blöd für 100 Euro weniger ein Gerät zu kaufen was nur ein Monitor ist.
Antwort von klusterdegenerierung:
Ja das stimmt wobei der TVLogic natürlich der State of the Art ist!
Ich habe das Problem das ich zwar einen 7" Fieldmoni besitze, dieser aber max 800x600er Auflösung hat, was an meiner 5DII ziemlich grottig aussieht!
Dann habe ich noch einen EVF4L der an der 5D sehr gut geht und auch über die üblichen features verfügt aber an der GH4 garnicht geht, schon mal garnicht wenn man 4K aufzeichnet.
Somit ist alles irgendwie nur halbgar!
Selbst ein preiswerter hochauflösender Filedmonitor sind da Welten zu meinem.
Gibt es irgedwo ein Testfile in 10 & 8Bit als download, damit man sich das mal selber vor Augen führen kann?
Klar kenne ich das aus dem ACR mit raws und auch von den Prores meiner ex Pocket, aber selbst da konnte ich die genannten verbesserungen nicht ausmachen!
Antwort von WoWu:
Du musst Dir das natürlich auch auf einem 10 Bit Monitor ansehen ;-)
Aber hast Du vermutlich auch.
Nur der Unterschied ist eklatant, wie r.p.tv schon gesagt hat.
Einwenig verwundert es mich, dass Du den Unterschied nicht siehst :-(
Antwort von klusterdegenerierung:
Ah Ok, so wird ein Schuh draus, da fällt der Groschen!
Wenn ich das richtig verstehe müßte er 12 haben oder?
http://www.dell.com/ae/business/p/dell-u2711/pd
Sorry, aber das Thema habe ich noch nie so richtig aufgegriffen (schäm)
Antwort von WoWu:
Na ja, einen 12 Bit Monitor wirst Du nicht wirklich bezahlen können (wollen) aber die 10 Bit Monitore sind mittlerweile erschwinglich und sollten den Unterschied zwischen 8 und 10 Bit recht deutlich zeigen.
Der Sprung zu 12 Bit ist optisch nicht mehr so dramatisch fassbar und eigentlich eher von Vorteil im Workflow.
Antwort von klusterdegenerierung:
Wiesoll ich dann die 12Bit in den Specs interpretieren?
Antwort von WoWu:
Das ist die Wortbreite in der Prozessverarbeitung -leider nicht die Bittiefe des Signals- :-(
Edit:
Ich hab grad mal nachgeschaut, der Monitor hat das H-IPS (LM270WQ2) Panel und ist damit eigentlich ein 8 Bit Monitor, der die 10 Bit nur mit A-FRC macht, also kein echter 10 Bit Monitor.
Antwort von klusterdegenerierung:
Na das nenne ich doch mal eine gute Nachricht! :-€
Antwort von klusterdegenerierung:
Heißt das dann das ich meinen evtl. zugewinn garnicht sehen kann?
Oder doch? :-)
Antwort von WoWu:
Hast Du denn den Monitor ?
Antwort von klusterdegenerierung:
Ja, dazu den gleichen als 22"er.
Antwort von WoWu:
Dumm gelaufen.
Bei den 8Bit Monitoren mit FRC werden die fehlenden Farben durch ein Multiplexing der Anzeige für wenige ms erzeugt. dadurch entsteht der 10 Bit Eindruck. Insofern ist es also schon etwas besser als "nur" ein 8bit Monitor aber die Anzeigen sind meist sehr unruhig und auch durch die Multiplexfrequenz wird eine "Art" Alisaingraster erzeugt, das nicht gerade zu einer guten Bildqualität beiträgt.
Aber zumindest müsstest Du "so etwas wie" 10 Bit sehen. Ein echter 10 Bit Monitor ist aber deutlich "ruhiger" in der Darstellung und auch lichtstärker, weil durch das Multiplexverfahren die Luminanzwerte leiden.
Aber FRC ist natürlich preiswerter. ;-)
So ist das auch mit den chinesischen Kopien ... die kosten auch weniger als die Originale :-)
Antwort von klusterdegenerierung:
Na super :-(
Aber das mit dem Muster stimmt schon. Solange man keine bewegtbilder hat ist alles easy, aber wenn man im Photoshop das bild moved, dann sieht man sowas wie einen ganz feinen grauen Staubnebel übers Bild wandern.
Das mit der Helligkeit müßtest Du mir dann noch mal erklären, denn das Ding steht auf 27 von 100 (mit SpyderPro4 kalibriert), ist also Sackhell :-)
Ich habe damals ca. 900€ dafür bezahlt, gibt es dafür oder weniger, einen echten 10Bit?
Ich meine es würde ja schon für das previewsignal ein kleiner reichen und den rest macht man dann auf dem anderen oder?
Was ist denn von der verwendung von Retina iPads als Preview zu halten?
Antwort von WoWu:
Die Funktion ist nicht so mit 2 Worten zu beschreiben aber um Helligkeit auf LCD basierten Displays zu variieren, wird die Einschaltzeit, also die Pulsweite des LED verändert.
Um eine höhere Farbtiefe in FRC zu erzeugen, wird meistens eine LED Gruppe gebildet, die mit jedem Frame umgeschaltet wird.
So entstehen Abstufungen in den Graustufen, die normalerweise auf dem Monitor nicht darstellbar gewesen wären.
Jeder Hersteller benutzt sein eigenes Cluster. Eine Variante wäre ein 2x2 Raster.
Auf diese Art entstehen, je nachdem, zwischen welchen Werten man hin und her schaltet, die gewünschten Farbmischungen, allerdings nicht auf dem Monitor, sondern erst im Auge des Betrachters.
Die Farbdarstellung ist also nicht real, sondern virtuell.
Wenn Du mir mal Deine e-Mail sagst oder sie in Dein Profil eingibst, schicke ich Dir mal das ganze Kapitel zu dem Thema.
Antwort von klusterdegenerierung:
:-) Ob ich das wohl verstehe, bzw mich das weiterbringt?
Letztendlich muß ich ja nur sehen was für einen Moni ich nun bezahlbar erwerben kann, damit ich überhaupt was vom Shogun hätte.
Antwort von WoWu:
Schon richtig ... nur hätte einwenig Vorkenntnis eine menge Geld erspart.
Was die Preise betrifft, musst Du mal sehen.
Neulich haben wir hier einen 4K Monitor besprochen, der auch nicht so teuer war.
Das ASUS PB279q gibt es mit 2 Panels, dem M270QAN01.0 und dem M270QAN01.1 (!!)
Das erstere ist ein 10Bit über FRC und das zweite (1.1) ist ein echtes 10 Bit.
Insofern ist die Aussage in Panellook.com unvollständig und etwas irreführend.
Das M270QAN01.0 ist Baujahr 2013 und das M270QAN01.1 auch erst Baujahr 2014.
Vielleicht wäre das ja was ?
Wie gesagt .. Preis musst Du selbst mal recherchieren.
Ich kann Dir nur mit den technischen Aspekten behilflich sein.
Antwort von klusterdegenerierung:
Ja stimmt, der sieht so aus als hätte Asus das Gehäuse meines Dells verwendet :-)
Er kostet zur Zeit um die 700€
Und wie bekomme ich das hin den 1.1 mit echten 10bit zu bekommen statt des anderen?
Ein normaler PC Händler kann ja gerade mal den Namen des Herstellers buchstabieren!
Antwort von wolfgang:
Panasonic hat das (lange erwartete) Firmware-Update für die GH4 angekündigt, welches das Zusammenspiel mit der Atomos Hardware vermutlich dramatisch verbessern wird:
Information of firmware update service for DMC-GH4/DMW-YAGH Nov. 19, 2014Panasonic announces the new firmware update program for the digital interchangeable lens system camera DMC-GH4/DMW-YAGH.Firmware update service is scheduled in December of 2014.
Update Information
- With this firmware, time code and RSS(Recording Start/Stop) signal can be embedded to the HDMI output signal*.
* Available when DMC-GH4 or DMW-YAGH are connected with the products of Atomos Global Pty. Ltd. or the products complying with the extended specifications of Atomos Global Pty. Ltd..
- FHD at 30p/25p native output via HDMI is available while recording video in FHD at 30p/25p.
- FHD at 30PsF(Over 60i) / 25PsF(Over 50i) output via SDI is available while recording video in FHD at 30p/25p.
* When DMW-YAGH is used for SDI output.
Also offenbar werden die Steuersignale übertragen - und man kann die Atomos Geräte von der GH4 aus starten und stoppen. Und offenbar wird hier jetzt auch 30p und 25p unterstützt.
http://av.jpn.support.panasonic.com/sup ... _yagh.html
Hoffentlich nicht nur als FHD - wir wollen auch UHD!
Antwort von klusterdegenerierung:
Supi, das hört sich doch gut an!
Vielleicht läuft dann ja mein EVF auch? :-)
Antwort von dnalor:
Hoffentlich nicht nur als FHD - wir wollen auch UHD!
Ja, so ganz schlau wird man aus dem Ankündigungstext nicht. Ich hoffe auch mal, das 4K damit dann klappt.
Antwort von WoWu:
Dann müssten sie HDMI erst neu erfinden.
Antwort von klusterdegenerierung:
Wolfgang, kannst Du mir denn sagen warum ich je nachdem, was ich für eine interne Recordinggröße oder Container wähle, mein Bild am EVF gescaledwird?
Je höher die Auflösung bzw. fps oder Kompression, um so mehr wird reingezoomt.
Nur bei der kleinsten AVCHD Variante habe ich ein 100% Bild, allerdings auch nur nach mechtig viel hin und her gestelle an der GH4 und dem EVF.
Dabei liegt doch am HDMI immer die gleiche größe an oder? (klar je nachdem welche man gewählt hat)
Antwort von wolfgang:
Dann haben sie da halt mal wieder eine Lösung gefunden. Denn auf der Atomos Seite findet sich folgender Text:
Record straight from the camera’s sensor in pristine 4K Apple ProRes or Cinema DNG Raw over HDMI and 12G-SDI.
Antwort von wolfgang:
4K über HDMI bei der GH4 in Kombination mit dem Shogun wird auch in diesem Video hier gezeigt:
Antwort von WoWu:
Das 4K über HDMI läuft steht ganz ausser Frage nur ob 4K in 25p, 10 Bit und 4:2:2 über HDMI läuft steht zur Debatte.
Es reicht also nicht, nur von 4K zu reden. man muss das Kind schon beim Namen nennen.
Dazu kommt, ob man auch das 12 bzw. 18Gbit/s Equipment hat, es hinterher abzuspielen.
Es geht nun mal nicht jedes Format über HDMI. Und wenn man dann eine Kamera mit den falschen Werten hat, ist das nun mal dumm gelaufen.
Oder man nimmt gleich SDI. Dann klappt das, wenn man den 2.000 € Zusatz spendiert.
Antwort von wolfgang:
Ja diese Tabelle kennen wir inzwischen alle (Gähn). Und auch den damit verbundenen Einwand. Denn auch das letzte Mal hattest du genau an diesem Punkt geweifelt, dass die Aufnahme in 4K mit 4:2:2 und 10 bit bei 24p, 25p und 30p mögich wäre.
Heute wieder.
Dabei hatte ich das damals bereits beantwortet. Laut Atomos machen sie eine Wandlung von 4:4:4 zu 4:2:2 im Gerät.
The shogun will convert incoming 4:4:4 over the HDMI interface to 4:2:2 for internal use. The max frame rates are 1080p120 or 4kp30.
Quelle: http://forum.atomos.com/showthread.php? ... the-Shogun
Ein drittes Mal beantworte ich das nicht mehr. Egal obs geglaubt wird.
Antwort von WoWu:
Na, dann warten wir es einfach mal ab, was bei einer solchen Conversion herauskommt.
Zunächst einmal hat Panasonic ja wenigstens HD verwirklicht.
Ist doch schon etwas.
Und wenn der Recorder dann noch 18 Gbit abarbeiten kann, dann klappt das vielleicht auch mit der Wandlung.
Und wenn dann die Kamera die hohe Pixelclock auch noch lernt, dann wird das wohl in den nächsten 2 Jahren auch noch was damit.
Übrigens wäre es auch mal interessant zu erfahren, was Du dann mit einem solchen, nicht über HDMI übertragbaren Signal machst.
Aus dem NLE in den Monitor funktioniert dann ja auch nicht über HDMI.
Oder wandelst Du das Signal dann wieder in 4:4:4 zurück und kannst dann nur auf 18 Gbit Monitore ? Hast Du schon einen ?
Dein Problem besteht darin, dass Du "gähnst", bevor Du etwas verstanden hast.
Antwort von klusterdegenerierung:
Wolfgang, kannst Du mir denn sagen warum ich je nachdem, was ich für eine interne Recordinggröße oder Container wähle, mein Bild am EVF gescaledwird?
Je höher die Auflösung bzw. fps oder Kompression, um so mehr wird reingezoomt.
Nur bei der kleinsten AVCHD Variante habe ich ein 100% Bild, allerdings auch nur nach mechtig viel hin und her gestelle an der GH4 und dem EVF.
Dabei liegt doch am HDMI immer die gleiche größe an oder? (klar je nachdem welche man gewählt hat)
Wowu kannst Du mir da noch was zu sagen?
Antwort von wolfgang:
Es ist schon unglaublich. Keine Gerätespezifikationen lesen, regelmässig ignorieren was renommierte Unternehmen ankündigen und publizieren, daher denen eigentlich regelmässig indirekt unterstellen dass es eh nur daneben sein kann was die so machen.
Ich werde schon lange mein Material aus dem Shogun schneiden und du wirst noch immer erklären warum das gar nicht funktionieren kann. Grossartig.
Antwort von wolfgang:
Es ist schon unglaublich. Keine Gerätespezifikationen lesen, regelmässig ignorieren was renommierte Unternehmen ankündigen und publizieren, daher denen eigentlich regelmässig indirekt unterstellen dass es eh nur daneben sein kann was die so machen.
Ich werde schon lange mein Material aus dem Shogun schneiden und du wirst noch immer erklären warum das gar nicht funktionieren kann. Grossartig.
Antwort von WoWu:
Ich werde schon lange mein Material aus dem Shogun schneiden und du wirst noch immer erklären warum das gar nicht funktionieren kann. Grossartig.
Du entwickelst hellseherische Fähigkeiten und solltest Dich lieber einmal mit den Rahmenbedingungen beschäftigen.
Vielleicht ändern die ja auch die HDMI Spezifikationen für Deine GH4.
Sag doch einfach mal, wie Du mit einem 4k,25P 10Bit 4:2:2 über die Schnittstelle kommst, solange Du nicht mit 4:4:4 gewandelt auf ein 18 Bit/s gehen willst.
Und solange es bisher nur Marketingankündigungen gibt, was man gern machen würde, halte ich mich lieber an die Spezifikationen einer Schnittstelle, die es bereits gibt, also an Fakten.
Darin unterscheiden wir uns eben.Es ist schon unglaublich
Damit hast Du ausnahmsweise mal Recht.
Antwort von WoWu:
Wolfgang, kannst Du mir denn sagen warum ich je nachdem, was ich für eine interne Recordinggröße oder Container wähle, mein Bild am EVF gescaledwird?
Je höher die Auflösung bzw. fps oder Kompression, um so mehr wird reingezoomt.
Nur bei der kleinsten AVCHD Variante habe ich ein 100% Bild, allerdings auch nur nach mechtig viel hin und her gestelle an der GH4 und dem EVF.
Dabei liegt doch am HDMI immer die gleiche größe an oder? (klar je nachdem welche man gewählt hat)
Wowu kannst Du mir da noch was zu sagen?
Ich hab die Frage nicht so ganz verstanden :-(
Kannst Du die nochmal genauer stellen ?
Antwort von dnalor:
Ich bin bisher megazufrieden mit der Gh4. Macht sich richtig gut neben der C100 und verdient Geld. Wenns jetzt noch mit dem Shotgun in 4K klappt freu ich mich. Wenn nicht, ist mir auch egal, die GH4 hat sich nach zwei Jobs schon gerechnet und macht auch privat als Mitnehmkamera einfach nur Spass. Ich würde den Shotgun auch eher wegen des Displays dranhängen, wenn dann auch noch Prores abgespeichert wird, toll. Ob das jetzt 4:2:2 oder 4:2:0 ist, ist mir wurscht.
Antwort von klusterdegenerierung:
Wolfgang, kannst Du mir denn sagen warum ich je nachdem, was ich für eine interne Recordinggröße oder Container wähle, mein Bild am EVF gescaledwird?
Je höher die Auflösung bzw. fps oder Kompression, um so mehr wird reingezoomt.
Nur bei der kleinsten AVCHD Variante habe ich ein 100% Bild, allerdings auch nur nach mechtig viel hin und her gestelle an der GH4 und dem EVF.
Dabei liegt doch am HDMI immer die gleiche größe an oder? (klar je nachdem welche man gewählt hat)
Wowu kannst Du mir da noch was zu sagen?
Ich hab die Frage nicht so ganz verstanden :-(
Kannst Du die nochmal genauer stellen ?
Äh sorry, wie soll ich das besser erklären?
Wie ich es geschrieben habe, ich bekomme nur ein normales Signal auf den EVF wenn ich die GH4 auf AVCHD kleinste Variante stelle, alles andere wird immer mehr reingezoomt und bei 4k sehe ich nur noch einen stark vergrößerten Ausschnitt des eigentlichen Bildes.
Und dann wollte ich noch mal Fragen wie man denn die 1.1 Variante des Asus bestellt, die Panelbezeichnung steht ja nirgends mit dabei und ein PC Shop futzi weiß sowas erst Recht nicht.
Antwort von WoWu:
Bei der HDMI Einstellung kann ich Dir leider nicht helfen. Ich gehe einmal davon aus, dass der Monitor nicht die erforderliche Auflösung hat. Es müsste eigentlich eine Menüeinstellung geben, in der Du die geringere Auflösung am HDMI Ausgang anwählst.
Was die Panelnummer betrifft, so kannst Du das auch über das Herstellungsdatum abfragen denn das Panel wurde in 4K/10 Bit erst ab Oktober 2014 gebaut.
Der Händler müsste eigentlich das Panel kennen, das in den Monitor eingebaut ist. Meistens steht es hinten sogar drauf.
Du kannst bei einem Kauf das ja vorbehaltlich des (1.1er) Panels machen, sodass Du das Teil zurückgeben kannst, wenn er Dir ein altes Panel (aus 2009 bis Okt. 2014) verkauft.
Ich gebe zu, solche Sachen sind im Consumerbereich ziemlich schlecht organisiert, aber in die Pflicht nehmen, musst Du da schon den Händler.
Ich kann Dir nur die Info geben.
Antwort von klusterdegenerierung:
Bei der HDMI Einstellung kann ich Dir leider nicht helfen. Ich gehe einmal davon aus, dass der Monitor nicht die erforderliche Auflösung hat. Es müsste eigentlich eine Menüeinstellung geben, in der Du die geringere Auflösung am HDMI Ausgang anwählst.
Das habe ich natürlich gemacht und alle möglichen Varianten zusätzlich, aber was mich ja auch interessiert ist die Tatsache das sich der Crop je nach Formatwahl ändert!
Der HDMI gibt doch normalerweise nur die vorgewählte Größe aus und nicht permanent was anders oder?
Und warum geht die übliche 100% Ansicht nur bei AVCHD?
Das hat doll alles überhaupt nichts miteinander zu tun!
Antwort von WoWu:
Das kommt darauf an, wo das HDMI Signal gewonnen wird. Es geht sowohl vor der Kodierung, als auch als decodiertes Signal.
Üblicherweise kommuniziert die HDMI Schnittstelle mit dem Monitor und tut nur das raus, was der Monitor kann.
Wenn da aber entweder keine Kommunikation stattfindet, weil der Monitor das nicht unterstützt, dann wird am HDMI Ausgang nur die Default Einstellung der Kamera angelegt.
Wenn die sich nach der Auswahl des Codecs richtet, dann kann das auch unterschiedlich sein.
Antwort von wolfgang:
Du entwickelst hellseherische Fähigkeiten und solltest Dich lieber einmal mit den Rahmenbedingungen beschäftigen.
Vielleicht ändern die ja auch die HDMI Spezifikationen für Deine GH4.
Eine Veränderung der Spezifikation ist absolut nicht erforderlich. Denn es geht eben 10bit mit 4:4:4 für 24p, 25p und 30p sehr wohl über die Schnittstelle - wie das von dir gepostete Chart ja sehr wohl bestäigst und wie du daher selbst bestätigst.
Warum soll sich aus 10bit 4:4:4 kein 10bit 4:2:2 machen lassen? Das versteht jeder dass aus einer Obermenge stets eine Untermenge darstellen läßt. Und Atomos macht halt nach eigener Aussage diese Wandlung - du willst das nicht akzeptieren oder wahrnehmen aber es ist halt so.
Deine Fähigkeit, Informationen neutral aufzunehmen ist zumindest in diesem Fall sichtbar eingeschränkt. Entweder weil du mich nicht magst, seit ich dich mal bei was moralisch und rechtlich bedenklichem erwischt habe. Oder du filterst das aus weil du irgendwas gegen Atomos hast. Mir ist das ja egal - aber solche Wahrnehmungsfilter finde ich persönlich eher bedenklich. Ratschläge solltest du mit solchen Vorurteilen allerdings keinem geben.
Sag doch einfach mal, wie Du mit einem 4k,25P 10Bit 4:2:2 über die Schnittstelle kommst, solange Du nicht mit 4:4:4 gewandelt auf ein 18 Bit/s gehen willst.
...
Und solange es bisher nur Marketingankündigungen gibt, was man gern machen würde, halte ich mich lieber an die Spezifikationen einer Schnittstelle, die es bereits gibt, also an Fakten.
Es ist schon deutlich mehr als "Marketingankündigungen". Es sind technische Spezifikationen die Atomos publiziert hat. Aufbauend darauf kann man rechtsverbindliche Bestellungen tätigen.
Tja, und das ist der Punkt an dem du weltfremd wirst. Wenn jemand technische Spezifikationen für ein Produkt publiziert, in Form von technischen Datenblättern - dann darauf basierend rechtsverbindlich bestellt wird, dann ist schon klar dass diese Spezifikationen nicht einfach erfunden sein können. Sonst wäre das ja Betrug vom Verkäufer.
Und auch wenn ich mir nicht vorstellen kann, dass du hier der Firma Atomos vorsätzlichen Betrug unterstellst, wäre ich hier entsprechend vorsichtig. Ich persönlich finde es schon recht großzügig von Atomos dass sie sich das ständig gefallen lassen.
Mir als Anwender reichen die technischen Datenblätter die publiziert sind. Wenn eine Firma mit dem Image und Ruf von Atomos sagt dass sie das können, dann glaube ich denen 1000x mehr als jemanden, der hier nachweislich seine Vorurteile wieder und wieder in Form von Realitätsverleugnung darstellt.