Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Meine Projekte-Forum

Infoseite // Mein GH4 / 4K Film - "Sea of rocks"



Frage von -paleface-:


Hallo,
nachdem die letzten Tage ja eher verregnet waren, freue ich mich ein wenig Sommerstimmung mit meinem Film über das Felsenmeer Hemer zu verbreiten.

Wagemutige, mit einer schnellen Internetverbindung und starkem PC, klicken bei Qualität übrigens auf 2160p und genießen den Film in 4K.

<object width="853" height="480"><param name="movie" value="http://www.youtube.com/v/SpMot5N80TU?ve ... ram><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/SpMot5N80TU?ve ... &amp;rel=0" type="application/x-shockwave-flash" width="853" height="480" allowscriptaccess="always" allowfullscreen="true"></embed></object>

Viel Spaß!

Space


Antwort von rush:

Was hing da für ein Glas vor der Kamera?
Scheint extrem streulichtanfällig zu sein und neigt bei einigen Einstellungen auch zu reichlich CA's...

Irgendwie haut's mich jetzt nicht so from the Hocker... teilweise etwas matschig und flau.. mhh.. vllt. sind meine Erwartungen an 4K auch zu hoch :D

Space


Antwort von darth_brush:

hey, cool.
konnte endlich meinen neuen 4k monitor testen.
Ein bisschen viel Wald und wenig neues, nach 60 sekunden ist man eigentlich satt.

Space


Antwort von -paleface-:

Dazu muss man sagen Youtube reißt so derbe die Qualität runter.
Wenn man dort 4K schaut hat man vielleicht grad so die Vergleichsauflösung von etwa 720p wenn man es so guckt.
Eventuell etwas drüber.

Davor waren das SLR Magic 14mm und das Walimex 35mm.

Hätte die CAs normalerweise noch weggemacht, aber mein PC hat irgendwann kein flüssiges arbeiten mehr zugelassen. Da dacht ich mir, was solls...fällt eh keinem auf....dann kammst du -_-

;-)

Space


Antwort von rush:

Dann wird es wohl das SLR Magic (du meinst wohl eher 12mm und nicht 14mm, oder?!) sein welches mir so negativ auffiel....

Es ist ja sowieso keine Überscherbe und an 4k zudem offensichtlich mehr als überfordert ...

Space


Antwort von Jott:

Warum hast du so heftig überbelichtet?

Space


Antwort von -paleface-:

Stimmt, klar 12mm natürlich.

Außer den zweiten Shot finde ich gar nicht so das es überbelichtet ist, oder auf was beziehst du dich?

Space


Antwort von Frank Glencairn:

Ich find die Lichter teilweise auch ein bisschen heftig, hast du das so gegraded oder ist da keine Zeichnung mehr drin

Space


Antwort von Auf Achse:

Ein bisschen viel Wald und wenig neues, nach 60 sekunden ist man eigentlich satt. Mir fehlt auch nach etwa einer Minute das NEUE. Ein paar schöne Nahaufnahmen ..... Grashalme, Steine, Spinnennetze usw im Gegenlicht wären schön.

Ein paar aufeinander folgende gegenläufige Slideraufnahmen stören mich. Weiters wie Jott erwähnt ein paar ordentlich ausgebrannte Stellen (ja, weiß eh, im Wald braucht man echt viel Kontrastumfang. Aber lieber absaufen als ausbrennen).

Schöne Musik, ansonsten eh ganz nett und einen Preis wolltest du damit ja nicht gewinnen.

Grüße,
Auf Achse

Space



Space


Antwort von -paleface-:

Hmmm....
Ich bin grad etwas stutzig geworden.
hab mir das File aus Yt geladen und mal mit dem Original vergleichen.
Also YT schluckt einiges wie im Anhang zu sehen ist.
(links original rechts YT)

Ich will damit gar nicht NICHT sagen das ich es einen ticken zu hell gemacht habe. Aber Yt ist da ein wenig mitschuld. Bzw. ich hätte bei den Files anders drauf achten müssen.

Mal davon abgesehen wüsste ich auch grad nicht wie ich im Wald in die Bäume hochfilmen soll und es nicht überstrahlt.

Aber ich bin dann auf dieses Video gestoßen.


Space


Antwort von CameraRick:

YouTube wird gern mal zu hell, hat (Achtung, halbwissen) wohl was mit der Legal Range zu tun.
Drücke ich ein Video manuell, etwa in Premiere, in die Legal Range (schnelle Farbkorrektur, Schwarz zu 16 und Weiß zu 235), siehts dann auf YouTube auch so aus, wie in der Software.
Funktioniert aber auch nicht immer. Steige da noch nicht so ganz durch, da hilft im Zweifel nur testen+vergleichen

Space


Antwort von dienstag_01:

Drücke ich ein Video manuell, etwa in Premiere, in die Legal Range (schnelle Farbkorrektur, Schwarz zu 16 und Weiß zu 235), siehts dann auf YouTube auch so aus, wie in der Software. Also schön flau. Oder welche Werte stellst du wo ein?

Space


Antwort von Viramedia:

Hallo
Und Danke fürs Teilen Deines Test-Footages. Bis auf die paar Fehler mit der Überbelichtung verstehe ich das gemeckere anderer wirklich nicht. Du hast tolles Footage geliefert, die Slider Aufnahmen sind super, dass Du dabei auch noch den Focus ziehst, fantastisch.
Auch die Schwenks sind gut, extrem ruhig (nur einer geht leicht zickzack)

Besonders gefallen mir die dunklen Szenen (immer gen Talaufnahme). Ich finde dass die GH4 besonders cineastische Aufnahmen macht, mit tollem Grain. Habe selbst am WE ein test gemacht bei Nacht auf einem Fest, ich bin zufrieden.

Und die "so genannte schlechte Scherbe davor" finde ich, liefert sehr gute Bilder. Die Flares sind doch geil...

Also weiter machen und üben, Du bist auf nem guten Weg.
Grüße

Space


Antwort von srone:

Aber ich bin dann auf dieses Video gestoßen.
war schon bei der gh2 so, manchmal denke ich, nehmt euch doch einfach mal ein bischen zeit eure kameras zu testen bevor ihr produziert, dann wirds auch was ;-)

lg

srone

Space


Antwort von WoWu:

(links original rechts YT Youtube hat das schon korrekt gemacht, denn die haben die Spitzenpegel auf den Überschwingern als maximalen Pegel genommen.
Dein Original den Clip.
Das mag optisch zwar sehr schön sein, aber "handwerklich" schlecht.
Ein technisches Medium muss schon in seinen Limits betrieben werden.
Youtube nimmt da nix weg, sie arbeiten nur präziser.

(Mal ganz davon abgesehen, dass man für einen Verleich nur dasselbe Frame nehmen kann und nicht nur eins "in der Nähe").

Space


Antwort von CameraRick:

Drücke ich ein Video manuell, etwa in Premiere, in die Legal Range (schnelle Farbkorrektur, Schwarz zu 16 und Weiß zu 235), siehts dann auf YouTube auch so aus, wie in der Software. Also schön flau. Oder welche Werte stellst du wo ein? nicht flau, das wird knackiger; mehr Werte werden schwarz, und mehr werden weiß, einfache Tonwertgeschichte (wobei da eher nur der Luma angefasst wird, wie es scheint). Muss man natürlich im Grading berücksichtigen, sonst clipped man ja informationen weg. Aber man hat so bekommen wir immerhin "what you see is what you get"

Space


Antwort von dienstag_01:

nicht flau, das wird knackiger; mehr Werte werden schwarz, und mehr werden weiß, einfache Tonwertgeschichte (wobei da eher nur der Luma angefasst wird, wie es scheint). Muss man natürlich im Grading berücksichtigen, sonst clipped man ja informationen weg. Aber man hat so bekommen wir immerhin "what you see is what you get" Ganz schönes Rumgedruckse. Sag doch einfach, wo du 16 und 235 einstellst, dann hau ich dir das um die Ohren ;)
Mich regt das bissel auf, musst du wissen, denn ich hatte vorher deine Beiträge zu Monitoren und Farbmanagment gelesen - und für ernst genommen. Mein Fehler, oder ;)

Space


Antwort von CameraRick:

Ich sitze auf der Arbeit und hab kein Premiere zur Hand, und hab die Namen der Regler einfach nicht im Kopf.
Weiß nun nicht in welcher Hinsicht das meine Glaubhaftigkeit in den Schatten stellt, ein enig Trial+Error (so bin ich nachher auch nur drauf gekommen) mag man heute nicht mehr?

Space



Space


Antwort von CameraRick:


zum Bild


Schau mal hier, ein Screenshot hab ich gefunden, ist sogar richtig eingekringelt. Im Input stellst die Legal-Werte ein. Zumindest konnten wir so die Filme, die auf YouTube zu hell wirkten, so fixen (Achtung: nicht jeder Film verhielt sich so)
Nach der Korrektur sahen sie aus wie im NLE

Space


Antwort von dienstag_01:

Das ist (wie ichs mir schon gedacht habe) vollkommener Unfug.
Wenn du die Input Range veränderst, clipt (und crushed) der Output. Ist doch logisch. Was mich wundert, wenn du so ein perfektes Monitoring hast, musst du das doch sehen?!
Fakt ist: Premiere arbeitet natürlich von Haus aus in 709 (601). Das ist 16-235. Oder sagen wir mal so, gibt in dieser Range aus.

Space


Antwort von CameraRick:

Kamerad, Du verwechselst da grad ein paar Dinge und wirfst komplett andere Sachen durcheinander.

Ich habe sicher keine perfektes Monitoring, und wie ich in den Topics betont habe, ist das meine Lösung für zuhause. Wie man gescheit einen Monitor kalibriert und das in die Software einbindet ist erstmal kein Geheimnis, und zweitens hier mit überhaupt nicht verknüpft.

Ich habe bereits erwähnt, dass da Werte clippen. Es ging hier nur darum, für YouTube eine gesonderte Ausgabe zu unternehmen, die so ausschaut wie im NLE, falls es im Videoportal zu hell ist. Ich habe auch schon geschrieben, dass es diesbezüglich bei mir Halbwissen ist; ich sage hier nur, was für uns funktioniert, wenn wir auf YouTube gehen - nichts generelles!
Vielleicht hast Du einen besseren Tip, wie man die Filme "korrekt" dort hochläd, falls dem so ist bitte teile es, denn ich bin ernsthaft daran interessiert den besten Weg zu kennen. Der Kunde sieht im Zweifel nicht die paar Werte, die da geclipped werden, wohl aber wenn das Bild zu flau und zu hell ist.

das hat mit meinem Monitoring nichts zu tun, das ist ein einfaches Workaround auf der Arbeit, damit die Daten so aussehen, wie gewollt und abgenommen. Verwisch die Sachen bitte nicht, da tust Du mir Unrecht.

Space


Antwort von Viramedia:

YouTube wird gern mal zu hell, hat (Achtung, halbwissen) wohl was mit der Legal Range zu tun.
Drücke ich ein Video manuell, etwa in Premiere, in die Legal Range (schnelle Farbkorrektur, Schwarz zu 16 und Weiß zu 235), siehts dann auf YouTube auch so aus, wie in der Software.
Funktioniert aber auch nicht immer. Steige da noch nicht so ganz durch, da hilft im Zweifel nur testen+vergleichen Die GH4 nimmt standardmäßig Filmmaterial ohnehin schon im Studio RGB Modus mit Werten von schwarz 16 - 235 weiß auf.
Aber man kann die GH4 so umstellen, dass auch Kombinationen möglich sind wie 16-255 oder gar 0-255 für den höchsten dynamischen Umfang des aufgenommenen Materials.

Hat die Kamera also von 0-255 aufgenommen (also Computer RGB), enthält das Material somit mehr Informationen, als letztendlich über Content Delivery Medien (TV, Streaming, YouTube) wiedergeben werden kann. Weil diese Medien von studio RGB Werten ausgehen und das Signal entsprechend spreitezn. Das ist der Grund warum z.B. auf YouTube die Tiefen absaufen und die Höhen dann überbelichtet werden.

Es handelt sich dabei aber nur um eine Wiedergabefehler, denn selbstverständlich, wenn man den Clip runterlädt und im NLE anzeigt, sind die PEgel wieder korrekt auf 0-255 (oder 0-100%)

Für Content Delivery im Studio RGB format sollte also im NLE das Videomaterial mittels Filter auf die Werte 16-235 gebracht werden (Vorschaumonitor muss natürlich dann auch auf 16-235 kalibriert werden weil sonst sieht alles flacher aus als es dann dargestellt wird). Die Werte können einfach im Histogramm angezeigt werden.

In Sony Vegas z.B. (und das kann Wolfgang noch besser erklähren) sollte daher die ext. Vorschau Studio-RGB in Computer-RGB eingesetzt werden, dann simuliert Vegas, wie das Video tatsächlich dargestellt wrid (nähmlich gesprietzt und mit mehr Kontrast)

Ich hoffe damit geholfen zu haben

Space


Antwort von Viramedia:

Hmmm....
Ich bin grad etwas stutzig geworden.
hab mir das File aus Yt geladen und mal mit dem Original vergleichen.
Also YT schluckt einiges wie im Anhang zu sehen ist.
(links original rechts YT)

Ich will damit gar nicht NICHT sagen das ich es einen ticken zu hell gemacht habe. Aber Yt ist da ein wenig mitschuld. Bzw. ich hätte bei den Files anders drauf achten müssen.

Mal davon abgesehen wüsste ich auch grad nicht wie ich im Wald in die Bäume hochfilmen soll und es nicht überstrahlt.

Aber ich bin dann auf dieses Video gestoßen.
Ich vermute mal dass grundsätzlich zu hell aufgenommen wurde. Dafür hilft mir aber z.B. immer das Histogramm auf der GH4. Weil je nach Lichtverhältnissen, kann man das am Display mit dem Auge oft gar nicht richtig einschätzen. Das Histogramm sagt sofort, wie die Pegel liegen sodass Du schnell eingreifen kannst falls das Bild zu hell ist.

Space


Antwort von CameraRick:

Wir filmen halt nichts auf GH4, ist für uns nur ein genereller Workflow.

Für mich schien es immer so, als ob YouTube die Files eben selbst "verkrüppelt". Sprich er nimmt den Wert bei 235 und sagt "das ist weiß", und eben so den bei 16 und sagt "das ist nun schwarz".
Dabei ist beides grau. Geclipped wurde es in unseren Versuchen ohnehin, also dann eben lieber mit richtiger Helligkeit und Kontrast.

Kann sein, dass das totaler Bullshit ist. Aber solange ich nichts besseres finde und es auf YT aussehen soll wie im NLE, werd ich das wohl so fahren.

Space


Antwort von dienstag_01:

Aber solange ich nichts besseres finde und es auf YT aussehen soll wie im NLE, werd ich das wohl so fahren. Das wirst du sowieso nicht schaffen. Das Problem liegt an Youtube bzw. der Einbindung von html5 in die verschiedenen Browser. Das sieht mit keiner Methode in allen gleich aus.

Space


Antwort von CameraRick:

Aber wenn der Kunde neben mit steht und sich das anschauen kann, ists erst mal, frei nach Animal Farm, ausreichend gleich :) der schauts sonst daheim auf seinem iPad und ist enttäuscht, hat ers hier gesehen (Du weißt schon, im "perfekten Monitoring" und so weiter ;) ), erzeugt das wenig bis kein Frustpotenzial.
Wenn er hier steht und es flauer und heller ausschaut, ist das eine blödere Basis.
Das ist ein Workaround, keine Lösung - für die, die es brauchen. Oder verkauf halt das helle Flaue, wie Du magst

Space


Antwort von dienstag_01:

Nimmste einfach mal keinen Firefox, sondern IE und schon gibts nichts mehr zu meckern. Auf jeden Fall ist deine Methode die mit den meisten Fehlern und Unwägbarkeiten. Man kann z.B. im Firefox Lumawerte wieder *sichtbar* machen, die es in Premiere schon gar nicht mehr gab ;)

IPad hab ich nicht, würde mich aber mal interessieren, wie sich das ganze auf Mac darstellt.

Space



Space


Antwort von CameraRick:

Und nun rate mal auf was für Geräten wir arbeiten ;)

In DE ist der Firefox der meist genutze Browser https://www.browser-statistik.de/
Da find ichs nicht so unsinnig, es damit zu testen. Hand aufs Herz, YouTube zerrockt das Material sowieso, da gehts nur um Schadensbegrenzung. Und als dann viele Kunden immer jammern, es sähe auf YouTube einfach nicht richtig aus, da haben wir uns hingesetzt und geschaut was man machen kann, wo das Problem liegt, und wie wir es zumindest umschiffen können.

Wenn Du wirklich eine Lösung fürs Problem hast, die nicht involviert einfach nur lokal was zu ändern (denn das ist nicht zielführend, wenn es nur hier richtig ausschaut, wo die Settings passen), dann teil mir das mit.

Wenn Du mal nen Kunden sitzen hast, der sich beklagt es sei zu hell und flau, und dann zeigst ihm die korrigierte Fassung im Vergleich zur Referenz, und dann schaut er die korrigierte auf seinem fancy WasAuchImmer, und ist zufrieden, dann wirst vielleicht auch nicht davon abrücken dass es nicht ie schlechteste Idee war. Was hilfts mir, wenn er zufrieden geht und dann wieder anruft, weil zuhause alles wieder falsch ist.

Space


Antwort von Viramedia:

Leute, die Diskussion ist ja total sinnlos.

Jeder Player, ob Blu-ray, der TV Media Stream, YouTube oder auch VLC, Media Player gehen von Filmmaterial mit Studio RGB aus (also 16-235). Diese Videos werden automatisch bei Wiedergabe auf einem PC oder iPad auf Computer RGB gespreizt.... und sehen so kontrastreicher aus

Daher ist der Standardworkflow, nur Studio RGB Signale zu rendern. Rendert man Computer RGB, kann man die NUR AUF PC perfekt darstellen im NLE (oder wenn man den Player trimmt, z.B. VLC, Computer rGB darzustellen).

Daher: Das Problem ist ja nur die optische Beurteilung vom Cutter am NLE, nicht die Wiedergabe. Das NLE zeigt natürlich alle 0-255 Werte an.

Daher sollte man das im NLE umstellen...

Space


Antwort von CameraRick:

Kannst es auch mit dem DaVinci vergleichen.

Wenn ihr einen wertvollen Tip habt, wie der Kunde nichts deutlich falcheres/helleres auf seiner Ausgabe nachher sieht, als das wir ihm zeigen konnten, bitte teilen.

Wenn der Kunde mehr Geld im Grading ausgibt als der iasi für eine Kamera bezahlt hat ist er halt auch darauf bedacht, dass das nachher so im YouTube aussieht, da interessiert ihn der 16-235-Ringelreihn überhaupt nichts.

Denkt ihr ich hätte mir den Quatsch ausgedacht weil es mit dem Standardworkflow zu gut funktioniert hat?

Space


Antwort von Viramedia:

A zeige ich meinen Kunden in der Regel nicht Live den DaVinci Workflow, sondern renderings
B wenn der Kunde da ist nutze ich einen kalibrierten Studio RGB Monitor auf dem die Signale 16-235 ohnehin korrekt (also optisch gespreizt empfunden) dargestellt werden.

Also ob ich jetzt einen Studio Monitor nutze oder einen kalibrierten Computer RGB Monitor auf dem der Player das Signal spreitzt macht optisch (vorausgesetzt die Kalibrierung passt) keinen unterschied.

Auf dem studio RGB Monitor sollte ich aber nicht versuchen, ein Computer RGB Player abzuspielen (dürfte aber eh nicht gehen, weil der Studio RGB Monitor nur über die Decklink läuft)

Natürlich wird der Kunde die Darstellung auf seinen Geräten anders empfinden als bei Dir im Studio... mal hat er ein iPad, dann ein Retina Display, dann ein billig Monitor...

ich mache es so: ich teste einfach das Video auf mehreren Geräten (iPad, Notebook, kalibrierter Moniotor, 4K TV)

Space


Antwort von dienstag_01:

Wenn Du mal nen Kunden sitzen hast, der sich beklagt es sei zu hell und flau, und dann zeigst ihm die korrigierte Fassung im Vergleich zur Referenz, und dann schaut er die korrigierte auf seinem fancy WasAuchImmer, und ist zufrieden, dann wirst vielleicht auch nicht davon abrücken dass es nicht ie schlechteste Idee war. Was hilfts mir, wenn er zufrieden geht und dann wieder anruft, weil zuhause alles wieder falsch ist. Das kann schon richtig sein, wie ihr mit euren Kunden arbeitet. Aber das als Workflow in ein Videoforum in einen Thread zur Beurteilung eines Videos einzustellen, ist nochmal was ganz anderes.

Und dieser Teil deiner Aussage ist bei dem von dir beschriebenen Workflow so oder so falsch: Drücke ich ein Video manuell, etwa in Premiere, in die Legal Range (schnelle Farbkorrektur, Schwarz zu 16 und Weiß zu 235),

Space


Antwort von WoWu:

Was ist an der Aussage falsch ?

Space


Antwort von CameraRick:

Der Kunde sitzt beim Grading natürlich dabei, ist das annormal?

Es ging doch darum, dass YT was zeigt was es nicht zeigen sollte - und da kam ich drauf, dass das dem OP vielleicht auch hilft, wenn ich ihm mitteile, wie man das ggf eindämmen kann (wie gesagt, das klappt nicht immer)
Und ich habe vorher angemerkt, dass das Halbwissen sei. Kann sein dass es falsch ist; und wenn es das auch ist, nachher ist der Kunde happy und Du siehst mich nicht wie ich mich beklage, dass YouTube was falsch gemacht hat. Da ist mir der Streit um Worte ein wenig egal :)

Space


Antwort von Viramedia:

Ein Kunde, der bei Dir ein Davinci Auftrag erteilt und beim Grading dabei ist und das alles auch noch bezahlt, ist ein Kunde der sich für zu Hause hoffentlich einen guten kalibirerten TV leisten kann und dann glücklich ist.

Space


Antwort von -paleface-:

Ui, angeregte Diskussion hier.

Kann mir einer sagen was das Signal der 7D war? Auch 16-235?

Space



Space


Antwort von CameraRick:

Ein Kunde, der bei Dir ein Davinci Auftrag erteilt und beim Grading dabei ist und das alles auch noch bezahlt, ist ein Kunde der sich für zu Hause hoffentlich einen guten kalibirerten TV leisten kann und dann glücklich ist. Du denkst dabei aber auch eher ein Einzelkunden, und nicht an Firmen, was? :)
Wir machen Werbung. Und da zählt für den Kunden, wie sein Kunde (also im Endeffekt Du und ich als Privatleute) das ganze sehen. Und da gehts nicht darum wie es auf seinem Monitor, auf seinem Fernseher oder seinem iPad aussieht, sondern wie es ausschaut wenn er es auf YouTube stellt.

Es geht nur um YouTube. Dass es dort so ausschaut, wie man es eher erwarten würde.

Space


Antwort von Viramedia:

Ui, angeregte Diskussion hier.

Kann mir einer sagen was das Signal der 7D war? Auch 16-235? nein 7D macht Computer RGB 0-255

Space


Antwort von Viramedia:

Ein Kunde, der bei Dir ein Davinci Auftrag erteilt und beim Grading dabei ist und das alles auch noch bezahlt, ist ein Kunde der sich für zu Hause hoffentlich einen guten kalibirerten TV leisten kann und dann glücklich ist. Du denkst dabei aber auch eher ein Einzelkunden, und nicht an Firmen, was? :)
Wir machen Werbung. Und da zählt für den Kunden, wie sein Kunde (also im Endeffekt Du und ich als Privatleute) das ganze sehen. Und da gehts nicht darum wie es auf seinem Monitor, auf seinem Fernseher oder seinem iPad aussieht, sondern wie es ausschaut wenn er es auf YouTube stellt.

Es geht nur um YouTube. Dass es dort so ausschaut, wie man es eher erwarten würde. na dann ists doch super einfach: 16-235 export und gut ist. der Kunde sieht es auf YouTube so wie Du im NLE im Compouter RGB Modus. Was gibt es denn da noch rumzuhaken, oder leigt ein verständnisproblem vor. Ihr solltet doch als Agentur das Problem doch schon längst im Griff haben, oder?

Space


Antwort von dienstag_01:

na dann ists doch super einfach: 16-235 export und gut ist. der Kunde sieht es auf YouTube so wie Du im NLE im Compouter RGB Modus. Auf Youtube heisst, du fährst mit deinen Kunden nach Amerika oder schaust du dir das Video mit ihnen im Browser an? Könnte einen Unterschied machen (um den es hier auch die ganze Zeit geht) ;)

Space


Antwort von Viramedia:

na warum was für Unterschied solls denn geben
wenn der Kunde aus USA ist hat er sich das originale Grading bei Euch eh nicht angeguckt. also schnuppe. Den interessiert nur die PReview auf Vimeo und das Resultat auf YouTube. Und Youtube ändert am Signal nichts

ein 16-235 Video bleibt 16-235 Video wird aber auf PC auf 0-255 gespreizt (maximaler Range), auf dem TV-Monitor dagegen mit 16-235 wiedergeben (max range)

lädt er den clip runter, hat er perfektes 16-235 luma signal...

Machst Du aber ein 0-255 Video hoch, sieht es natürlich über-unterbelichtet aus bzw. über kontrastiert... ganz logisch, weil youtube von 16-235 ausgeht und somit ein 0-255 video noch weiter spreitzen würde...

daher export nur 16-235. das sieht dann auf youtube, iPad, PC monitor identisch aus (bis auf farbunterscheide durch displays gegeben)

Space


Antwort von dienstag_01:

ein 16-235 Video bleibt 16-235 Video wird aber auf PC auf 0-255 gespreizt (maximaler Range), auf dem TV-Monitor dagegen mit 16-235 wiedergeben (max range) Du hast es immer noch nicht verstanden, oder: Es gibt Unterschiede. HTML5 im Firefox funktioniert bspw. nicht (in anderen Browsern schon). Vielleicht nimmst du das einfach mal wahr, bevor du hier weiter deinen STANDPUNKT postest.

Space


Antwort von perrostar:

Die Bilder waren nicht schön kadriert.
Das zu beherrschen sollte der erste Schritt sein. Auch später mal auf 8K ist ein amateurhaft komponiertes Bild .... ein schlechtes Bild.

Space


Antwort von wolfgang:

Die GH4 nimmt standardmäßig Filmmaterial ohnehin schon im Studio RGB Modus mit Werten von schwarz 16 - 235 weiß auf.
Aber man kann die GH4 so umstellen, dass auch Kombinationen möglich sind wie 16-255 oder gar 0-255 für den höchsten dynamischen Umfang des aufgenommenen Materials. Stimmt genau - die GH4 ist eine der ersten Kameras, die den Luminanzumfang einstellbar gestaltet. DAS verändert die Logik in der Nachbearbeitung, die Luminanzeinstellungen etc durchaus. Und es wird zwingend erforderlich dass man seine Werkzeuge wirklich diesbezüglich gut oder sogar besser versteht.

Hat die Kamera also von 0-255 aufgenommen (also Computer RGB), enthält das Material somit mehr Informationen, als letztendlich über Content Delivery Medien (TV, Streaming, YouTube) wiedergeben werden kann. Weil diese Medien von studio RGB Werten ausgehen und das Signal entsprechend spreitezn. Das ist der Grund warum z.B. auf YouTube die Tiefen absaufen und die Höhen dann überbelichtet werden. Sicher - wir müssen im Hinblick auf das Ausgabemedium unsere Sachen richtig ausgeben und bei der Luminanzkorrektur richtig anpassen. Ist für mich keine Frage.

Für Content Delivery im Studio RGB format sollte also im NLE das Videomaterial mittels Filter auf die Werte 16-235 gebracht werden (Vorschaumonitor muss natürlich dann auch auf 16-235 kalibriert werden weil sonst sieht alles flacher aus als es dann dargestellt wird). Die Werte können einfach im Histogramm angezeigt werden. Wobei es - auch je nach NLE - verschiedene Wege gibt die Einstellung auf den klassischen sendesicheren Bereich vorzunehmen. Und es hängt auch davon ab mit welchem Luminanzumfang man mit der GH4 filmt, auf was der Schwarzwert gesetzt ist (das geht in die Justierung des Kontrastumfangs ein), und mit welcher Methode man die Eingrenzung auf 16...235 macht (stauchen/spreizen oder auch mal einfach mit Filtern abschneiden).

Und das ist auch bei verschiedenen NLEs unterschiedlich - Vegas erlaubt da mehr Justierungen, Edius etwa beschneidet offenbar immer beinhart bei der Ausgabe auf 16..235 (halt strikt limitierend wohl aufgrund des Broadcast Hintergrundes).
In Sony Vegas z.B. (und das kann Wolfgang noch besser erklähren) sollte daher die ext. Vorschau Studio-RGB in Computer-RGB eingesetzt werden, dann simuliert Vegas, wie das Video tatsächlich dargestellt wrid (nähmlich gesprietzt und mit mehr Kontrast) Das ist eine Spezialität wie man mit Vegas umgeht - wie gesagt, ander NLEs machen das anders. Sogar die Verwendung von Karten wie der Blackmagic hat hier einen Einfluß.


In Summe ist es wohl so, dass uns die GH4 mehr Einstellmöglchkeiten bietet - das hat Vorteile, aber es hat auch Nachteile: man muss halt besser wissen wie man die Einstellungen vornimmt, sonst hat man im Material unerwünschte Effekte. Wobei ich mich nicht auf das Video hier beziehen will - das muss ich mir erst ansehen.

Space


Antwort von CameraRick:

na dann ists doch super einfach: 16-235 export und gut ist. der Kunde sieht es auf YouTube so wie Du im NLE im Compouter RGB Modus. Was gibt es denn da noch rumzuhaken, oder leigt ein verständnisproblem vor. Ihr solltet doch als Agentur das Problem doch schon längst im Griff haben, oder? Ne Agentur ist was anderes, wir sind ne Produktion.

Ich glaub wir drehen uns hier etwas im Kreis; irgendwie habe ich im Kopf, dass ich in dieser Unterhaltung gelandet bin, eben weil ich in 16-235 exportiere und das offenbar totaler Käse sei.
Das Problem ist doch im Griff, seit Ewigkeiten, daher hatte ich den "Lösungs"ansatz ja überhaupt gepostet. Schauen, ob es notwenig ist, muss man natürlich individuell dennoch. YouTube ist mir da oft ein Buch mit sieben Siegeln.

Wollte mir dafür sogar eigentlich eine LUT machen, damit ich das direkt im AME machen kann, aber dazu komme ich derzeit einfach nicht

Ist ja auch eigentlich nicht so wichtig, ich steig hier aus, ich hab ja auch Wochenende :)

Space



Space


Antwort von dienstag_01:

Ich glaub wir drehen uns hier etwas im Kreis; irgendwie habe ich im Kopf, dass ich in dieser Unterhaltung gelandet bin, eben weil ich in 16-235 exportiere und das offenbar totaler Käse sei. Der Kreis scheint dir zu gefallen: wenn du in der Farbkorrektur die Input Range verstellst, dann hat das zwar Auswirkungen auf dein Bild, aber Premiere gibt, egal was du dort einstellst, trotzdem nach der Norm aus. Du kannst dort 16-235 oder 0-8-15 einstellen, das ändert dein Video nicht von Legal zu Full Range (oder umgekehrt). Dazu müsste es einen Schalter beim Export geben. Gibts aber nicht ;)

Space


Antwort von WoWu:

na dann ists doch super einfach: 16-235 export und gut ist. der Kunde sieht es auf YouTube so wie Du im NLE im Compouter RGB Modus. Was gibt es denn da noch rumzuhaken, oder leigt ein verständnisproblem vor. Ihr solltet doch als Agentur das Problem doch schon längst im Griff haben, oder? Ne Agentur ist was anderes, wir sind ne Produktion.

Ich glaub wir drehen uns hier etwas im Kreis; irgendwie habe ich im Kopf, dass ich in dieser Unterhaltung gelandet bin, eben weil ich in 16-235 exportiere und das offenbar totaler Käse sei.
Das Problem ist doch im Griff, seit Ewigkeiten, daher hatte ich den "Lösungs"ansatz ja überhaupt gepostet. Schauen, ob es notwenig ist, muss man natürlich individuell dennoch. YouTube ist mir da oft ein Buch mit sieben Siegeln.

Wollte mir dafür sogar eigentlich eine LUT machen, damit ich das direkt im AME machen kann, aber dazu komme ich derzeit einfach nicht

Ist ja auch eigentlich nicht so wichtig, ich steig hier aus, ich hab ja auch Wochenende :) Ich verstehe die ganze Diskussion ohnehin nicht mehr.
Wer von 709 nach 255 wechselt, sollte besser genau wissen, wie er hin und zurück wandelt oder lieber die Finger davon lassen.
Und wer Material aus 709 bekommt, sollte besser darin weiterarbeiten, da bin ich völlig bei Dir.
Die meisten, die dann nämlich über RGB gehen, wandeln gar nicht korrekt sondern spreizen einfach nur und damit geht der Ärger nämlich los und sie wundern sich hinterher über das Youtube Ergebnis.
Aber das Problem sitzt 70cm vor dem Schirm und nicht im System.
Insofern bist Du schon in der korrekten Diskussion und so wie ich das einschätze auch mit dem richtigen Ansatz.

Space


Antwort von dienstag_01:

Aber das Problem sitzt 70cm vor dem Schirm und nicht im System.
Insofern bist Du schon in der korrekten Diskussion und so wie ich das einschätze auch mit dem richtigen Ansatz.
Na klar, dass sagt jemand, der gar nicht vor dem Schirm sitzt ;)
Lade einfach mal ein Video nach Youtube hoch und erfreu dich an den unterschiedlichen Ausgaben - desselben Videos - und dann diskutiere weiter. So ist es einfach nur Quatsch.
Vielleicht hast du bemerkt, dass CameraRick hier selbst von einem Workarround spricht, irgendwas scheint da doch nicht ganz so zu funktionieren, wie du dir das vorstellst. Egal. Ich geh schlafen, bringt eh nichts.

Edit: stopp, Kommando zurück, ich kann dir helfen (hochladen ist ja eh nicht deine Stärke)
https://www.youtube.com/watch?v=WRPa9BDmYXE
Schau dirs an und dann googlest du mal, wie du im Firefox (darum gehts konkret) den Youtube-Player auf HTML5 umstellst (oder eben auf Standard) und erklärst mal, was da so los ist. Haste was zu tun ;)

Space


Antwort von WoWu:

Schwaches Argument ... ich habe 40 Jahre mit Video gearbeitet. Wieviele Jahre "lädst Du denn nun schon hoch" ?

Wenn Du ein standardisiertes Signal bei Yputube abgibst und das geladene Format wieder downloadest und mit dem Analyser bis auf einige Übertragungswerte inhaltlich dasselbe Bildergebnis messen kannst, ist es völlig egal, mit welchem Player oder Browser Du guckst.
Der falscheste Weg ist es, sich dann mit seiner Korrektur nach einem x-beliebigen Browser zu richten.
Das wäre grad so, als würde ein Toningenieur die Musik nach einem Kofferradio mit 5 cm Lautsprecher entzerren.
Es geht ja schliesslich darum festzustellen, was die Verarbeitung bei Youtube verändert ... und die verändert nichts, wenn das Signal in Ordnung ist.
Sie verändert nur etwas, wenn Dein Signal vermasselt ist.

Du darfst Herstellung nicht mit Reproduktion verwechseln denn dann setzt auch das Gehirn 70cm vor dem Monitor noch aus.

Space


Antwort von Viramedia:

ein 16-235 Video bleibt 16-235 Video wird aber auf PC auf 0-255 gespreizt (maximaler Range), auf dem TV-Monitor dagegen mit 16-235 wiedergeben (max range) Du hast es immer noch nicht verstanden, oder: Es gibt Unterschiede. HTML5 im Firefox funktioniert bspw. nicht (in anderen Browsern schon). Vielleicht nimmst du das einfach mal wahr, bevor du hier weiter deinen STANDPUNKT postest. ich seh dafür keinen Anhaltspunkt. Du hast Deine Aussage hier noch nicht mal mit Screenshots belegen können. Ich für meinen Punkt habe mir der Ausgabe im Web keine Problem und auch die Kunden haben das nicht bemängelt, zumahl ich ohnehin bezweifle, dass sowas wirklich auffällt.

Wenn Du wirklich sicher gehen willst, bleibt nur noch eine Ausgabe von 10-20% und 60-80% des Lumabereiches übrig, so wie das viele Spielfilme auch machen...

Space


Antwort von Viramedia:

na dann ists doch super einfach: 16-235 export und gut ist. der Kunde sieht es auf YouTube so wie Du im NLE im Compouter RGB Modus. Was gibt es denn da noch rumzuhaken, oder leigt ein verständnisproblem vor. Ihr solltet doch als Agentur das Problem doch schon längst im Griff haben, oder? Ne Agentur ist was anderes, wir sind ne Produktion.

Ich glaub wir drehen uns hier etwas im Kreis; irgendwie habe ich im Kopf, dass ich in dieser Unterhaltung gelandet bin, eben weil ich in 16-235 exportiere und das offenbar totaler Käse sei.
Das Problem ist doch im Griff, seit Ewigkeiten, daher hatte ich den "Lösungs"ansatz ja überhaupt gepostet. Schauen, ob es notwenig ist, muss man natürlich individuell dennoch. YouTube ist mir da oft ein Buch mit sieben Siegeln.

Wollte mir dafür sogar eigentlich eine LUT machen, damit ich das direkt im AME machen kann, aber dazu komme ich derzeit einfach nicht

Ist ja auch eigentlich nicht so wichtig, ich steig hier aus, ich hab ja auch Wochenende :) Du machst es genau richtig. Ich exportiere, nachdem Wolfang und Marco mir das aus dem VegasForum ebenfalls eintrichtern mussten, auch nur noch in 16-235 und fahre damit richtig gut.
Mehr als diese kleinen Unterschiede im Lumabereich finde ich die Rekompressionen und das damit sichbarere Blocking von Vimeo und youTube deutlich schlimmer

Space


Antwort von Viramedia:

Ich glaub wir drehen uns hier etwas im Kreis; irgendwie habe ich im Kopf, dass ich in dieser Unterhaltung gelandet bin, eben weil ich in 16-235 exportiere und das offenbar totaler Käse sei. Der Kreis scheint dir zu gefallen: wenn du in der Farbkorrektur die Input Range verstellst, dann hat das zwar Auswirkungen auf dein Bild, aber Premiere gibt, egal was du dort einstellst, trotzdem nach der Norm aus. Du kannst dort 16-235 oder 0-8-15 einstellen, das ändert dein Video nicht von Legal zu Full Range (oder umgekehrt). Dazu müsste es einen Schalter beim Export geben. Gibts aber nicht ;) Tja dann verstehe ich das Problem natürlich... ich habe den Studio RGB Filter natürlich im Export. Wobei um ehrlich zu sein, ob Du im Clip einen Filter anwendest oder global im Export, solange das Footage zwischen 16-235 liegt (alles darüber und darunter wird ja bei der Wiedergabe abgeschnitten), müsste das Ergebnis genau gleich aussehen...

Space


Antwort von Viramedia:

Aber das Problem sitzt 70cm vor dem Schirm und nicht im System.
Insofern bist Du schon in der korrekten Diskussion und so wie ich das einschätze auch mit dem richtigen Ansatz.
Na klar, dass sagt jemand, der gar nicht vor dem Schirm sitzt ;)
Lade einfach mal ein Video nach Youtube hoch und erfreu dich an den unterschiedlichen Ausgaben - desselben Videos - und dann diskutiere weiter. So ist es einfach nur Quatsch.
Vielleicht hast du bemerkt, dass CameraRick hier selbst von einem Workarround spricht, irgendwas scheint da doch nicht ganz so zu funktionieren, wie du dir das vorstellst. Egal. Ich geh schlafen, bringt eh nichts.

Edit: stopp, Kommando zurück, ich kann dir helfen (hochladen ist ja eh nicht deine Stärke)
https://www.youtube.com/watch?v=WRPa9BDmYXE
Schau dirs an und dann googlest du mal, wie du im Firefox (darum gehts konkret) den Youtube-Player auf HTML5 umstellst (oder eben auf Standard) und erklärst mal, was da so los ist. Haste was zu tun ;) Welchen workaround braucht man denn da bitte. Hat man eine Kamera mit 16-235 Werten braucht man am Fotoage gar nichts ändern und es hat den korrekten Lumawert. Nutzt man aber das volle RGB Signal (z.B. umgestelle GH4 oder nutzt z.B. statische Bilder (auch vollen RGB Umfang)) dann muss dieses Material entsprechend umgewandelt werden. Dass die GH4 auch 16-235 kann (im Gegensatz zu bisher allen filmisch so viel genutzten DSLRs wie 5D M2, T2i oder T3i die alle von 0-255 aufnehmen) liegt ja nur daran, dass sie jenen, die mit der Convertierung - oder Workaraound nicht umgehen können, diesen Schritt erleichtern möchte.
Man kann also die GH4 so einstellen, dass ich mir über diesen Prozess keine Gedanken mehr machen muss...

Space


Antwort von Viramedia:

Schwaches Argument ... ich habe 40 Jahre mit Video gearbeitet. Wieviele Jahre "lädst Du denn nun schon hoch" ?

Wenn Du ein standardisiertes Signal bei Yputube abgibst und das geladene Format wieder downloadest und mit dem Analyser bis auf einige Übertragungswerte inhaltlich dasselbe Bildergebnis messen kannst, ist es völlig egal, mit welchem Player oder Browser Du guckst.
Der falscheste Weg ist es, sich dann mit seiner Korrektur nach einem x-beliebigen Browser zu richten.
Das wäre grad so, als würde ein Toningenieur die Musik nach einem Kofferradio mit 5 cm Lautsprecher entzerren.
Es geht ja schliesslich darum festzustellen, was die Verarbeitung bei Youtube verändert ... und die verändert nichts, wenn das Signal in Ordnung ist.
Sie verändert nur etwas, wenn Dein Signal vermasselt ist.

Du darfst Herstellung nicht mit Reproduktion verwechseln denn dann setzt auch das Gehirn 70cm vor dem Monitor noch aus. Wolfgang hat hiermit total recht. Ich selbst hatte diese Problematik im Vegas Forum angesprochen unter dem Titel QT Bug... Dieser Bug wird gerne vor allem in Premiere Kreisen besprochen und scheint genau diese Problematik zu umfassen.

Ich hatte mich damals über die Unterschiede ebenfalls gewundert, hatte nach Tipps von Wolfgang und Marco das Originalfootage mit dem YouTube verglichen und am Spectrum Analyser keine unterschiede merken können. Die Quelle war also von den Lichtwerten identisch (bis auf recompressionsartefakte) mit dem YouTube Ergebnis.

Allerdings stimmt es, dass die optisch eWahrnehmung ein anderes Bild zeigt, ähmlich überbelichtete oder abgesaufte szenen... weil eben die Player von einem Studio RGB Signal ausgehen und es so spreitzen, damit es auf dem Computer Monitor gleich wie auf dem TV aussieht (um das max. Lichtspektrum zu nutzen).

Also bleib ja gar nichts mehr übrig, als den Workflow auf Studio RGB umzustellen und den Monitor auf simuliertes Studio RGB umzustellen, sodass ich dann tatsächlich sehe, wie es dann auf YoutBue und Co aussehen wird. Dass die ext. Vorschau im NLE anders ist als die interne (die mit Computer RGB läuft) ist, sollte klar sein.

Punkt ist, dass man aber leider ohnehin nicht für alle Ausgabemedien einheitlich produzieren kann. Das wäre so wie wenn Du die Website programmierst und dann erwartest, dass sie auf allen Browsern genau gleich läuft und auch aussieht. Daher gibt es z.B. in dem Bereich diese kompatibilitätsmodi für alle gängingen Browser.

Also bleibt ebenfalls ncith anderes übrig, als nur für Luma 16-235 zu produzieren. Alles andere hängt dann wirklich nur noch vom Wiedergabegerät ab... aber immerhin garantierst Du, dass der Produktionsablauf korrekt stattgefunden hat.

Space



Space


Antwort von wolfgang:

Grundsätzlich kann man - wie auch dienstag völlig richtig sagt - bei der GH4 etwas, was ich vorher von den Geräten aus dem Prosumerbereich noch nicht gekannt habe: nämlich bewußt den Luminanzbereich zwischen 0..255, 16..235 sowie 16..255 einstellen. Das ist mal gut, den damit habe ich als Anwender die BEWUSSTE Wahl. Genauer: es ist für diejenigen gut, die wissen wie sie damit umgehen - für andere Anwender kanns ein Problem werden.

Denn man muss sich halt nicht nur überlegen, was ich an der Kamera einstelle - ich muss mir dann auch noch überlegen was das von mir verwendete Schnittprogramm mit diesen Einstellungen macht - und ich muss mir überlegen wofür ich final produziere, was da die Anforderungen und Rahmenbedingungen sind.

Das "Rundum-Sorglos" Paket scheint auf den ersten Blick natürlich 16..235 zu sein. Das kann jede NLE, und ich bin auch für den Broadcast-Bereich sauber unterwegs. Die Schattenseite ist halt nur, dass ich damit eigentlich Luminanzauflösung verschenke - die Bereiche Superweiß und Superschwarz werden einfach aufgegeben. Das ist etwas was ich immer als schade empfunden habe, weil weder will ich Zeilen- noch Luminanzauflösung verschenken will, vor allem wenn das die von mir verwendete Darstellungskette können sollte.

Dazu kommt in der Praxis, dass man die Werkzeuge der GH4 für diese Dinge eigentlich nicht ausreichend sind. Das kleine Histogramm ist ein Witz. Man braucht schon einen Waveform-Monitor vor Ort um das sauber einstellen zu können. Mit einem Ninja Blade gelingt das aber eigentlich recht gut - hier kann man sauber kontrollieren ob man im Bereich 16 (0% oder unterste Linie) bis 235 (100% oberste Linie) bin, oder ob ich in Superweiß und Superschwarz hinein arbeite - was ich ja bewußt machen will. Auch die Einstellung des Schwarzpunktes kann man damit recht sauber machen.

Tja und in der NLE muss man halt auch wissen wie man damit umgeht - ob die das bereits in der timeline clipt oder zusammenschiebt sowie was bei der Ausgabe passiert.

Das sind halt die Dinge die es dazu eigentich braucht.

Space


Antwort von WoWu:

Das Fernsehen macht es ja im Grunde genommen nicht anders.
Sie generieren ein einwandfreies, normgerechtes Signal und wie der Zuschauer dann sein TV Gerät eingestellt hat, bleibt ihm überlassen.
Also: rein optische Betrachtung reicht in der Nachbearbeitung nicht aus.
Win Messgerät hingegen zeigt exakt alle Werte an, wie sie in der Norm liegen.
Im Zweifelsfall würde ich mich auf das Messgerät verlassen, bevor ich mich für "nur buntes Bild" entscheide.

@Wolfgang

In Bezug auf den Nina musst Du dann natürlich darauf achten, ob Du in ProRes arbeitest, denn wenn Du in Bereichen ausserhalb der Marker arbeitest, lügst Du Dir in die Tasche, denn ProRes (in den 422 Ausführungen) kann nur begrenzte Wertebereich, macht also IMMER 709. Das kann Niña anzeigen, was es will.

Space


Antwort von dienstag_01:

Um der Sache mal ein Ende zu bereiten:
Weiter oben habe ich einen Link gepostet, da kann man sich ein Video anschauen, sollte man tun, im Firefox, in zwei Modi.

Wenn die beiden Modi keinen Unterschied machen, gut, dann ist hier Schluß, da das Problem sich in Luft aufgelöst hat ;)

Sieht man einen Unterschied, dann

erstens, versteht man vielleicht den Grund für den Workarround (von CameraRick, nicht von mir, nur mal zur Klarstellung)
und zweitens sollte man dann seine Fragen und Anregungen in einen neuen Thread verpacken, gehört nämlich eigentlich alles nicht hier her.

Und, was man wissen sollte, Premiere gibt normgerecht in 16-235 aus, man kann sich also Aufregung sparen, wenn man das zu Kenntnis nimmt. Und wenn man das selber mit einem anderen Workflow immer anders gemacht hat, ist man selber Schuld, aber sollte den Fehler bei sich persönlich suchen, nicht hier und bei anderen.

Ist doch n Vorschlag, oder ;)

Space


Antwort von wolfgang:

Das Problem mit ProRes ist noch, dass es in verschiedenen Schnittsystemen der Windows-Welt einfach falsch dekodiert wird und die Luminanz in der NLE verändert ausgegeben wird. Das ist leider bei Vegas der Fall. Darum gehe ich lieber auf DNxHD. Bei Edius wäre hingegen ProRes grundsätzlich die bessere Wahl denn das paßt dort - bei DNxHD hingegen paßt es in Edius nicht. Gemessen mit Farbbalken/Testbildern.

Space


Antwort von Viramedia:

;-D vorschlag akzeptiert.

zurück zum thema... m.M. nach war der Kurzfilm gut... auch wenn den andere total angemeckert haben.

es gibt aber optimierungsbedarf... und ich glaube der Threadeigner hat auch durch die Rege diskussion paar Tipps bekommen...
Grüße

Space


Antwort von -paleface-:

Habe auf jedenfall einige Erkenntnisse durch den Beitrag bekommen.
Fand ich super interessant und werde wohl für mich ein paar Test laufen lassen.

Als letztes noch ein Hinweis das es den Film auf auf Vimeo gibt.
Ist allerdings die selbe Version wie YT.



Space


Antwort von Viramedia:

habe jetzt auch mit GH4 heute mal getestet... bei direktem Sonnenlicht, echt schwierig (hatte nur Canon Linsen drauf und knnte nicht abblenden)

ohne ND Filter geht da nix... ist permanent überbelichtet. Ich werde ds Material jetzt auch mal auswerten und mir mal angucken. War auf jeden Fall mal den Test wert.

Space


Antwort von Viramedia:

Hallo Pelaface
Kannst Du nochmals mitteilen mit welchen Einstellungen Du gefilmt hast und welches Equipment dabei genutzt wurde?

weil ich finde die erzielten Kontraste als sehr gut, die schärfe in deinem Film ist auch prima... wie hast Du denn die immer so genau gesetzt? Weil teilweise mit Sonne sieht man den Inhalt am Display nicht mehr so gut... irgendwelche Tipps?

Danke

Space


Antwort von Jensli:

wie hast Du denn die immer so genau gesetzt? Weil teilweise mit Sonne sieht man den Inhalt am Display nicht mehr so gut... irgendwelche Tipps?
Wer benutzt denn bitte bei knalligem Sonnenschen das Display??

Space



Space


Antwort von Viramedia:

alternativen dazu wenn man nicht einen Filed Monitor mit Kabel + extra Stromversorgung mitschleppen kann?"Der interne Sucher ist ja nicht gerade der Hit...

Space


Antwort von wolfgang:

Na mein Ninja Blade hat eine ganz brauchbare Sonnenblende - aber sogar damit kanns in grellem Sonnenlicht schwer werden. Das GH4 Display ist besser als gar nichts, eigentlich noch relativ gut lesbar - aber auch da ist ein Sonnenschutz nett. Und der Sucher ist halt besonders für Brillenträger nicht das Optimum - muss man halt dauernd die Brille abnehmen oder man sieht nur einen Teil (wenigstens die Dioptrinkorrektur ist gut).

Space


Antwort von Jensli:

alternativen dazu wenn man nicht einen Filed Monitor mit Kabel + extra Stromversorgung mitschleppen kann?"Der interne Sucher ist ja nicht gerade der Hit... Einen View Finder z.B. von Zacuto oder der Proaim Vf ?

Space


Antwort von Viramedia:

Na mein Ninja Blade hat eine ganz brauchbare Sonnenblende - aber sogar damit kanns in grellem Sonnenlicht schwer werden. Das GH4 Display ist besser als gar nichts, eigentlich noch relativ gut lesbar - aber auch da ist ein Sonnenschutz nett. Und der Sucher ist halt besonders für Brillenträger nicht das Optimum - muss man halt dauernd die Brille abnehmen oder man sieht nur einen Teil (wenigstens die Dioptrinkorrektur ist gut). das Problem hatte ich eben auch beim Testdreh... ich bin auch brillenträger

Space


Antwort von tehaix:

Edit: Sorry, sehe gerade, dass ein neuer Thread dafür aufgemacht wurde.. hab es dahin übertragen.

Space


Antwort von Viramedia:

alternativen dazu wenn man nicht einen Filed Monitor mit Kabel + extra Stromversorgung mitschleppen kann?"Der interne Sucher ist ja nicht gerade der Hit... Einen View Finder z.B. von Zacuto oder der Proaim Vf ? Hallo Jensli
Diese Frage hatte ich bereits in einem anderen Thread gestellt. dazu konnte niemand antworten...

Die aktuellen viewfinder sind nicht für die GH4 ausgelegt, dazu oft nur mit einem harten frame (unten anzuschrauben). Alles nicht optimal. Ich hätte gernen einen den ich einfach ans Display klicke. Die Magnetlösungen der Chinesen für die 600D waren auch nicht schlecht und völlig ausreichend.

Space


Antwort von -paleface-:

Hallo Pelaface
Kannst Du nochmals mitteilen mit welchen Einstellungen Du gefilmt hast und welches Equipment dabei genutzt wurde?

weil ich finde die erzielten Kontraste als sehr gut, die schärfe in deinem Film ist auch prima... wie hast Du denn die immer so genau gesetzt? Weil teilweise mit Sonne sieht man den Inhalt am Display nicht mehr so gut... irgendwelche Tipps?

Danke Also die genauen Einstellungen weiß ich grad nicht, halt alles runter und hier und da ein paar kleine Anpassungen.
Ansonsten QFHD bei 25p gefilmt.

Als Objektive hatte ich das SLR Magic 12mm und das Walimex 35mm, letzteres mit Speedbooster.

Dazu eine Schiene.
Wenn du bei FB bist kannst du hier ein schlechtes Handyfoto zum Aufbau sehen:
https://www.facebook.com/photo.php?fbid ... nt_count=1

Zum Display, ich finde es ganz in Ordnung.
Wenn die Sonne nervt dreht man es sich halt so dass sie nicht mehr nervt.
Oder schaut durch den Sucher.

Schärfe ziehen war bei mir noch nie das Problem. Ich markiere mir halt mit meinen Fingern vorher 3 Schärfepunkte und ziehe dann mit.
Zudem hab ich recht gute Augen und kann das ganz gut auf dem Display sehen.

Space


Antwort von Viramedia:

super gemacht, danke für den Link

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Meine Projekte-Forum

Antworten zu ähnlichen Fragen //


GH4 4K pre burst mode einstellen???
GH4 - 4K Option ausgegraut?
Mein GH4 / 4K Film - "Sea of rocks"
Gh4 welche 4K Einstellung
Kurznews: GH4 Original 4K Files (vielleicht später) zum Download
Lumix GH4 mit 4K auf CES gezeigt
Bald die Panasonic GH4 4K für 2799€ ??
Panasonic S1/GH4/GH5 Forum - mit G9?
Rode Smartlav+ > (Zoom GH5) > Lumix GH4, GH5 + Android Tests
externer monitor via hdmi an gh4?
Mein allererster Film
Das Jahr 2022 auf 16mm Film. Serene Moments on a Bolex Camera and Kodak Film
Seh- und Hörempfehlung: Conny Plank - Mein Vater, der Klangvisionär
Mein neuer Osmo Pocket und Fragen
Warum ist mein Minolta Altglas im Weitwinkel so schlecht an der GX80?
Welches Verlängerungskabel bräuchte ich für mein Mikrofon?
Mein 2. Hochzeitsfilm
mein Naturfilmreview 2020
Mein Nachbar, ein Alien? Stoff für Drehbuch.
Welche Hardware hat mein iMac 2009
Wird sich mein Computer bei M.2-SSD-Benutzung nicht mehr überhitzen?
Mein Jahresrückblick 2021 - Naturfilm Thomas Stock
Mein erster Langfilm als Kameramann
Umfrage: Mein nächster Rechner hat:
Ist mein Fernseher zu langsam?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash