Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // Die Panasonic Lumix S1H - Erste 6K-FullFrame Kamera unter 4.000 Euro



Newsmeldung von slashCAM:





Jetzt kommt der dritte Streich von Panasonic: Die S1H will die erste Vollformat Lumix speziell für Filmer sein.



Hier geht es zum slashCAM Artikel:
News: Die Panasonic Lumix S1H - Erste 6K-FullFrame Kamera unter 4.000 Euro


Space


Antwort von Jott:

Das klingt ja mal richtig erwachsen gegenüber gewissen Hype-Cams. Nichts für strenge Fanatiker wegen 6K 4:2:0 (kreisch!), aber für Realisten hört sich das alles sehr interessant an. Mini-Varicam.

Space


Antwort von Kamerafreund:

Schicke Kamera. Fehlt gegenüber den großen Mühlen nur immer noch mehrere vernünftige Audioeingänge. Dafür würde ich auch locker auf 6k verzichten und mich mit 4k zufriedengeben. Aber der Sucher klingt schon wirklich gut.

Space


Antwort von Funless:

Und welch Zufall gibt es bereits die ersten „First Look“-, respektive „Review“-Videos auf YouTube. 😉







Space


Antwort von Drushba:

Perfekt. Jetzt nur noch Eyetracking auf Sony-Niveau und ich würde sie mir glatt kaufen.)

Space


Antwort von roki100:

https://www.youtube.com/watch?v=qRjKNLeQhPc wie der typ hin und her läuft...haha

Space


Antwort von Jan:

Der Pixelwahn ohne richtigen Mehrwert hält nun also auch in der Videoconsumerwelt seinen Einzug. Es wiederholt sich alles aus der Fotowelt. Die meisten User hier haben wahrscheinlich sogar noch Sichtgeräte mit FHD-Auflösung.

Space


Antwort von Frank B.:

Es ist ja kein Wahn, sondern ein Angebot. ;)

Space


Antwort von Funless:

Jan hat geschrieben:
Der Pixelwahn ohne richtigen Mehrwert hält nun also auch in der Videoconsumerwelt seinen Einzug. Es wiederholt sich alles aus der Fotowelt. Die meisten User hier haben wahrscheinlich sogar noch Sichtgeräte mit FHD-Auflösung.
Bei diesem (bereits oben geposteten) Video wird allerdings beispielhaft ab TC 11:18 gerade für Leute mit FHD Sichtgeräten ein interessanter Mehrwert des „Pixelwahns“ gezeigt (mit einer einzigen 6K Aufnahme die Möglichkeit unterschiedlicher Kadrage).



Wie von Jott oben bereits treffend geschrieben wurde: für Realisten ein durchaus interessantes Gerät.

Space



Space


Antwort von Jörg:

hochinteressant, vor allem die angesprochene Freiheit der Kadrage.

Space


Antwort von Jan:

Dazu hatte ich heute erst ein Gespräch mit einem Fotografen, weil das immer mehr Überhand nimmt, dass viele User einfach weil sie keinen Plan oder keine Zeit haben von Anfang an einen viel größeren Ausschnitt aufnehmen, um dann später wild am Rechner rumzuschnipseln. Dumm ist dann, wenn es verschiedene Schärfeebenen im Bild gibt. Viel größerer Ausschnitt geht mit Panasonic nicht wegen 1,5er Crop und dem Rolling Shutter. Beim AF-Test musste ich wieder lachen, wie schlecht Panasonic eigentlich ist, die Kamera weiß dauernd nicht, wo die Person ist und pumpt wie wild rum. Da gibt es ja auch eine Menge an Videos im Netz, wo User mit der S1 langsam durch den Garten laufen und selbst dort die Kamera massive Probleme bekommt. Bei der neuen S1H hat man auch absichtlich einen Tiefpassfilter eingesetzt, damit man Bildfehler nicht so sehen soll.

Space


Antwort von Rick SSon:

Komisch. Ich finde nichts davon spannend. Kann man fuer dasselbe Geld auch ne vollformat zcam kaufen. Die macht mehr frames und haelt mit großem npf direkt nen ganzen Tag. Die S1H ist schon okay, aber fuer den Preis finde ich „spannend“ zu hoch gegriffen.

Space


Antwort von cantsin:

Funless hat geschrieben:
Schon erstaunlich, dass bei fast allen Einstellungen der Fokus daneben liegt.

6K Vollformat im run-and-gun-Stil zu schießen ist offensichtlich keine so gute Idee.

Space


Antwort von Beavis27:

Eine Kamera für 4000€, die 50/60 fs nur im S35- Modus schafft ???
Nicht wirklich spannend...

Space


Antwort von Jott:

cantsin hat geschrieben:
6K Vollformat im run-and-gun-Stil zu schießen ist offensichtlich keine so gute Idee.
Selbstverständlich nicht. Aber wir sind doch alle erwachsen? :-)

Space


Antwort von Jott:

"Rick SSon" hat geschrieben:
Komisch. Ich finde nichts davon spannend. Kann man fuer dasselbe Geld auch ne vollformat zcam kaufen. Die macht mehr frames und haelt mit großem npf direkt nen ganzen Tag. Die S1H ist schon okay, aber fuer den Preis finde ich „spannend“ zu hoch gegriffen.
Weiß nicht, ob man ein chinesisches Start Up mit Panasonic in einen Topf werfen sollte - aber das zeigt sich ja irgendwann.

Space


Antwort von nic:

Jan hat geschrieben:
Dazu hatte ich heute erst ein Gespräch mit einem Fotografen, weil das immer mehr Überhand nimmt, dass viele User einfach weil sie keinen Plan oder keine Zeit haben von Anfang an einen viel größeren Ausschnitt aufnehmen, um dann später wild am Rechner rumzuschnipseln. Dumm ist dann, wenn es verschiedene Schärfeebenen im Bild gibt. Viel größerer Ausschnitt geht mit Panasonic nicht wegen 1,5er Crop und dem Rolling Shutter. Beim AF-Test musste ich wieder lachen, wie schlecht Panasonic eigentlich ist, die Kamera weiß dauernd nicht, wo die Person ist und pumpt wie wild rum. Da gibt es ja auch eine Menge an Videos im Netz, wo User mit der S1 langsam durch den Garten laufen und selbst dort die Kamera massive Probleme bekommt. Bei der neuen S1H hat man auch absichtlich einen Tiefpassfilter eingesetzt, damit man Bildfehler nicht so sehen soll.
Tiefpassfilter sind bei für Bewegtbild ausgelegten Kameras eigentlich die Regel. Das feine Aliasing stört bei einzelnen Aufnahmen selten, bei Video fängt es dann aber an zu flimmern, wabern oder tanzen. Das hat nichts mit Bildfehlern zu tun, sondern ist bei Digitalkameras systemimmanent.

Space


Antwort von Kamerafreund:

Versteht jemand die Slashcam Kamera-Bestenliste? Bildqualität und Videosignal stehen in Spalten mit Punkten direkt nebeneinander. Die GH5 auf Platz zwei mit 55 Punkten für Bildquali, die A7 iii auf Platz 5 mit 69. Heisst das, dass die a7 III weiter unten Steht obwohl sie das deutlich bessere Bild macht nur weil sie kein 10 Bit usw macht?? Das würde auch erklären warum die Blackmagic Pockets so weit oben stehen - die dafinitiv in jeder Hinsicht Consumer Geräte sind. Einfach 6k, 10 Bit reinhauen. Die die keine Ahnung haben werden dann schon kaufen. Sind Videosignal und Bildqualität wirklich gleichwertig?? Ist erstes Kriterium nicht immer Bildqualität und danach Bedienbarkeit?

Space



Space


Antwort von rush:

Da bringt Panasonic ein interessantes Paket auf den Markt.... Sind ja durchaus einige durchdachte Features dabei in Hinblick auf das LCD Display, Rotlicht, stabilisierter Sensor, Dual Gain, günstige Dual SD Slots usw... Auch die internen Aufzeichnungsmodi sind ja extrem vielfältig - wenn auch sicher einige Wünsche oder Fragen offen bleiben.

Das dürfte doch zumindest einen Ausblick auf eine mögliche A7sIII geben die nun endlich ein Modell hat an dem man sich orientieren kann von den Codecs, Formaten und Funktionen her... Hoffentlich sieht Sony das auch und kündigt da nichts halbgares an.

Ob Panasonic mit dem Gerät die große Masse erreicht bleibt sicher abzuwarten - in Sachen AF hängen sie ja scheinbar doch noch etwas hinterher... Und auch beim Blick auf native Linsen gibt es natürlich noch enormen Nachholbedarf.

Dennoch eine schöne Real-Studie wie eine Hybridkamera aussehen und funktionieren kann.. Pro AV's Ersteindruck war sehr sympathisch und brachte es am Ende gut auf den Punkt... Tolles Gerät, sehr guter Sucher, etwas zu viel RS und der Wunsch nach built-in ND Filtern oder zumindest in Adapterform wie bei Canon R oder den Speed Throotle Adaptern besteht - dann wäre das durchaus eine richtig gute Maschine.. Ist sie so sicher auch schon - aber es fehlt wie so oft das letzte Tüpfelchen.

Für mich ist sie aktuell aus zwei Gründen weniger interessant. Meine Fotomaschine A7rII ist noch immer super für Fotos und auch für gelegentliche S35 Shots mehr als brauchbar. Ergänzt durch die Raw fähige P4K sind auch die Bereiche bei denen Video mehr im Vordergrund steht abgedeckt.

4000€... Ein neuer Mount und erste Modelle einer Neuen Ära sind immer so eine Sache. Das muss man wirklich wollen - oder sich leisten können weil man das Konzept mag.

Auf jedenfall schön zu sehen das Panasonic versucht im Videobereich der spiegellosen Systemkameras nach der Krone zu greifen - daran dürfen sich die anderen nun gern messen.

Space


Antwort von balkanesel:

Alles wunderschön, frag mich nur wieviel Stück Panasonic zu verkaufen gedenkt, Fotografen kaufens eher nicht, um den Preis gibts besseres und ohne Tiefpassfilter, und Filmern wird der mehrfach extra gelobte Sucher eher nix bringen oder wie filmt man mit dem Aug an einem derartig platzierten Sucher, abgesehen von 4:2:0

Space


Antwort von Jörg:

frag mich nur wieviel Stück Panasonic zu verkaufen gedenkt, in zwei Jahren wissen wirs....
ich sehe keinen Grund, das Teil schon wieder negativ zu besetzen,
ohne jedes Detail zu kennen.
Nur weil das im grauen Vorfeld ein Verkäufer tut, indem er mit einem
Fotografen schwatzt...kümmert wohl keinen Filmer??

Space


Antwort von -paleface-:

Finde die Kamera Hammer... wenn die doch nur einen EF Mount hätte! :-(
Neu ist zudem das optionale automatische Splitting in Dateien von einer Minute Länge. Sollte beispielsweise die Kamera während der Aufzeichnung herunterfallen und die Datei nicht abgeschlossen geschrieben werden, verliert man im Falle eines aktiven File-Splittings immer höchstens die letzte Minute. Als ich in einer FB Gruppe gefragt hatte ob man bei der GH5 auf den alten Modus umschalten kann das nach soundso viel GB Automatisch ein neues File erstellt wird, haben mich alle ausgelacht weil nur File nach einer Aufnahme zu haben ja so viel besser ist.
Klar ist das Prinzipiell erst mal besser....aber es gibt halt auch Situationen wo nicht. Daher begrüsse ich diese Funktion und hoffe andere ziehen da nach.

Space


Antwort von GaToR-BN:

Begeistert mich nicht unbedingt, da ich die Auflösung nicht brauche und durch den Speedbooster an meiner GH5 genug Lichtstärke habe. Jetzt müssten ich alle Objektive neukaufen und dazu einen Body mit einem recht knackigen Preis erwerben. Einen wüdigen GH5-Nachfolger würde mich mehr reizen.

Für mich macht der kleinere Sensor beim Filmen mehr Sinn. Für Fotos habe ich noch einen Uralte 5D MKII im Einsatz. So kann ich meine alten L-Objektive und Sigma-Art-Linsen für beide System einsetzen.

Space


Antwort von funkytown:

Blackmagic kann neben dem etwas günstigeren Preis dagegen "nur" volle 6K RAW Aufnahmen mit 50/60p sowie eine Resolve Studio Lizenz ins Feld führen. Stimmt nicht. Die Blackmagic hat den Vorteil der internen ProRes Aufzeichnung. Ich kann direkt mit dem Schnitt loslegen ohne Umwandeln zu müssen (kein Ruckeln etc.).
Die Aufzeichnung eines vollen 6K Readouts erfolgt übrigens intern immer zwingend in HEVC Für mich ein Grund, die Kamera NICHT zu kaufen.

Space


Antwort von Kamerafreund:

Xlr Audio nur über Hotshoe? Ich hatte gehofft, sie würden von Sony lernen, wo der Audio Adapter eine Katastrophe ist. Das ist nichts Professionelles, sondern ein Spielzeug.

Space


Antwort von rush:

balkanesel hat geschrieben:
und Filmern wird der mehrfach extra gelobte Sucher eher nix bringen oder wie filmt man mit dem Aug an einem derartig platzierten Sucher, abgesehen von 4:2:0
10bit 420 @6k ist schon ganz passabel für intern... Runterskaliert auf 2k passt das denke ich.
Schade eher das einige Kombination nicht in HEVC angeboten werden - anderes wiederum nur als H.264 funzt. Das erscheint mir nicht durchgehend schlüssig - zumal HEVC mehr als nur longGop verdient hätte.

Und was genau ist am Sucher falsch? Habe ich da was übersehen? Der ist doch wie bei gängigen spiegellosen platziert und somit sollte er auch "usable" sein - besonders wenn man klein bleiben möchte ohne externe Anbauten wie Monitore.

Space


Antwort von Jott:

rush hat geschrieben:
zumal HEVC mehr als nur longGop verdient hätte.
Wie soll's denn sonst gehen auf SD-Karten?

Space



Space


Antwort von rush:

@Jott... Bei der P4K geht 4k RAW auf Billo uhs I SD Karten...

Aber Mal realistisch...

4k 10 bit 422 All-Intra @ 400mbit in h.264 ermöglicht laut Spec Sheet die Kamera ja durchaus - also sollte das doch im platzsparenden HEVC ebenfalls möglich sein bei geringerer Datenrate - oder entsprechend höherer Qualität weil effektiver.
400MBit aka 50MB/s sind jetzt keine extrem hohen Datenraten.

Space


Antwort von Paralkar:

Da sind meiner Meinung nach einpaar Fehler im Artikel

"Auf dem Papier ist sicherlich die interne 6K Aufzeichnung am auffälligsten. Diese ist allerdings nicht in 10 BitBit im Glossar erklärt 4:2:24:2:2 im Glossar erklärt möglich, was auf den ersten Blick den einen oder anderen Anwender enttäuschen könnte. Bei genauerer Betrachtung wäre eine 4:2:24:2:2 im Glossar erklärt Aufzeichnung jedoch überhaupt nicht sinnvoll, da aufgrund der Bayerstruktur des Sensors ja gar nicht jeder zweite PixelPixel im Glossar erklärt in der 6K-Aufzeichnung mit unterschiedlicher Farbinformation versorgt werden kann. So gesehen ist 4:2:04:2:0 im Glossar erklärt schon aufgrund des geringeren Datendurchsatzes in der Tat eine rationale Entscheidung für die Aufzeichnung."

Ich verstehe nicht wie sich dieses Gerücht noch immer halten kann, "444 ist mit nem Bayersensor nicht möglich", oder in eurem Fall "422 macht da deshalb kein Sinn". Mittels der Bayerstruktur bzw. dem Pattern und den Sensels werden im Debayering Farbpixel interpoliert. Danach passiert beim Processing das Chroma Subsampling, von einem 444 RGB Signal in was auch immer. Dadurch hat auch jeder Pixel erstmal aus dem Debayering raus ein 14 oder 16 bit RGB Wert (je nach AD Wandler).

Das sind 2 vollkommen verschiedene paar Schuhe, also macht das schon ein wesentlichen Unterschied ob ich bei allen interpolierten Pixeln 1/2 davon als echte Farbinformation behalte oder 1/4....

Hinzukommt, Debayering Algorithmen können unglaublich komplex werden, da passiert in der Interpolation weitaus mehr um die maximale Qualität und Auflösung herauszubekommen, anstatt nur 4 Subpixel zu einem Pixel zusammenzufassen

Nächster Punkt:
Dieses ewige runterskalieren und ein besseres Chroma Subsampling erhalten. Sobald ich ein 420 Signal hab, hab ich massiv an Farbinformation weggeschmissen, nur noch 1/4 aller Pixel enthalten eine echte Farbinformation aus dem debayerten Signal, der Rest wird interpoliert. Das bedeutet, wenn ich nur 1/4 Farbinformation hab & 3/4 davon weg sind komme ich niemals auf ein echtes 422 oder 444 Signal, weil ich ja die fehlenden Informationen damit nicht zurückbekomme, sondern nur ein Mischmasch aus 1/4 der Farbinformationen & Interpolation. Scaling Algorithmen können auch wieder sehr komplex werden, um zu sagen, welche Information ich damit verliere und welche ich behalte, vielleicht fällt sogar noch was von der echten Farbinformation weg und der Interpolierte Wert wird beim downscaling behalten, weiß man nicht,

das es zu weniger Banding führt ist in dem Fall nachvollziehbar, aber ein sinnvollen Greenscreen key würd ich mich nicht damit trauen zu machen...

Nächster Punkt:
"Es wäre daher durchaus denkbar, dass herunterskaliertes 6K-V-Log Material in der Postproduktion kaum schlechtere Eigenschaften aufweist, als 4K RAW Material"

hab ich oben schon beschrieben, aber so oder so 420 10 bit vs. 12 bit Log oder 16 bit Linear Raw, das sind schon nochmal Welten dazwischen, das eine ist ein Misch Masch 6k zu 4k pseudo 422 10 bit aus nem 420 10 bit gewonnen, das andere ist theoretisch das unkomprimierteste was man Aufzeichnen kann.

Also solche Behauptungen in den Raum zu stellen führt zu absolutem Irrglauben und lässt Leute weiterhin diese Gerüchte verbreiten,

Space


Antwort von Jott:

"4:2:0 kann man nicht graden oder keyen" ist ebenso ein liebevoll gestreutes Gerücht.
Einfach das aussuchen, was man hören will, und alles ist gut!

Space


Antwort von Paralkar:

Ja keyen kannst du es aber die Ergebnisse sind halt weit weit weg von dem was 444 ermöglicht, das merkt man schon am Arbeiten mit den Curves, oder nem simplen Highlight oder Skintone Key....

Space


Antwort von wolfgang:

funkytown hat geschrieben:
Blackmagic kann neben dem etwas günstigeren Preis dagegen "nur" volle 6K RAW Aufnahmen mit 50/60p sowie eine Resolve Studio Lizenz ins Feld führen. Stimmt nicht. Die Blackmagic hat den Vorteil der internen ProRes Aufzeichnung. Ich kann direkt mit dem Schnitt loslegen ohne Umwandeln zu müssen (kein Ruckeln etc.).
Die Aufzeichnung eines vollen 6K Readouts erfolgt übrigens intern immer zwingend in HEVC Für mich ein Grund, die Kamera NICHT zu kaufen.
Das hochkomprimierte HEV Material ist sicherlich vorteilhaft für den Speicherplatz - und ein beträchtlicher Nachteil verglichen mit dem 12 bit non-linear raw der Blackmagic Pocket 6K. Wenn einem der kompakte Speicherplatz nicht enorm wichtig ist, hat hier die Pocket m.E. die Nase vorne. Und das bis 6K 50p!

Die interen ProRes Aufzeichnung ist für die BM auch ein Vorteil. Allerdings auch nur wenn man entweder viele Speicher investiert, oder über usbc halt entsprechende Platten hat.

Durch die fehlenden XLR-Anschlüsse hat BM zumindest mit mini-XLR die Nase vorne.

Beim Farbmanagement halte ich die Systeme für recht gleichwertig. Zumindest kann ich diesbezüglich keinen sonderlichen Nachteil der Pocket 6K gegen meine EVA1 erkennen - und auch umgekehrt nicht.

Das die externe Ausgabe zu ProRes Raw erst nachgeliefert werden muss - sehr schade. Selbst wenn das bisher nur auf wenigen Systemen überhaupt bearbeitbar ist (aber auch braw geht halt bisher nur unter Resolve) und man hier offenbar über hdmi auskommen muss. SDI hätte ich schon gerne auch in der S1H gesehen.

Super dass bei der S1H ein waveform-Monitor dabei ist! Was ich als Filmer mit dem bei den Filmern eher unüblichen Histogramm machen soll, das die Pocket 6K liefert, ist mir ein Rätsel.

Wo Panasonic hier gegenüber der S1 (ohne H) einen klaren Rückschritt macht, sind die Speichermedien. Hat man denn von der EVA1 nichts gelernt - wo es genug User gab die mit den SD-Karen ihre liebe Not gehabt haben? Die S1 kam wenigstens mit den Sony XQD Speicherkarten daher, und ich hätte gehofft dass man der S1H zwei XQD Slots verpasst hätte. Chance vertan.


Wo die Panasonic hingegen definitiv punktet ist der Sucher und der hochwertige OLED. Da hat sie die Nase vorne, weil der BM-Monitor weder klappbar ist noch über eine ausreichend hohe nit-Zahl verfügt um damit im Freien bei Sonnenschein arbeiten können.

Space


Antwort von Jott:

Paralkar hat geschrieben:
Ja keyen kannst du es aber die Ergebnisse sind halt weit weit weg von dem was 444 ermöglicht, das merkt man schon am Arbeiten mit den Curves, oder nem simplen Highlight oder Skintone Key....
Die drei Pünktchen sind durchaus weniger wichtig, wenn man 4K - oder hier mit 6K - dreht, dann aber in einer HD-Timeline arbeitet. Aber die Diskussion so alt und müßig - jeder weiß, was er weiß, und alles ist gut.

Ich hatte lange Personen vor Green Screen nur mit der FS7 gemacht, volle Pulle, 4K Intra - und dann war mal die Kamera nicht da, und wir mussten eine FS5 nehmen. Ordentlich Schiss gehabt, aber dann praktisch kein Unterschied zu sehen. Genauso saubere Härchen. Ob das jetzt grundsätzlich am Downscaling zu HD liegt, am verwendeten NLE oder Keyer, weiß ich nicht. Die Qualität der Green Screen-Ausleuchtung spielt sicher auch mit rein, die war top. Wie auch immer - pauschal hingeworfenes "geht nicht" darf gerne mal hinterfragt werden.

Zukünftige Käufer der neuen Panasonic werden den 6K-Aufnahmemodus sicherlich sinnvoll nutzen.

Space


Antwort von mash_gh4:

Paralkar hat geschrieben:
Ja keyen kannst du es aber die Ergebnisse sind halt weit weit weg von dem was 444 ermöglicht, das merkt man schon am Arbeiten mit den Curves, oder nem simplen Highlight oder Skintone Key....
und wo bitte bekommst du 4:4:4 footage her, außer durch skalieren irgendwelcher quellen, die sich ihrerseits wieder irgendeiner form von farbunterabtastung bedienen? -- sei es in form des bayer-patterns direkt am sensor od. in den verschiedene YUV-übertragungscodierungen...

im übrigen glaube ich, dass es auch für 4:2:2 jenseits von FullHD keine sinvolle techn. berechtigung mehr gibt, weil alle darüber hinausreichenden bildformate ohnehin keine interlaced-übertragung mehr vorsehen. genau das war aber immer die eigentliche rechtfertigung für eine solche asymmetrische behandlung (=unterschiedliche auflösung in horizontaler und vertikaler richtung) des farbsignals.

die bewusste begrenzung auf 4:2:0 bringt auch den vorteil mit sich, dass die meisten gebräuchlichen hardware-beschleunigungslösungen sinnvoll genutzt werden können, wohingegen 4:2:2 leider sehr oft nicht unterstützt wird.

Space


Antwort von Mediamind:

Kamerafreund hat geschrieben:
Xlr Audio nur über Hotshoe? Ich hatte gehofft, sie würden von Sony lernen, wo der Audio Adapter eine Katastrophe ist. Das ist nichts Professionelles, sondern ein Spielzeug.
Ich habe den XLR Adapter an der Gh5 im Einsatz. Bestückt mit einem Rode NTG-3 ist das wahrlich kein Spielzeug. Kommt an einen großen Recorder nicht heran, ist aber um Längen besser als andere Lösungen. Curtis Judd kam zu selben Ergebnis. Sollte die S1H in meinen Bestand wandern, wäre das eine tolle Erweiterung. Klein, smart und hochwertig. Dazu noch mit der Option, einen Safteytrack bei zb. einem gerichteten Micro durch Splitterkabel zu nutzen.
Um Dir die Worte im Mund umzudrehen, die haben nicht die Sony-Katastrophe gelernt, sondern zu einem brauchbaren Preis eine gute Lösung im Angebot :-)

Space


Antwort von Paralkar:

mash_gh4 hat geschrieben:
Paralkar hat geschrieben:
Ja keyen kannst du es aber die Ergebnisse sind halt weit weit weg von dem was 444 ermöglicht, das merkt man schon am Arbeiten mit den Curves, oder nem simplen Highlight oder Skintone Key....
und wo bitte bekommst du 4:4:4 footage her, außer durch skalieren irgendwelcher quellen, die sich ihrerseits wieder irgendeiner form von farbunterabtastung bedienen? -- sei es in form des bayer-patterns direkt am sensor od. in den verschiedene YUV-übertragungscodierungen...

im übrigen glaube ich, dass es auch für 4:2:2 jenseits von FullHD keine sinvolle techn. berechtigung mehr gibt, weil alle darüber hinausreichenden bildformate ohnehin keine interlaced-übertragung mehr vorsehen. genau das war aber immer die eigentliche rechtfertigung für eine solche asymmetrische behandlung (=unterschiedliche auflösung in horizontaler und vertikaler richtung) des farbsignals.

die bewusste begrenzung auf 4:2:0 bringt auch den vorteil mit sich, dass die meisten gebräuchlichen hardware-beschleunigungslösungen sinnvoll genutzt werden können, wohingegen 4:2:2 leider sehr oft nicht unterstützt wird.
Genau das is doch der Punkt, ein Bayerpattrrn hat nix mit Farbunterabtastung zutun, aus nem Bayer Sensor kommt nachdem Debayering erstmal n 14 oder 16 bit 444 RGB Signal (je nachdem was für ein A/D Wandler). Die Farbunterabtastung passiert dann, im Processing

Man kann nicht Bayer Pattern und Farbunterabtastung vergleichen, das sind vollkommen verschiedene Prozedere und das Debayering is auch weitaus komplexer, als diesen Rückschluss zu bilden

Space



Space


Antwort von mash_gh4:

nein, ich glaube da machst du es dir zu einfach.

z.b. kommt es in der praxis sehr oft vor, dass man farbunterabgetastetes YUV-material in gebräuchlicher RGB-tripplet-darstellung, der form nach also 4:4:4, weiterverarbeiten od. anzeigen will. in diesen fall nutzt man in der regel einfache shader, die für jedes RGB-zielpixel, die benötigen informationen aus benachbarten werten in den Y,U,V-ausgangs-planes, die natürlich im falle von farbunterabtastung unterschiedliche auflösungen bzw. größe besitzen, zusammentragen und umrechnen.

im prinzip ist das der selbe vorgang, wie man ihn auch beim debayern abwickelt.
dass man dort natürlich in der regel noch ein paar zusätzliche tricks nutzt, um ein klein wenig mehr information aus den räumlich verschobenen anordung der sensel und ihrer unterschiedlichen interpretion des motivs abzuleiten, bestreite ich gar nicht. es bleibt trotzdem im grunde der selbe prozess. in beiden fällen wird die resolutierenden farbinformation nur an hand eines geringer aufgelösten rasters von messpunkten annäherungsweise erschlossen -- weshalb es in diesem zusammenhang auch keinen sinn macht, explizit von 4:4:4 zu sprechen, weil das ja höchstens der äußeren form nach zutrifft, nicht aber im hinblick auf den tatsächlichen informationsgehalt...

in beiden fällen genügt das natürlich den anforderungen der praxis vollkommen!
die gegebenen beschränkungen und rahmenvorgaben, wie sie mit solchen aufbereitungsvorgängen verbunden sind, sollte man aber trotzdem einfach akzeptieren.

Space


Antwort von wolfgang:

Wenn ihr euch schon auf der eher theoretischen Ebene der Farbabtastung bewegt - wie schätzt ihr den das Potential des von der S1H erstellten Materials aus technischer Sicht ein, verglichen zu dem braw einer Pocket 6K? DAS wäre ja mal tatsächlich interessant.

Space


Antwort von cantsin:

wolfgang hat geschrieben:
Wenn ihr euch schon auf der eher theoretischen Ebene der Farbabtastung bewegt - wie schätzt ihr den das Potential des von der S1H erstellten Materials aus technischer Sicht ein, verglichen zu dem braw einer Pocket 6K? DAS wäre ja mal tatsächlich interessant.
Zumindest ist 10bit-4:2:0-Material weniger flexibel als 12bit-4:2:2-Material. Z.B. wird man den Weißabgleich des S1H-Materials nicht nachträglich in der Post setzen können (jedenfalls nicht ohne Qualitätsverluste).

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
Z.B. wird man den Weißabgleich des S1H-Materials nicht nachträglich in der Post setzen können.
wenn das V-LOG sich endlich an die spezifikationen hält, was ja bekanntlich bei ganz vielen panasonic kameras bisher leider nicht der fall war, sollte derartiges ohne probleme in einem vernünftigem workflow (stichwort: ACES) zu bewerkstelligen sein!

dafür könnten die dual-ISO sensor-auslesetechniken in der praxis einen deutlich besseren vernünftig nutzbare dynamic range abdecken als das bspw. mit den div. pockets od. traditionellem RAW in diesem umfeld bisher geboten wurde.

ich möchte mich in diesen dingen aber nicht unnötig ins spekulieren verlieren.
das können andere mit sauberen und sachgerechten tests weit besser herausarbeiten.

mir persönlich erscheint die kamera leider ohnedies viel zu teuer.

Space


Antwort von Jott:

Wer raw will, der kauft sich eine raw-Kamera. Wer anderes als wichtiger bewertet, halt nicht. Wer bei den heutigen Angeboten nicht fündig wird, der läßt das Filmen am besten gleich ganz bleiben und beschränkt sich auf's Specs-Stöbern und Rumnölen. Diesen validen Ausweg aus dem Dilemma scheint der eine oder andere ja durchaus einzuschlagen.

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
cantsin hat geschrieben:
Z.B. wird man den Weißabgleich des S1H-Materials nicht nachträglich in der Post setzen können.
wenn das V-LOG sich endlich an die spezifikationen hält, was ja bekanntlich bei ganz vielen panasonic kameras bisher leider nicht der fall war, sollte derartiges ohne probleme in einem vernünftigem workflow (stichwort: ACES) zu bewerkstelligen sein!
Aber nicht ohne Banding, selbst wenn die Farbtemperatur technisch korrekt verändert wird.

Space


Antwort von mash_gh4:

bei HEVC 10bit hat man schon ein bisserl an reserven, um derartiges einigermaßen vertretbar hinzubekommen... das ist wirklich schon ziemlich nah an dem dran, was einem gegenwärtig gerne als pseudo-RAW verkauft wird .

das störende banding entseht ohnehin sehr oft erst beim völlig unzureichenden rendering und export vieler videoprogramme.

aber natürlich macht es sinn, derartiges auch in der praxis zu überprüfen und sich tatsächlich funktionierende workflows für das jeweilige gerät und die bevorzugten bearbeitungswerkzeuge anzueignen...

Space


Antwort von Jan:

nic hat geschrieben:
Jan hat geschrieben:
Dazu hatte ich heute erst ein Gespräch mit einem Fotografen, weil das immer mehr Überhand nimmt, dass viele User einfach weil sie keinen Plan oder keine Zeit haben von Anfang an einen viel größeren Ausschnitt aufnehmen, um dann später wild am Rechner rumzuschnipseln. Dumm ist dann, wenn es verschiedene Schärfeebenen im Bild gibt. Viel größerer Ausschnitt geht mit Panasonic nicht wegen 1,5er Crop und dem Rolling Shutter. Beim AF-Test musste ich wieder lachen, wie schlecht Panasonic eigentlich ist, die Kamera weiß dauernd nicht, wo die Person ist und pumpt wie wild rum. Da gibt es ja auch eine Menge an Videos im Netz, wo User mit der S1 langsam durch den Garten laufen und selbst dort die Kamera massive Probleme bekommt. Bei der neuen S1H hat man auch absichtlich einen Tiefpassfilter eingesetzt, damit man Bildfehler nicht so sehen soll.
Tiefpassfilter sind bei für Bewegtbild ausgelegten Kameras eigentlich die Regel. Das feine Aliasing stört bei einzelnen Aufnahmen selten, bei Video fängt es dann aber an zu flimmern, wabern oder tanzen. Das hat nichts mit Bildfehlern zu tun, sondern ist bei Digitalkameras systemimmanent.
Viele Sonys haben alle schon lange keinen Tiefpassfilter mehr eingebaut, wie beispielsweise die A7II, 7III, A9 oder die RIII. Die Firmen setzten den Tiefpassfilter früher immer gern ein, um eigene Bildfehler nicht sichtbar zu machen. Ein Tiefpassfilter ist nichts anderes als ein Weichzeichner. Gut möglich, dass es bei Video weniger sichtbar ist, bei der Fotografie ab 20 MP sieht man es, ob die Kamera einen Tiefpassfilter eingebaut hat oder nicht, oder man kann es zumindest messen. Nun gut, die Nikon Z6 besitzt auch einen Tiefpassfilter, die Z7 nicht. Bei Panasonic hat man sogar schon im Jahr 2016 umgestellt, selbst eine Mittelklassekamera wie die G81 für grob 900€ hatte keinen Tiefpassfilter mehr eingebaut. Die GH5 besitzt auch keinen Tiefpassfilter. Wenn die Videoauflösung steigt, dann wird das dann sicher auch ein Nachteil sein. Und bei 6K sind wir schon bei 19,5 Millionen Pixeln. Schärfefanatiker werden die Panasonic auch so nicht kaufen.

Space


Antwort von Rick SSon:

Jott hat geschrieben:
"Rick SSon" hat geschrieben:
Komisch. Ich finde nichts davon spannend. Kann man fuer dasselbe Geld auch ne vollformat zcam kaufen. Die macht mehr frames und haelt mit großem npf direkt nen ganzen Tag. Die S1H ist schon okay, aber fuer den Preis finde ich „spannend“ zu hoch gegriffen.
Weiß nicht, ob man ein chinesisches Start Up mit Panasonic in einen Topf werfen sollte - aber das zeigt sich ja irgendwann.
hm, ich besitze zwei e2's und würde eher sagen das sich panasonic an z-cams suppe die Zunge verbrennt.Genauso frage ich mich seitdem ich meinen portkeys bm5 habe wieso atomos' plastikbomber selbst ohne recording akkus fressen wie bonbons, während ich mit dem chinesending (das so ganz nebenbei auch noch über sdi i zu p wandeln kann) bei deutlich höherer helligkeit mit drei kleinen np-fs (oder einem 990er) über einen ganzen drehtag komme. Ebenso mit der z-cam.

Space



Space


Antwort von rush:

Leute hier gehts doch primär um eine hybride Foto/Video-Maschine - mit Stabi und allen möglichen Tasten und Rädchen zum verändern von Einstellungen, Dual Card Slot sowie einem Display als auch Built In EVF... Sprich eine Kamera "ready to shoot" und zum anfassen.

Das man so 'ne Kamera jetzt wieder direkt mit dem Zcam-Kasten vergleichen will erschließt sich mir nicht so ganz - das sind schon mehr als zwei extrem konträre Konzepte.

Space


Antwort von wolfgang:

mash_gh4 hat geschrieben:
bei HEVC 10bit hat man schon ein bisserl an reserven, um derartiges einigermaßen vertretbar hinzubekommen... das ist wirklich schon ziemlich nah an dem dran, was einem gegenwärtig gerne als pseudo-RAW verkauft wird .

das störende banding entseht ohnehin sehr oft erst beim völlig unzureichenden rendering und export vieler videoprogramme.

aber natürlich macht es sinn, derartiges auch in der praxis zu überprüfen und sich tatsächlich funktionierende workflows für das jeweilige gerät und die bevorzugten bearbeitungswerkzeuge anzueignen...
Also Panasonic hat ja für die EVA1 auch HEVC mit UHD 50p als 10bit 420 nachgeschoben. Es wäre schon ein spannendes Duel zwischen diesem Material einer S1H und dem „pseudo raw“ beim Graden (ala ProRes raw oder braw, die du damit wohl meinst).

Denn das ist halt die eigentliche Kernfrage: wie gut schneidet dieses hochkomprimierte Material im Vergleich zu den deutlich weniger komprimierten Varianten ab?

Space


Antwort von nic:

Jan hat geschrieben:
nic hat geschrieben:


Tiefpassfilter sind bei für Bewegtbild ausgelegten Kameras eigentlich die Regel. Das feine Aliasing stört bei einzelnen Aufnahmen selten, bei Video fängt es dann aber an zu flimmern, wabern oder tanzen. Das hat nichts mit Bildfehlern zu tun, sondern ist bei Digitalkameras systemimmanent.
Viele Sonys haben alle schon lange keinen Tiefpassfilter mehr eingebaut, wie beispielsweise die A7II, 7III, A9 oder die RIII. Die Firmen setzten den Tiefpassfilter früher immer gern ein, um eigene Bildfehler nicht sichtbar zu machen. Ein Tiefpassfilter ist nichts anderes als ein Weichzeichner. Gut möglich, dass es bei Video weniger sichtbar ist, bei der Fotografie ab 20 MP sieht man es, ob die Kamera einen Tiefpassfilter eingebaut hat oder nicht, oder man kann es zumindest messen. Nun gut, die Nikon Z6 besitzt auch einen Tiefpassfilter, die Z7 nicht. Bei Panasonic hat man sogar schon im Jahr 2016 umgestellt, selbst eine Mittelklassekamera wie die G81 für grob 900€ hatte keinen Tiefpassfilter mehr eingebaut. Die GH5 besitzt auch keinen Tiefpassfilter. Wenn die Videoauflösung steigt, dann wird das dann sicher auch ein Nachteil sein. Und bei 6K sind wir schon bei 19,5 Millionen Pixeln. Schärfefanatiker werden die Panasonic auch so nicht kaufen.
Was meinst du denn mit ‘eigene Bildfehler?’. Ein Tiefpassfilter wird genutzt, um die (bezogen auf die Sensorauflösung) zu hohen Frequenzen herauszufiltern. Die Hersteller verzichten aus Kostengründen auf OLPFs, weil Aliasing in Standbildern weniger auffällt, kleine Aliasingstrukturen auf den ersten Blick nach höherer Auflösung aussehen und weil viele Optiken die Sensorauflösung sowieso nicht mehr ausreizen. Trotz allem ist ein OLPF ein Qualitätsmerkmal und bei Bewegtbild würde ich in keinem Fall darauf verzichten wollen. Deshalb bekommt die auf Video ausgelegte S1H auch einen. Und das ist gut und zeigt, dass Panasonic es ernst meint.
Bevor du hier wild spekulierst und Halbwissen verbreitest, lies dich doch bitte erst in die Materie ein:
https://de.m.wikipedia.org/wiki/Nyquist ... asttheorem
https://de.m.wikipedia.org/wiki/Alias-Effekt

Space


Antwort von jakob123:

Mediamind hat geschrieben:
Kamerafreund hat geschrieben:
Xlr Audio nur über Hotshoe? Ich hatte gehofft, sie würden von Sony lernen, wo der Audio Adapter eine Katastrophe ist. Das ist nichts Professionelles, sondern ein Spielzeug.
Ich habe den XLR Adapter an der Gh5 im Einsatz. Bestückt mit einem Rode NTG-3 ist das wahrlich kein Spielzeug. Kommt an einen großen Recorder nicht heran, ist aber um Längen besser als andere Lösungen. Curtis Judd kam zu selben Ergebnis. Sollte die S1H in meinen Bestand wandern, wäre das eine tolle Erweiterung. Klein, smart und hochwertig. Dazu noch mit der Option, einen Safteytrack bei zb. einem gerichteten Micro durch Splitterkabel zu nutzen.
Um Dir die Worte im Mund umzudrehen, die haben nicht die Sony-Katastrophe gelernt, sondern zu einem brauchbaren Preis eine gute Lösung im Angebot :-)
Wie sieht dieses Splitter Kabel genau aus? Xlr auf zwei xlr und dann in die gh5 rein? Das klappt gut?

Space


Antwort von Paralkar:

mash_gh4 hat geschrieben:
nein, ich glaube da machst du es dir zu einfach.

z.b. kommt es in der praxis sehr oft vor, dass man farbunterabgetastetes YUV-material in gebräuchlicher RGB-tripplet-darstellung, der form nach also 4:4:4, weiterverarbeiten od. anzeigen will. in diesen fall nutzt man in der regel einfache shader, die für jedes RGB-zielpixel, die benötigen informationen aus benachbarten werten in den Y,U,V-ausgangs-planes, die natürlich im falle von farbunterabtastung unterschiedliche auflösungen bzw. größe besitzen, zusammentragen und umrechnen.

im prinzip ist das der selbe vorgang, wie man ihn auch beim debayern abwickelt.
dass man dort natürlich in der regel noch ein paar zusätzliche tricks nutzt, um ein klein wenig mehr information aus den räumlich verschobenen anordung der sensel und ihrer unterschiedlichen interpretion des motivs abzuleiten, bestreite ich gar nicht. es bleibt trotzdem im grunde der selbe prozess. in beiden fällen wird die resolutierenden farbinformation nur an hand eines geringer aufgelösten rasters von messpunkten annäherungsweise erschlossen -- weshalb es in diesem zusammenhang auch keinen sinn macht, explizit von 4:4:4 zu sprechen, weil das ja höchstens der äußeren form nach zutrifft, nicht aber im hinblick auf den tatsächlichen informationsgehalt...

in beiden fällen genügt das natürlich den anforderungen der praxis vollkommen!
die gegebenen beschränkungen und rahmenvorgaben, wie sie mit solchen aufbereitungsvorgängen verbunden sind, sollte man aber trotzdem einfach akzeptieren.
Ja das Prinzip ist nicht vollkommen unähnlich, aber das Prozedere ist komplett unterschiedlich,
Das eine ist im simpelsten Fall aus 4 Subinformationen 1 Wert bilden, also aus 400% wird 100%
Das andere ist mit einer Information (420) 3 zusätzliche Werte bilden, also aus 25% wird 100% und wenn noch Slakierung hinzukommt, dann weißt du nichtmehr wirklich was da rauskommt.

Ich versteh aber natürlich das einzig wahres halbwegs realitätsgetreues 444 nur aus einer 3 Chip Kamera oder gegebenfalls Foveon kommt.

Space


Antwort von Mediamind:

jakob123 hat geschrieben:
Mediamind hat geschrieben:

Ich habe den XLR Adapter an der Gh5 im Einsatz. Bestückt mit einem Rode NTG-3 ist das wahrlich kein Spielzeug. Kommt an einen großen Recorder nicht heran, ist aber um Längen besser als andere Lösungen. Curtis Judd kam zu selben Ergebnis. Sollte die S1H in meinen Bestand wandern, wäre das eine tolle Erweiterung. Klein, smart und hochwertig. Dazu noch mit der Option, einen Safteytrack bei zb. einem gerichteten Micro durch Splitterkabel zu nutzen.
Um Dir die Worte im Mund umzudrehen, die haben nicht die Sony-Katastrophe gelernt, sondern zu einem brauchbaren Preis eine gute Lösung im Angebot :-)
Wie sieht dieses Splitter Kabel genau aus? Xlr auf zwei xlr und dann in die gh5 rein? Das klappt gut?
Vom Mic mit einem XLR Ausgang teilt sich das Kabel in 2 XLR Ausgänge mit gleicher Ausgabe. Der Adapter wird dann auf Eingang 1 und 2 (so zu sagen Stereo) geschaltet. Die beiden Kanäle werden dann um ca. 10 dB versetzt aufgenommen. So hat man einen qualitativ hochwertigen Safteytrack. Das geht prima und ist mit dem kurzen Kabel schnell montiert und demontiert.

Space


Antwort von Drushba:

Mediamind hat geschrieben:
jakob123 hat geschrieben:


Wie sieht dieses Splitter Kabel genau aus? Xlr auf zwei xlr und dann in die gh5 rein? Das klappt gut?
Vom Mic mit einem XLR Ausgang teilt sich das Kabel in 2 XLR Ausgänge mit gleicher Ausgabe. Der Adapter wird dann auf Eingang 1 und 2 (so zu sagen Stereo) geschaltet. Die beiden Kanäle werden dann um ca. 10 dB versetzt aufgenommen. So hat man einen qualitativ hochwertigen Safteytrack. Das geht prima und ist mit dem kurzen Kabel schnell montiert und demontiert.
Das ist ja interessant. Klappt das dann mit der Phantomspeisung von nur einem Kanal aus?

Space


Antwort von TomStg:

Mediamind hat geschrieben:
Die beiden Kanäle werden dann um ca. 10 dB versetzt aufgenommen. So hat man einen qualitativ hochwertigen Safteytrack. Das geht prima und ist mit dem kurzen Kabel schnell montiert und demontiert.
Vielleicht schaffst Du es ja mal, Safety richtig zu schreiben?

Aber viel wichtiger ist:
Wer sagt denn, dass es nur einen „Safteytrack“ mit -10dB haben muss? Wenn man sich schon derart unsicher ist, dann aber auch einen „Safteytrack“ mit +10dB. Damit hätte man dann schon drei Tracks.
Das wäre zumindest logisch und konsequent. Aber in der Praxis ist das natürlich Unfug. Denn mit ein wenig Sorgfalt beim (Probe-)Pegeln bzw einem Autopegel und einem richtig eingestellten Limiter kannst Du Dir diesen „Safteytrack“ einfach sparen.

Space


Antwort von jakob123:

TomStg hat geschrieben:
Mediamind hat geschrieben:
Die beiden Kanäle werden dann um ca. 10 dB versetzt aufgenommen. So hat man einen qualitativ hochwertigen Safteytrack. Das geht prima und ist mit dem kurzen Kabel schnell montiert und demontiert.
Vielleicht schaffst Du es ja mal, Safety richtig zu schreiben?

Aber viel wichtiger ist:
Wer sagt denn, dass es nur einen „Safteytrack“ mit -10dB haben muss? Wenn man sich schon derart unsicher ist, dann aber auch einen „Safteytrack“ mit +10dB. Damit hätte man dann schon drei Tracks.
Das wäre zumindest logisch und konsequent. Aber in der Praxis ist das natürlich Unfug. Denn mit ein wenig Sorgfalt beim (Probe-)Pegeln bzw einem Autopegel und einem richtig eingestellten Limiter kannst Du Dir diesen „Safteytrack“ einfach sparen.
ein safety track ist etwas sehr sehr sinnvolles. Einfach nur zu argumentieren dass man richtig Pegeln müsste geht völlig an der Argumentationslinie vorbei. Es geht ja genau um Situationen wo man nicht mehr so schnell reagieren kann. Wenn du jemanden extra für Ton hast, der mischt klar aber im Sinne der Aufnahme in die Kamera direkt haben wir das nicht. Kann ja sein dass du es nicht brauchst. aber schließe doch nicht alleinig von dir auf andere...

Space



Space


Antwort von Mediamind:

Ich werde mir mehr Mühe mit der Rechtschreibung geben, versprochen.
Entgegen Deiner Interpretation müssen es keine -10 dB sein, so will ich nicht verstanden werden. Kann jeder halten wie er will, ist nur eine von mir gemachte Erfahrung, dass dies ganz gut passt. Hat übrigens mit Unsicherheit nichts zu tun. Wenn Du richtig gepegelt hast, können trotzdem Übersteuerungen die Aufnahme stören. Gerade bei Interviews kann man das nicht immer einschätzen. Mit -10 dB kann man das gut auffangen. Nach "Oben" braucht man keine +10 dB, das Panasonicmodul rauscht mit einem NTG-3 kaum nennenswert. Ein Limiter stellt für mich nur eine Option mit hochwertigeren Recordern dar und ich hoffe nicht wirklich, dass Du einen Autopegel vorschlägst, da werde ich Dich sicher falsch verstanden haben. Ein digitaler Limiter mit Autogain, bei der Vorstellung gruselt es mich.....

Space


Antwort von Jan:

nic hat geschrieben:
Jan hat geschrieben:


Viele Sonys haben alle schon lange keinen Tiefpassfilter mehr eingebaut, wie beispielsweise die A7II, 7III, A9 oder die RIII. Die Firmen setzten den Tiefpassfilter früher immer gern ein, um eigene Bildfehler nicht sichtbar zu machen. Ein Tiefpassfilter ist nichts anderes als ein Weichzeichner. Gut möglich, dass es bei Video weniger sichtbar ist, bei der Fotografie ab 20 MP sieht man es, ob die Kamera einen Tiefpassfilter eingebaut hat oder nicht, oder man kann es zumindest messen. Nun gut, die Nikon Z6 besitzt auch einen Tiefpassfilter, die Z7 nicht. Bei Panasonic hat man sogar schon im Jahr 2016 umgestellt, selbst eine Mittelklassekamera wie die G81 für grob 900€ hatte keinen Tiefpassfilter mehr eingebaut. Die GH5 besitzt auch keinen Tiefpassfilter. Wenn die Videoauflösung steigt, dann wird das dann sicher auch ein Nachteil sein. Und bei 6K sind wir schon bei 19,5 Millionen Pixeln. Schärfefanatiker werden die Panasonic auch so nicht kaufen.
Was meinst du denn mit ‘eigene Bildfehler?’. Ein Tiefpassfilter wird genutzt, um die (bezogen auf die Sensorauflösung) zu hohen Frequenzen herauszufiltern. Die Hersteller verzichten aus Kostengründen auf OLPFs, weil Aliasing in Standbildern weniger auffällt, kleine Aliasingstrukturen auf den ersten Blick nach höherer Auflösung aussehen und weil viele Optiken die Sensorauflösung sowieso nicht mehr ausreizen. Trotz allem ist ein OLPF ein Qualitätsmerkmal und bei Bewegtbild würde ich in keinem Fall darauf verzichten wollen. Deshalb bekommt die auf Video ausgelegte S1H auch einen. Und das ist gut und zeigt, dass Panasonic es ernst meint.
Bevor du hier wild spekulierst und Halbwissen verbreitest, lies dich doch bitte erst in die Materie ein:
https://de.m.wikipedia.org/wiki/Nyquist ... asttheorem
https://de.m.wikipedia.org/wiki/Alias-Effekt
Du willst mir doch nicht jetzt etwa wirklich jetzt mit Wikipedia-Artikeln kommen, zudem du ja gar nicht gewusst hast bevor ich Dir die Kameras genannt habe, wer aktuell einen Tiefpassfilter eingebaut hat. Es ist genau das Gegenteil, was du sagst, es hat nichts mit Kostengründen zu tun. Es ist sogar so, dass fast alle höherklassigen Pixelriesen auf einen Tiefpassfilter verzichten, weil der dort die Bildqualität mindert, das steht so in jedem zweiten Kameratest in einem Foto-Fachmagazin. Eigentlich weiß das schon jeder Forenuser, der ab und zu in einem Fotofachforum unterwegs ist. Daher wird es auch recht schwierig Kameras zu finden, besonders im semiprofessionellen Fotobereich, die noch einen Tiefpassfilter drin haben. Nikon hat beispielsweise schon im Jahr 2013/14 bei ihren 24 MP-Modellen 3300 und 5300 den Tiefpassfilter ausgebaut. Wo die meisten Modelle die 20 MP überschritten haben, waren die viele Firmen der Meinung, dass ein Verzicht des Tiefpassfilters sich gut auf die Bildqualität auswirken kann. Daher findet man den Tiefpassfilter heute eher selten bei den Fotokameras und wenn dann oft im günstigen Einstiegsbereich. Der Tiefpassfilter wird in Fotoforen nett verspottet der Weichzeichner genannt. Er ist kein reiner Weichzeichner, aber er mindert die Auflösung, das ist damit gemeint.

Space


Antwort von pillepalle:

Ob ein Tiefpassfilter eingebaut ist oder nicht ist einfach eine Abwägungssache. Möchte man maximale Auflösung und Schärfe, oder weniger Artefakte (vor allem Moire). Bei höheren Auflösungen/Pixeldichten kommen die in der Regel seltener vor als bei niedrigeren. Deshalb sind Tiefpassfilter auch meist in den Modellen mit dem geringerem Pixel Pitch (wie z.B. der Z6) und bei der Z7 läßt man ihn weg. Der Unterschied ist in der Praxis aber nicht so gewaltig wie immer getan wird. Ich arbeite sowohl mit Kameras die einen Tiefpassfilter haben, als auch mit welchen ohne und beides hat vor und Nachteile. Mich hat ein Tiefpassfilter noch nie gestört, schon gar nicht beim Filmen, wo man ohnehin lieber ein organischeres Bild haben möchte und kein Pixelpeeping betreibt wie bei einem Still.

VG

Space


Antwort von Jan:

pillepalle hat geschrieben:
Ob ein Tiefpassfilter eingebaut ist oder nicht ist einfach eine Abwägungssache. Möchte man maximale Auflösung und Schärfe, oder weniger Artefakte (vor allem Moire). Bei höheren Auflösungen/Pixeldichten kommen die in der Regel seltener vor als bei niedrigeren. Deshalb sind Tiefpassfilter auch meist in den Modellen mit dem geringerem Pixel Pitch (wie z.B. der Z6) und bei der Z7 läßt man ihn weg. Der Unterschied ist in der Praxis aber nicht so gewaltig wie immer getan wird. Ich arbeite sowohl mit Kameras die einen Tiefpassfilter haben, als auch mit welchen ohne und beides hat vor und Nachteile. Mich hat ein Tiefpassfilter noch nie gestört, schon gar nicht beim Filmen, wo man ohnehin lieber ein organischeres Bild haben möchte und kein Pixelpeeping betreibt wie bei einem Still.

VG
Und genau das habe ich geschrieben, wenn du dir meine Beiträge durchliest. Nic meinte, dass der Tiefpassfilter wegen Kostengründen weggelassen wird. Aber er ist selten bis nie bei teuren Modellen mit hoher Auflösung zu finden. Sondern der Tiefpassfilter ist oft bei Modellen mit kleinerer Auflösung, gern auch im Preiseinstiegsbereich zu finden.

Ich schrieb: Die Firmen setzten den Tiefpassfilter früher immer gern ein, um eigene Bildfehler nicht sichtbar zu machen. Es ist sogar so, dass fast alle höherklassigen Pixelriesen auf einen Tiefpassfilter verzichten, weil der dort die Bildqualität mindert, das steht so in jedem zweiten Kameratest in einem Foto-Fachmagazin. Er ist kein reiner Weichzeichner, aber er mindert die Auflösung, das ist damit gemeint.

Space


Antwort von pillepalle:

Das ging ja auch gar nicht gegen Dich Jan... Mit den Pixelriesen hast Du auch recht. Liegt aber auch daran das es bei Pixelriesen einfach seltener vorkommt. Ich habe keine wissenschaftlich korrekte Erklärung dafür, aber vermutlich wird es einfach immer unwahrscheinlicher das Strukturen im Bild die gleiche Frequenz/Größe haben, wie die der Sensorpixel. Vor 15 Jahren, als man mit 6MP und 12MP Kameras anfing waren moire-ähnliche Artefakte ein häufiges Problem. Mit einem 100MP Phase One Rückteil habe ich noch nie Moire erlebt, obwohl es keinen Tiefpassfilter hat. Aber wie gesagt, im wesentlichen eine Geschmacksfrage der Hersteller. Ich könnte mir vorstellen das sie den bei Consumer Kameras eher mal einbauen, weil sie davon ausgehen das die Kundengruppe damit auch nicht umgehen kann. Damit machen sie Gelegenheitsfotografen das Leben leichter.

VG

Space


Antwort von nic:

Sobald die Auflösung so hoch ist, dass das kein Objektiv mehr ordentlich auflöst, kannst du auf den OLPF verzichten. Bei Standbildern ist Aliasing auch ein eher geringes Problem. Deshalb sparen sich die Hersteller das wohl. Ein OLPF kostet Geld und die Kunden bilden sich ein, dass die Moiréstrukturen Auflösung seien und freuen sich. Zwei Fliegen mit einer Klatsche... Bei Bewegtbild würde ich niemals auf einen Lowpassfilter verzichten.

Space


Antwort von Jan:

Es ist aber einfach so, dass bei Modellen mit hoher Auflösung, sagen wir mal ab 30 MP ein Tiefpassfilter die mögliche Auflösung die gemessen werden kann in Linienpaare, mindert. Das ist der Grund, warum die Firmen bei Modellen mit höherer Auflösung darauf verzichten. Auch deswegen hat eine Nikon Z6 einen Tiefpassfilter, die Schwester Z7 nicht, wegen ihrer hohen Auflösung. Das liest man auch in jedem zweiten Fototests, wenn der Tiefpassfilter angesprochen wird. Das belegen dann auch die Testberichte, wenn ein Magazin die Auflösung misst. Und wie Pillepalle schon schrieb, hat man den Tiefpassfilter früher oft deswegen eingebaut, weil im Bild nicht selten Bildfehler wie Moire ohne Tiefpassfilter zu sehen waren. Man wollte diese Bildfehler wegbekommen. Irgendwann haben die Hersteller erkannt, dass ein Tiefpassfilter die mögliche Auflösung der Kamera aber verschlechtert. Das ist bei Panasonic ab der G81 passiert, wo der Vorgänger G70 noch einen Tiefpassfilter eingebaut. Oder die Nikon D3300 oder 5300, wo die Vorgänger D3200 und die D5200 noch einen Tiefpassfilter eingebaut haben. Grundsätzlich konnte man in jedem Test lesen, egal ob Color Foto, Digitalkamera.de oder von wem auch immer, dass das jeweilige Magazin am Anfang des Tests gesagt hat, dass man sich von der Wegnahme des Tiefpassfilters Qualitätsverbesserungen besonders in Sachen gemessene Auflösung erwartet hat. Das war nicht immer so, muss man zur Verteidigung sagen. Bei kleineren Auflösungen wird ein Tiefpassfilter nicht störend sein, wohl eher vorteilhaft, wenn die Kamera dann weniger Bildfehler verursacht. Wir sind hier bei 6k, also knapp 20 Millionen Pixeln, mich hat es nur interessiert, ob man da einen Unterschied sehen würde. Aber im Videobereich geht es weniger um die maximale Auflösung/Schärfe.

Space


Antwort von nic:

Entschuldige, du spekulierst hier ganz wild. Was ein OLPF macht und was nicht ist ganz einfach physikalisch erklärbar und muss nicht diskutiert werden.

Space


Antwort von Jan:

Es mag ja sein, dass du brauchbare Filme abliefern kannst oder dich gut mit deinen professionellen Filmkameras auskennst, aber ganz sicher nicht gut in der Fotografie. Das ist absolutes Basiswissen für jeden Foto-User, der sich wenigstens etwas mit der Fotografie auskennt. Dass du schon verzweifelt mit Wikipediaeinträgen kommst, macht es nicht besser. In deutschen Wikipediaeinträgen ist ein nicht kleiner Teil falsch, das kann ich dir zumindest in meinem Fachbereich sagen. User die dort die Texte verfassen, schreiben es irgendwo ab ohne selbst Grundwissen von der Materie zu haben.


Pille hat es doch bestätigt, was sich die Firmen mit der Wegnahme des Tiefpassfilters erhoffen (mehr nutzbare Auflösung) und was ein Tiefpassfilter für Vorteile (weniger Moire) für eine Kamera hat, das selbe hatte ich auch geschrieben. Ich könnte jetzt hier Fotofachtests bis zum Erbrechen posten, wo das Thema klar angesprochen wird, auch egal ob es bei DPreview ist oder wie hier bei Digitalkamera.de, der größten deutschen Seite.

https://www.digitalkamera.de/Meldung/Ni ... /8959.aspx

https://www.digitalkamera.de/Meldung/Ni ... /8693.aspx

https://www.digitalkamera.de/Meldung/So ... /8350.aspx

https://www.digitalkamera.de/Meldung/Ri ... /9002.aspx

Space



Space


Antwort von mash_gh4:

Jan hat geschrieben:
Es ist aber einfach so, dass bei Modellen mit hoher Auflösung, sagen wir mal ab 30 MP ein Tiefpassfilter die mögliche Auflösung die gemessen werden kann in Linienpaare, mindert. Das ist der Grund, warum die Firmen bei Modellen mit höherer Auflösung darauf verzichten.
wie der name des ganzen schon sagt, bewirkt ein OLPF eine ganz genau berechnete unschärfe, die natürlich auch eine sinnvolle funktion erfüllt!

diese filter führen dazu, dass jene unmittelbar nebeneinader angeordneten verschiedenfarbigen sensel, dankt der bewusst herbeigeführten unschärfe, in etwa das selbe sehen, und nicht immer irgendwo dazwischen ganz exakt abgebildete harte grenze verläufen, so dass dann beim zusammenrechnen der roten, gelben und grünen messpunkte zu einem resultierenden farbwert alles nicht mehr so recht zusammenpassen will bzw. fehlfarben und bunte interferenzmustern sichtbar werden.

natürlich bringt aber auch schon die unschärfe der objektive eine ganz ähnliche wirkung mit sich, so dass es zumindest bei den fotokameras mit extrem hoher senseldichte meist gar nicht mehr für notwendig erachtet wird, zusätzliche OLPFs einzubauen.

bei sensoren typischer videokameras, wo vergleichsweise große sensel bzw. geringere auflösungen vorteilhafter sind, machen derartige filter dagegen weiterhin sinn, weil heutige objektive schärfer sind, als es der dortige sensor raster erlaubt bzw. im zusammenhang mit einer korrekten farbwiedergabe ohne störende artefakte sogar verlangt -- deshalb dieses vorsorgliche filtern, um nicht schlechtere optiken verwenden zu müssen.

das ganze hängt natürlich auch noch sehr stark von den verwendeten methoden beim debayern ab. mit zusätzlichem rechenaufwand kann man auch dort manche der angesprochen störungen ganz gut in den griff bekommen, und damit natürlich auch die auflösungsgrenzen nach oben verschieben.

leider gibt's auch noch ein paar andere details, die mit dem vorhandensein derartiger optischer filter vor dem sensor und deren mechnischen abmessungen in verbindung stehen. das klammert man zwar in in der praxis gerne als völlig vernachlässigbar aus, trotzdem ist es in wahheit einfach nicht möglich, objektive so zu bauen, dass sie in jedem fall -- also mit und ohne einen OLPF vor dem sensor -- eine gleich gute abbildung bzw. lage der schärfenebene aufweisen...

Space


Antwort von Mediamind:

Drushba hat geschrieben:
Mediamind hat geschrieben:


Vom Mic mit einem XLR Ausgang teilt sich das Kabel in 2 XLR Ausgänge mit gleicher Ausgabe. Der Adapter wird dann auf Eingang 1 und 2 (so zu sagen Stereo) geschaltet. Die beiden Kanäle werden dann um ca. 10 dB versetzt aufgenommen. So hat man einen qualitativ hochwertigen Safteytrack. Das geht prima und ist mit dem kurzen Kabel schnell montiert und demontiert.
Das ist ja interessant. Klappt das dann mit der Phantomspeisung von nur einem Kanal aus?
Die Spannung wird vom Adapter geliefert und liegt auf beiden Kanälen an. Die Versorgung des Mic ist sichergestellt, es gibt durch diesen Aufbau auch kein elektrisches Problem. Die Signale werden identisch am Eingang des XLR Apaters angeliefert, mit den EInstellrädern kannst Du dann den Gain individuell je Kanal steuern.

Space


Antwort von nic:

Jan hat geschrieben:
Es mag ja sein, dass du brauchbare Filme abliefern kannst oder dich gut mit deinen professionellen Filmkameras auskennst, aber ganz sicher nicht gut in der Fotografie. Das ist absolutes Basiswissen für jeden Foto-User, der sich wenigstens etwas mit der Fotografie auskennt. Dass du schon verzweifelt mit Wikipediaeinträgen kommst, macht es nicht besser. In deutschen Wikipediaeinträgen ist ein nicht kleiner Teil falsch, das kann ich dir zumindest in meinem Fachbereich sagen. User die dort die Texte verfassen, schreiben es irgendwo ab ohne selbst Grundwissen von der Materie zu haben.


Pille hat es doch bestätigt, was sich die Firmen mit der Wegnahme des Tiefpassfilters erhoffen (mehr nutzbare Auflösung) und was ein Tiefpassfilter für Vorteile (weniger Moire) für eine Kamera hat, das selbe hatte ich auch geschrieben. Ich könnte jetzt hier Fotofachtests bis zum Erbrechen posten, wo das Thema klar angesprochen wird, auch egal ob es bei DPreview ist oder wie hier bei Digitalkamera.de, der größten deutschen Seite.

https://www.digitalkamera.de/Meldung/Ni ... /8959.aspx

https://www.digitalkamera.de/Meldung/Ni ... /8693.aspx

https://www.digitalkamera.de/Meldung/So ... /8350.aspx

https://www.digitalkamera.de/Meldung/Ri ... /9002.aspx
Du zweifelst an Wikipediaartikeln aber zitierst Fotomagazine? Wenn du Wikipediaartikel korrigieren kannst, dann mach' das doch auch, statt einfach nur zu behaupten es besser zu wissen. Ich habe diese Einträge nicht für mich gepostet, sondern für dich, damit du dich etwas einlesen kannst, bevor du hier Leute in die Irre führst.

Es ist absolut kein Basiswissen, dass OLPFs genutzt werden um Bildfehler zu vertuschen. Das ist einfach falsch. Es ist für eine korrekte Funktionsweise von Sensoren zwingend notwendig, dass die entsprechend zu hohen Frequenzen herausgefiltert, bzw. geblurt werden. Unter manchen Umständen kann man darauf verzichten, um sich gewissen 'Vorteile' zu erkaufen. Für Video ist das aber fahrlässig. BMD verzichtet z.B. (aus Kostengründen) auf OLPFs - ab er ich kenne viele, die damit schon schlechte Erfahrungen (Moiré) gemacht haben und nicht umsonst gibt es z.B. für die UMPs Dritthersteller-OLPFs zum Nachrüsten.

Space


Antwort von rush:

@nic: wie kommt es dann das bspw. Arri Kameras soetwas nicht benötigen? Oder haben die womöglich einen entsprechenden Filter verbaut? Denn Schärfe ist ja nicht unbedingt das Arri Argument.

Ich kenne es auch eher aus dem Fotobereich - also das entsprechend hochauflösende Modelle dann jene Filter wegließen um das Maximum an Details auf den Sensor zu bannen - mit dem Nachteil möglicher Moire-Effekte bei sehr feinen Strukturen... Bei Stills tritt dieser Effekt weit weniger auf und ein entsprechendes Filter muss natürlich zur Kamera passen - aber dieses Hokus Pokus was einige Firmen dazu betreiben lässt auch bei mir eher die Stirn der Sinnhaftigkeit runzeln... Aber habe bspw. auch noch nicht mit Red zu tun gehabt.

Meine A7RII etwa kommt auch ohne Tiefpass-Filter daher - im S35 Crop als Videogerät ist mir da auch noch nichts auffällig gravierend negatives begegnet - aber das mag andere Gründe haben. Auch bei der P4K hatte ich bisher wenig Stress dahingehend - im Parallelthread gibt es aber durchaus ein negatives Beispiel.

Die Problematik scheint aber im realen Alltag deutlich weniger ein Problem zu sein als oftmals dargestellt - so meine Erfahrung. Aber will das auch nicht in Abrede stellen.
Ob das nun ein Kostenargument ist solch einen Filter zu konstruieren / zu verbauen kann ich nicht beurteilen - auch dürfte es sich ja ne nach Qualität der Optik Mal stärker/schwächer auswirken?

Space


Antwort von nic:

rush hat geschrieben:
@nic: wie kommt es dann das bspw. Arri Kameras soetwas nicht benötigen? Oder haben die womöglich einen entsprechenden Filter verbaut? Denn Schärfe ist ja nicht unbedingt das Arri Argument.
Natürlich verbaut Arri optische Tiefpassfilter. Genau wie RED, Panasonic oder Sony.

Space


Antwort von Paralkar:

@rush du solltest Auflösung & Schärfe nicht verwechseln, mit Master oder Supreme Primes is die Alexa knack scharf, für mein Geschmack sogar zuviel.

Ohne OLPF könntrst du keinerlei Haarwerbung mehr mit einen dieser Kameras drehen, selbst mit kanns bei so feinen Strukturen bei den von euch besprochenen Kameras zu Moeri kommen, will garnicht wissen wie das ohne wäre.

Space


Antwort von acrossthewire:

rush hat geschrieben:
Meine A7RII etwa kommt auch ohne Tiefpass-Filter daher - im S35 Crop als Videogerät ist mir da auch noch nichts auffällig gravierend negatives begegnet - aber das mag andere Gründe haben.
Hat es: Im S35 Film-Modus der A7RII gibt es ein sehr gutes Downsampling und da die Kamera genug Pixel hat ist Moire auch eher was seltenes. Im Fotomodus dagegen wenn ein sehr gutes Glas dranhängt wette
ich das bei entsprechenden Strukturen der Effekt sehr gut zu sehen ist.

Space


Antwort von Jan:

nic hat geschrieben:
rush hat geschrieben:
@nic: wie kommt es dann das bspw. Arri Kameras soetwas nicht benötigen? Oder haben die womöglich einen entsprechenden Filter verbaut? Denn Schärfe ist ja nicht unbedingt das Arri Argument.
Natürlich verbaut Arri optische Tiefpassfilter. Genau wie RED, Panasonic oder Sony.

Möglicherweise bei reinen semiprofessionellen oder professionellen Filmkameras, aber Kameras wie die Panasonic G81, GX9, GH5 oder die Sonys A7II, A7III, A9 oder die A7RIII besitzen keinen Tiefpassfilter.

Space


Antwort von Jan:

nic hat geschrieben:
Jan hat geschrieben:
Es mag ja sein, dass du brauchbare Filme abliefern kannst oder dich gut mit deinen professionellen Filmkameras auskennst, aber ganz sicher nicht gut in der Fotografie. Das ist absolutes Basiswissen für jeden Foto-User, der sich wenigstens etwas mit der Fotografie auskennt. Dass du schon verzweifelt mit Wikipediaeinträgen kommst, macht es nicht besser. In deutschen Wikipediaeinträgen ist ein nicht kleiner Teil falsch, das kann ich dir zumindest in meinem Fachbereich sagen. User die dort die Texte verfassen, schreiben es irgendwo ab ohne selbst Grundwissen von der Materie zu haben.


Pille hat es doch bestätigt, was sich die Firmen mit der Wegnahme des Tiefpassfilters erhoffen (mehr nutzbare Auflösung) und was ein Tiefpassfilter für Vorteile (weniger Moire) für eine Kamera hat, das selbe hatte ich auch geschrieben. Ich könnte jetzt hier Fotofachtests bis zum Erbrechen posten, wo das Thema klar angesprochen wird, auch egal ob es bei DPreview ist oder wie hier bei Digitalkamera.de, der größten deutschen Seite.

https://www.digitalkamera.de/Meldung/Ni ... /8959.aspx

https://www.digitalkamera.de/Meldung/Ni ... /8693.aspx

https://www.digitalkamera.de/Meldung/So ... /8350.aspx

https://www.digitalkamera.de/Meldung/Ri ... /9002.aspx
Du zweifelst an Wikipediaartikeln aber zitierst Fotomagazine? Wenn du Wikipediaartikel korrigieren kannst, dann mach' das doch auch, statt einfach nur zu behaupten es besser zu wissen. Ich habe diese Einträge nicht für mich gepostet, sondern für dich, damit du dich etwas einlesen kannst, bevor du hier Leute in die Irre führst.

Es ist absolut kein Basiswissen, dass OLPFs genutzt werden um Bildfehler zu vertuschen. Das ist einfach falsch. Es ist für eine korrekte Funktionsweise von Sensoren zwingend notwendig, dass die entsprechend zu hohen Frequenzen herausgefiltert, bzw. geblurt werden. Unter manchen Umständen kann man darauf verzichten, um sich gewissen 'Vorteile' zu erkaufen. Für Video ist das aber fahrlässig. BMD verzichtet z.B. (aus Kostengründen) auf OLPFs - ab er ich kenne viele, die damit schon schlechte Erfahrungen (Moiré) gemacht haben und nicht umsonst gibt es z.B. für die UMPs Dritthersteller-OLPFs zum Nachrüsten.

Du hast einfach im Fotobereich wenig Ahnung. Du hast im Gegensatz zu mir mit keiner Kamera gearbeitet oder es verglichen. Selbst DPreview sagt das, man kann es auch gut bei einigen Modellen vergleichen bei ihren Testbilder, man sieht je nach Modell ohne Tiefpassfilter mehr Details. Ich will auch nicht bestreiten, dass der Tiefpassfilter im Videobetrieb bei kleineren Auflösungen mehr Vorteile bietet. Die Wikipedia-Beitrage sind allgemein technisch gefasst und sagen wenig bis nichts über die Sicht Vor- und Nachteile aus. Und wenn dann das zehnte Fotofachmagazin misst, dass normalerweise ohne Tiefpassfilter eine höhere Auflösung möglich ist und man mehr Details bei der Fotografie erkennen kann, sind die wohl alle blöd wie Dpreview, Color Foto, Digitalkamera.de oder wer auch immer.

Das beste bei dir ist aber, dass du dich in deinem eigenen Beitrag widersprichst, Moire sind Bildfehler, wenn du das noch nicht gewusst hast. Dümmer kann man nicht sein. Lass es bitte, du hast Null Ahnung von Fotografie, hast zu 99% dich nach meinem Aussagen bei den Wikipediaseiten eingelesen (müssen), ohne wirklich Ahnung von der Fotografie zu haben. Der andere User (Pille) hat auch wie ich gesagt, warum das die Firmen machen. Ich kann dir sogar Pressemitteilungen von Kameraherstellern posten, wo sich die Firmen durch Wegnahme des Tiefpassfilters Schärfe und Auflösungsvorteile erwarten.

Deine Äußerung:
Es ist absolut kein Basiswissen, dass OLPFs genutzt werden um Bildfehler zu vertuschen. Das ist einfach falsch.
BMD verzichtet z.B. (aus Kostengründen) auf OLPFs - ab er ich kenne viele, die damit schon schlechte Erfahrungen (Moiré) gemacht haben und nicht umsonst gibt es z.B. für die UMPs Dritthersteller-OLPFs zum Nachrüsten.

Du sagst damit in Kurzform ein Tiefpassfilter hat nichts mit Bildfehlern wie Moire zu tun und BM baut keinen ein und hat Bildfehler laut vieler User. Und das liegt eben daran, das kein Tiefpassfilter eingesetzt ist.

Also in Kurzform das letzte Mal:

mit Tiefpassfilter = normalerweise Verringerung von Bildfehlern
ohne Tiefpassfilter = normalerweise Vorteile in Sachen Auflösung und Details

Space



Space


Antwort von nic:

Jan hat geschrieben:
nic hat geschrieben:


Du zweifelst an Wikipediaartikeln aber zitierst Fotomagazine? Wenn du Wikipediaartikel korrigieren kannst, dann mach' das doch auch, statt einfach nur zu behaupten es besser zu wissen. Ich habe diese Einträge nicht für mich gepostet, sondern für dich, damit du dich etwas einlesen kannst, bevor du hier Leute in die Irre führst.

Es ist absolut kein Basiswissen, dass OLPFs genutzt werden um Bildfehler zu vertuschen. Das ist einfach falsch. Es ist für eine korrekte Funktionsweise von Sensoren zwingend notwendig, dass die entsprechend zu hohen Frequenzen herausgefiltert, bzw. geblurt werden. Unter manchen Umständen kann man darauf verzichten, um sich gewissen 'Vorteile' zu erkaufen. Für Video ist das aber fahrlässig. BMD verzichtet z.B. (aus Kostengründen) auf OLPFs - ab er ich kenne viele, die damit schon schlechte Erfahrungen (Moiré) gemacht haben und nicht umsonst gibt es z.B. für die UMPs Dritthersteller-OLPFs zum Nachrüsten.

Du hast einfach im Fotobereich wenig Ahnung. Du hast im Gegensatz zu mir mit keiner Kamera gearbeitet oder es verglichen. Selbst DPreview sagt das, man kann es auch gut bei einigen Modellen vergleichen bei ihren Testbilder, man sieht je nach Modell ohne Tiefpassfilter mehr Details. Ich will auch nicht bestreiten, dass der Tiefpassfilter im Videobetrieb bei kleineren Auflösungen mehr Vorteile bietet. Die Wikipedia-Beitrage sind allgemein technisch gefasst und sagen wenig bis nichts über die Sicht Vor- und Nachteile aus. Und wenn dann das zehnte Fotofachmagazin misst, dass normalerweise ohne Tiefpassfilter eine höhere Auflösung möglich ist und man mehr Details bei der Fotografie erkennen kann, sind die wohl alle blöd wie Dpreview, Color Foto, Digitalkamera.de oder wer auch immer.

Das beste bei dir ist aber, dass du dich in deinem eigenen Beitrag widersprichst, Moire sind Bildfehler, wenn du das noch nicht gewusst hast. Dümmer kann man nicht sein. Lass es bitte, du hast Null Ahnung von Fotografie, hast zu 99% dich nach meinem Aussagen bei den Wikipediaseiten eingelesen (müssen), ohne wirklich Ahnung von der Fotografie zu haben. Der andere User (Pille) hat auch wie ich gesagt, warum das die Firmen machen. Ich kann dir sogar Pressemitteilungen von Kameraherstellern posten, wo sich die Firmen durch Wegnahme des Tiefpassfilters Schärfe und Auflösungsvorteile erwarten.

Deine Äußerung:
Es ist absolut kein Basiswissen, dass OLPFs genutzt werden um Bildfehler zu vertuschen. Das ist einfach falsch.
BMD verzichtet z.B. (aus Kostengründen) auf OLPFs - ab er ich kenne viele, die damit schon schlechte Erfahrungen (Moiré) gemacht haben und nicht umsonst gibt es z.B. für die UMPs Dritthersteller-OLPFs zum Nachrüsten.

Du sagst damit in Kurzform ein Tiefpassfilter hat nichts mit Bildfehlern wie Moire zu tun und BM baut keinen ein und hat Bildfehler laut vieler User. Und das liegt eben daran, das kein Tiefpassfilter eingesetzt ist.

Also in Kurzform das letzte Mal:

mit Tiefpassfilter = normalerweise Verringerung von Bildfehlern
ohne Tiefpassfilter = normalerweise Vorteile in Sachen Auflösung und Details
Ernsthaft? Ein 'Fotosensor' unterscheidet sich von seiner Idee nicht von einem 'Videosensor'. Natürlich ist Aliasing ein Bildfehler. Aber der wird durch einen OLPF nicht verschleiert, sondern der OLPF ist systembedingt ein Teil der korrekten Abtastung des Signals. Deine Beleidigungen kannst du stecken lassen.

Space


Antwort von pillepalle:

Vielleicht kann man zur Beruhigung der Gemüter zu dem Thema hier auch noch mal kurz den Pressesprecher von Panasonic selber zu Wort kommen lassen...

https://youtu.be/uUgEvuJwoG4&t=13m12s

VG

PS:Sorry... die Verlinkung der Zeit war ursprünglich falsch :) sollte bei 13:12 anfangen

Space


Antwort von Jan:

Nic: Es fällt bei hohen Auflösungen auf, dass ein Tiefpassfilter von Nachteil sein kann in Sachen Details und messbarer maximaler Auflösung. Und hohe Auflösungen gab es in der Videowelt bisher nicht so richtig, weil 4k also auch nur acht Millionen Pixel sind, wo selbst 400€ teure Fotokameras oft 24 MP besitzen. Die Kamerafirmen wollen erkannt haben oder haben erkannt, das ab einer gewissen Auflösung der Wegfall des Tiefpassfilters für Bildqualitätsvorteile sorgen kann. Man konnte das ab 20 MP beobachten in den letzten Jahren, dass die Firmen oft den Filter weggelassen haben, sogar öfter bei den teuren Modellen, nicht immer bei den günstigen Modellen. Wenn es nach dem Kosten für den Tiefpassfilter gehen würde, dann müssten genau die günstigen Modelle einen drin haben und die teuren eher schon, genau das Gegenteil ist der Fall. Ich habe keine Ahnung, warum den BM den nicht drin hat. Da sollte man die Firma fragen.

Bei Panasonic konnte man den Sichtvorteil bei Fotos aber auch bei 16 MP gut sehen. Die Panasonic G70 mit 16MP und ihr Nachfolger die Panasonic G81 mit 16 MP ohne Tiefpassfilter. Die Testbilder sind schärfer und haben mehr Details bei der G81, die G70 ist allgemein etwas weicher. Das muss auch nicht immer so sein, wie beispielsweise digitalkamera.de beim Test der D5300.


Ich wollte die Kamera hier auch nicht verteufeln. Es kann sogar sein, dass es bei der Auflösung ein Vorteil beim Videobetrieb ist. Mich hat es nur interessiert, ob man das vielleicht bei 6k, also knapp 20 MP einen Sichtvorteil sehen könnte ohne Tiefpassfilter.

Space


Antwort von nic:

Natürlich macht ein OLPF das Bild unschärfer. Aber eben idealerweise reduziert er die Ortsfrequenzen soweit, dass der Sensor das Bild zuverlässig ohne Aliasing auflösen kann.

Space


Antwort von rush:

@Jan... Deinen Tonfall @nic gegenüber fand ich jetzt auch ganz schön harsch in dem einem Beitrag - das muss doch eigentlich nicht sein auch wenn hier vielleicht aneinander vorbei geredet wird oder das Verständnis des Gegenüber ein anderes ist.

@nic: Wieso gibt/gab es bspw. für die REDs dann aber teils so ein großes Hokus Pokus um die Wahl des richtigen OLPF's? Oder habe ich das falsch in Erinnerung?
Theoretisch müsste man dann doch auch je nach Objektiv abwägen - aber wie sinnvoll ist das? Manchmal möchte man womöglich bewusst eine krasse Schärfe, bei einem anderen Settings wurden extra teure vintage Gläser gemietet oder gar ein Black Promist Filter ins Kompendium geschoben - beeinflusst nicht all das entsprechend auch die möglichen "Zitterfrequenzen"?

Habe mich nie sonderlich mit dem Thema befasst - aber es ist ja scheinbar nicht uninteressant.

Space


Antwort von nic:

rush hat geschrieben:
@Jan... Deinen Tonfall @nic gegenüber fand ich jetzt auch ganz schön harsch in dem einem Beitrag - das muss doch eigentlich nicht sein auch wenn hier vielleicht aneinander vorbei geredet wird oder das Verständnis des Gegenüber ein anderes ist.

@nic: Wieso gibt/gab es bspw. für die REDs dann aber teils so ein großes Hokus Pokus um die Wahl des richtigen OLPF's? Oder habe ich das falsch in Erinnerung?
Theoretisch müsste man dann doch auch je nach Objektiv abwägen - aber wie sinnvoll ist das? Manchmal möchte man womöglich bewusst eine krasse Schärfe, bei einem anderen Settings wurden extra teure vintage Gläser gemietet oder gar ein Black Promist Filter ins Kompendium geschoben - beeinflusst nicht all das entsprechend auch die möglichen "Zitterfrequenzen"?

Habe mich nie sonderlich mit dem Thema befasst - aber es ist ja scheinbar nicht uninteressant.
Das was Red OLPF nennt, sind in Wirklichkeit Spektralfilter, die für manche Szenarien vorteilhaft sein können (im Vergleich zum Standardfilter). Wie der Low-Light oder der Highlight-Filter, die mal mehr und mal weniger Frequenzen herausfiltern für bessere Farbunterscheidung oder mehr Lichteinfall.... je nach dem was du brauchst.

Space


Antwort von Kamerafreund:

Witzig dass in der gleichen Diskussion Leute belächelt werden die einen Audio Safety Track aufnehmen während andere von 16 bit schwärmen, damit sie den WEISSABGLEICH der Kamera nachträglich korrigieren können. :)

Space


Antwort von Jan:

rush hat geschrieben:
@Jan... Deinen Tonfall @nic gegenüber fand ich jetzt auch ganz schön harsch in dem einem Beitrag - das muss doch eigentlich nicht sein auch wenn hier vielleicht aneinander vorbei geredet wird oder das Verständnis des Gegenüber ein anderes ist.

@nic: Wieso gibt/gab es bspw. für die REDs dann aber teils so ein großes Hokus Pokus um die Wahl des richtigen OLPF's? Oder habe ich das falsch in Erinnerung?
Theoretisch müsste man dann doch auch je nach Objektiv abwägen - aber wie sinnvoll ist das? Manchmal möchte man womöglich bewusst eine krasse Schärfe, bei einem anderen Settings wurden extra teure vintage Gläser gemietet oder gar ein Black Promist Filter ins Kompendium geschoben - beeinflusst nicht all das entsprechend auch die möglichen "Zitterfrequenzen"?

Habe mich nie sonderlich mit dem Thema befasst - aber es ist ja scheinbar nicht uninteressant.

Mein Problem war nur der eine Satz "Bevor du hier wild spekulierst und Halbwissen verbreitest, lies dich doch bitte erst in die Materie ein:". Diesen Satz kann man bringen bei einem Forenanfänger oder komplett Unbedarften, aber keinem User wie mir, der das seit jetzt mehr als 25 Jahren beruflich macht und mehr Kameras in der Hand hatte, als jeder andere User hier. Nic ist eher in der professionellen Videowelt zuhause, ich eher mehr in der Fotowelt. Ich weiß nicht in wievielen Fachkameratests ich das in den vielen Jahren jetzt so wie ich es geschrieben habe gelesen habe. Auf vielen Händlerdatenblättern der Kamerahersteller stand das auch immer mal wieder drauf, was man sich von der Wegnahme des Tiefpassfilters erwartet.

Das erinnert mich wieder an eine Diskussion die hier auch wild geführt wurde, wo das halbe Forum hier nicht wusste, dass Tiefenschärfe etwas mit Sensorgröße zu tun hat. Ich kann auch User wie WoWu verstehen, dass sie sich zurückziehen. Da hat er Bücher geschrieben und dann gab es hier immer mal wieder wilde Diskussionen, wo User mit Wikipediaeinträgen ihn auskontern wollten oder anderen Meinungen von Youtubern. Im Netz macht es so oder so keine Sinn einen Wissenvergleich zu machen, dort ist der User der bessere, die eine Google-Suche besser und schneller bedienen kann. Wenn der User dann bei mir im Laden steht und ich zehn spezielle Fragen über eine Kamera stelle und er ohne Google-Sucher nicht weiterkommt, das ist üblich.

Space


Antwort von Jan:

pillepalle hat geschrieben:
Vielleicht kann man zur Beruhigung der Gemüter zu dem Thema hier auch noch mal kurz den Pressesprecher von Panasonic selber zu Wort kommen lassen...

https://youtu.be/uUgEvuJwoG4&t=13m12s

VG

PS:Sorry... die Verlinkung der Zeit war ursprünglich falsch :) sollte bei 13:12 anfangen
Ich habe den Zusammenhang nicht ganz verstanden. Er sagt der Vorgänger hatte keinen Tiefpassfilter und das die neue Kamera jetzt einen hat, was seiner Meinung gut ist. Dann hat er noch etwas zur Schärfe gesagt.

Space



Space


Antwort von pillepalle:

@ Jan

Er sagt das bei Filmanwendungen der Tiefpass Sinn macht, weil man da die Artefakte nicht so einfach fixen kann wie im Still Bereich. Bei dem fotolastigerem Modell mit dem gleichen Sensor haben sie ihn weg gelassen.

VG

Space


Antwort von nachtaktiv:

Jan hat geschrieben:
Der Pixelwahn ohne richtigen Mehrwert hält nun also auch in der Videoconsumerwelt seinen Einzug. Es wiederholt sich alles aus der Fotowelt. Die meisten User hier haben wahrscheinlich sogar noch Sichtgeräte mit FHD-Auflösung.
das ist für mich die wichtigste und wahrste aussage hier in der diskussion. die wichtigsten und interessantesten neuerungen sind schon geschichte. ich vermute, diese kameras ist der verzweifelte versuch, endlich aus der mft ecke auszubrechen und damit den von jan prophezeiten niedergang panas zu entkommen. er hatte ja damals schon gesagt, nach samsung würde pana dran sein.

das ding ist zu teuer. 4000 ocken und schon wieder ein neuer mount, das sind bauchschmerzen. und solange sony mit der SIII noch nicht aus der deckung gekommen ist, wird man erst mal abwarten.

Space


Antwort von Fabia:

nachtaktiv hat geschrieben:
Jan hat geschrieben:
Der Pixelwahn ohne richtigen Mehrwert hält nun also auch in der Videoconsumerwelt seinen Einzug. Es wiederholt sich alles aus der Fotowelt. Die meisten User hier haben wahrscheinlich sogar noch Sichtgeräte mit FHD-Auflösung.
.....und damit den von jan prophezeiten niedergang panas zu entkommen. er hatte ja damals schon gesagt, nach samsung würde pana dran sein.

Du glaubst immer noch an Propheten? Na hoffentlich nicht an die falschen:-)

Space


Antwort von Jan:

nachtaktiv hat geschrieben:
Jan hat geschrieben:
Der Pixelwahn ohne richtigen Mehrwert hält nun also auch in der Videoconsumerwelt seinen Einzug. Es wiederholt sich alles aus der Fotowelt. Die meisten User hier haben wahrscheinlich sogar noch Sichtgeräte mit FHD-Auflösung.
das ist für mich die wichtigste und wahrste aussage hier in der diskussion. die wichtigsten und interessantesten neuerungen sind schon geschichte. ich vermute, diese kameras ist der verzweifelte versuch, endlich aus der mft ecke auszubrechen und damit den von jan prophezeiten niedergang panas zu entkommen. er hatte ja damals schon gesagt, nach samsung würde pana dran sein.

das ding ist zu teuer. 4000 ocken und schon wieder ein neuer mount, das sind bauchschmerzen. und solange sony mit der SIII noch nicht aus der deckung gekommen ist, wird man erst mal abwarten.
Canon macht das jetzt auch mit ihrer neuen EOS90 mit erstmals 32MP für eine APS-C-Kamera. Das macht überhaupt keinen Sinn, die Kamera wird sich auch in keinem Test in Sachen Bildqualität vor einer Sony oder Fuji plazieren. Aber der EOS90-User kann sagen ich habe 32MP, was keine andere APS_C besitzt. Dass viele User ein einfaches Kitobjektiv nutzen, was die Auflösung gar nicht bewältigt, weiß dann aber keiner.

Space


Antwort von Jan:

pillepalle hat geschrieben:
@ Jan

Er sagt das bei Filmanwendungen der Tiefpass Sinn macht, weil man da die Artefakte nicht so einfach fixen kann wie im Still Bereich. Bei dem fotolastigerem Modell mit dem gleichen Sensor haben sie ihn weg gelassen.

VG

Danke und warum haben sie ihn bei dem eher Fotomodell weggelassen? Wohl weil bei der Fotografie dann Sichtvorteile in Sachen Auflösung und Details sichtbar sind.

Space


Antwort von Darth Schneider:

Glaubt ihr Panasonic bringt noch eine GH6, oder ist das Kapitel MFT schon abgeschlossen, für Panasonic ?
Wegen BMD ( Grins! )
Gruss Boris

Space


Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
Glaubt ihr Panasonic bringt noch eine GH6, oder ist das Kapitel MFT schon abgeschlossen, für Panasonic ?
eine GH6 wird es mit sicherheit geben! :)

ich würde eher die S1 u. S1H für einen völlig unbedeutenden nebenschauplatz halten, der in etwa die selbe funktion erfüllt wie früher schon prestigeträchtige kooperationen mit leica...

Space


Antwort von Mediamind:

Ich habe am letzten Wochenende eine Hochzeit in Teilen mit der S1 gefilmt. Panasonic macht vieles richtig. Die Aufnahmen sind äußerst überzeugend. Die Benutzerführung ist für GH5 erprobte kein Problem und der Dual IBIS ist der Hammer. Aufnahmen bei 200 mm mit f:4 bei 10.000 Iso aus der Hand sind qualitativ kein Problem. Die S1H wäre definitiv meine nächste Wahl.

Space


Antwort von rush:

Das klingt doch ganz gut - alles andere hätte mich auch gewundert.

Ob man 200mm aus der Hand halten muss oder doch eher zusätzlich auf ein Einbein oder Dreibein zurückgreift ist sicher eine andere Frage... aber schön wenn es für kurze Takes passt.

Interessanter ist sicher allgemein die Frage der verwendeten Optiken - also ob da native Gläser zum Einsatz kamen und wie die sich beim (manuellen) fokussieren so verhalten (Stichwort "by wire") oder ob eher per AF gearbeitet wurde... und Dein Eindruck zum Sucher (falls genutzt) würde mich noch interessieren - der wird ja überall gelobt.

Space


Antwort von Jörg:

Ob man 200mm aus der Hand halten muss oder doch eher zusätzlich auf ein Einbein oder Dreibein zurückgreift ist sicher eine andere Frage... das ist so gar keine andere Frage, das ergibt sich von selbst, gerade in der geschilderten Situation.

Ich bin fanatischer Stativfilmer, allerdings filme ich nie Hochzeiten.
Die meines Sohnes, vor zwei Wochen, war die Ausnahme.
Da war es ganz einfach fantastisch, zu den auf Monsterrig gerüsteten Fuji xt2/xt3 eine
harmlos aussehende XH1 für die längeren Brennweiten als Handcam zu haben.
Mit IBIS Body und OIS Objektiven hast du genau DIE Freiheit, die Bilder zu fangen, die mit Stativ gar nicht, oder zumindest erschwert möglich wären.

Ich weiß genau, WAS mediamind erlebt hat ;-))

Space


Antwort von Mediamind:

Meine Begeisterung rührt von dem nativen 70-200 mm f:4. Dieses Objektiv hat die Option, einen Ring herunter zu ziehen um dann manuell die Schärfe zu ziehen. Ich habe hiermit erstmals die Illusion eines manuellen fokussierten Objektives, trotz Focus by Wire. Der Sucher ist in den Testberichten zu Recht als Refenz gewertet worden. Klar und kontrastreich, wie an einem Top-Monitor, wirkt das Bild. Da kommt der sehr gute Sucher in meiner Z6 nicht mit. Schalterlayout und Handhabung wirken wertig und die Kamera liegt gut in der Hand. Der An- und Ausschalter ist jedoch fehl platziert. Auf das V-log Update freue ich mich. In Standard mit 100 mbit/s ist das Material schon toll, ich bin auf die Reserven von 150 mbit/s in V-log mehr als gespannt. Ich hatte den Batteriegriff dran, habe aber noch nicht einmal einen Akku leer bekommen. Die Laufzeit scheint auf den ersten Blick zu passen.

Space


Antwort von mash_gh4:

Mediamind hat geschrieben:
Aufnahmen bei 200 mm mit f:4 bei 10.000 Iso aus der Hand sind qualitativ kein Problem.
sprichst du da jetzt von standbildern oder videofilmerei?

ich wäre dir wirklich dankbar, wenn du bsp. davon irgendwo hochladen könntest, weil ich mir weder vorstellen kann, dass die ISO 10000 befriedigend ergebnisse zulassen, noch dass man mit 200mm aus der hand vernünftig filmen kann. trotzdem lass mich gerne vom gegenteil überzeugen, wäre also wirklich gespannt, etwas von deinen ermutigenden resultaten zu gesicht zu bekommen.

Space


Antwort von rush:

ISO 10.000 an modernen Vollformatsensoren ist heute tatsächlich kein wirkliches Problem mehr - natürlich verliert man etwas Dynamik und Kontrast und erhält einen leichten Noise-Floor - in Kombination mit einer guten Signalverarbeitung geht da aber schon einiges. Die Sony Sensoren der neueren Alphas sind dahingehend ja bspw. auch sehr brauchbar und man kann sie recht problemlos mal in diesen Bereich schieben.
Keine Ahnung ob in der Panasonic nun auch Sony-Sensoren oder Eigenentwicklungen werkeln - aber da hat sich eine Menge getan in den letzten Jahren. Vollformatsensor mit moderater Pixeldichte sind da prädestiniert für.

Bei den 200mm bin ich da auch eher skeptisch - auf der anderen Seite hat schon der IBIS in der kleinen GH5 recht sauber funktioniert und die OIS Systeme aus den Henkelmännern von Panasonic sind ebenfalls ziemlich gut. Möglich das sie da ebenfalls ordentlich was auf die Beine gestellt haben sodass man zumindest handheld und bei ruhiger Kamerabewegung damit hinkommt. Bei mehr Kamerabewegung dagegen dürfte es prinzipbedingt komplizierter werden - aber hey, das erwartet man bei 200mm auch gewiss von keiner Kamera/Objektivkombi...

Space


Antwort von Mediamind:

Ich habe gefilmt. Den zusätzliche elektronischen Stabi kann man noch zusätzlich nehmen, ich habe ihn mir auf einem Funktionsbutton registriert. Mit dem Batteriegriff und dem Stativanschluss des Objektives ruhig auf der flachen Hand lagernd, wird man selbst zum Stativ. Der Arm, der das Objektiv hält ist dabei am Körper anliegend und angewinkelt. Ich beginne gerade erst mit dem Schneiden. Aus der Hochzeit kann ich nichts veröffentlichen, das Brautpaar müsste das geben. Die Hochzeit war in einem Schloss mit sehr attraktiven Gästen. Rush hat absolut Recht. Die Z6 spielt in einer ähnlichen Liga. Bei 10.000 Iso ist das Rauschen im bewegten Bild kein Problem. Das hatte ich bisher nur mit der Gh5s und Dual-Iso-Option. Die Z6 und die S1 lassen die Gh5s allerdings hinter sich.

Space


Antwort von Jan:

Noch mal das Thema mit dem Tiefpassfilter, Panasonic sagt das selbe wie ich am Anfang des Threads. Man hat sich bei dieser Videoversion für den Tiefpassfilter und gegen etwas mehr Detailauflösung entschieden, weil man Moire so besser bekämpfen kann.
Die S1H ist mit einem 35mm Vollformat-CMOS-Sensor (35,6 mm x 23,8 mm) mit 24,2 Megapixel und einer effektiven Auflösung von 6.024 x 4.016 Pixel ausgestattet. Ein optischer Tiefpassfilter unterdrückt Moiré-Effekte.
https://www.panasonic.com/de/corporate/ ... x_s1h.html


Der Sensor wird wohl von Sony sein, der MN34440PL der EVA-1 passt ja von den Abmaßen nicht, andere Sensoren baut Panasonic im Moment nicht.

https://industrial.panasonic.com/ww/pro ... ra?reset=1

Space


Antwort von nic:

Jan hat geschrieben:
Noch mal das Thema mit dem Tiefpassfilter, Panasonic sagt das selbe wie ich am Anfang des Threads. Man hat sich bei dieser Videoversion für den Tiefpassfilter und gegen etwas mehr Detailauflösung entschieden, weil man Moire so besser bekämpfen kann.
Die S1H ist mit einem 35mm Vollformat-CMOS-Sensor (35,6 mm x 23,8 mm) mit 24,2 Megapixel und einer effektiven Auflösung von 6.024 x 4.016 Pixel ausgestattet. Ein optischer Tiefpassfilter unterdrückt Moiré-Effekte.

https://www.panasonic.com/de/corporate/ ... x_s1h.html


Der Sensor wird wohl von Sony sein, der MN34440PL der EVA-1 passt ja von den Abmaßen nicht, andere Sensoren baut Panasonic im Moment nicht.

https://industrial.panasonic.com/ww/pro ... ra?reset=1 Oha! Wer produziert denn dann den Varicam-Sensor?

Space


Antwort von Mediamind:

Heute kam der Upgradekey für V-Log. Gleich freigeschaltet und ausprobiert. Fand ich die Aufnahem mit 100 mbit/s schon gut, mit 150 sind sie noch mal anders. Ich hatte gehofft, dass der von mir bereits bei der GH5 und GH5s verwendete Falsecolor LUT auch bei der S1 Reihe gut funktioniert. Ich nutze Falsecolor nun schon seit geraumer Zeit bei den GH5en und wollte nicht darauf verzichten. Durch den wirklich guten Sucher macht Falsecolor tatsächlich noch mehr Spaß. Die Darstellung ist für meine Zwecke optimal. Ich habe die Umschaltung zwischen Falsecolor und der normalen Darstellung auf der Taste für die Umschaltung der Anzeigengröße im Sucher registriert. Das sollte bei der S1H dann ja auch ohne Probleme gehen. Hier noch einmal der Link für diejenigen die bei einer S1en diese Option nutzen möchten:
https://luts.iwltbap.com/false-color-lut/

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


Nikon Z8 Sensor-Bildqualität (Rolling Shutter, Dynamik) - 8K60p RAW unter 5.000 Euro
Panasonic Winter Cashback: Bis zu 300 Euro sparen beim Kauf einer Lumix S oder G Kamera
Panasonic LUMIX S1H - Mehr Bildqualität durch Tiefpassfilter?
RAW-Update für Panasonic Lumix S1H soeben erschienen
Panasonic: Neue Firmware für Lumix S1H/S1R/S1 und S5 bringt besseren AF und RAW-Output für S5
Umfrage unter 1.000 Fotografen (Pros und Amateure): Welche Kamera nutzt ihr?
Die Panasonic S1H in der Praxis: Die neue Vollformat-Referenz? Hauttöne, 6K 10 Bit intern, 4K 50p 10 Bit - Teil 1
Panasonic S5 II mit Phasen-Autofokus in der Videopraxis: Überflieger in der 2.000 Euro Klasse?
Canon EOS R8 - Vollformat Hybrid Kamera mit 10 Bit Log unter 2000 Euro
Canon EOS R6 Mark II im ersten Praxistest: Die beste Hybrid-DSLM unterhalb von 3.000,- Euro?
Panasonic: Neues Weitwinkelzoom LUMIX S 20-60mm F3,5-5,6 für Vollformat Lumix S-Serie
Der neue Mac Pro kostet zwischen 6.499 und 62.568 Euro -- die Afterburner Karte gibt es für 2.400 Euro
Nachschlag zur Lumix S1H: ProRES RAW über HDMI für Ninja V
Frage zu Lumix S1H Atomos Ninja V Slow-motion
Gerüchte zu Panasonics Lumix S1H II (Mk2) - 8K mit 60p und ProRes RAW
Sonys 4,8K-FullFrame-Sensor IMX521 wirft Kamera-Schatten voraus?
Kleines Studio für unter 15.000 Gesamtkosten




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash