Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // Test: Panasonic AG-AF101



Newsmeldung von slashCAM:


Test: Test: Panasonic AG-AF101 von rob - 11 Feb 2011 14:00:00
>Mit der Panasonic AG-AF101 wird im Camcorderbereich ein neues Zeitalter eingeläutet. Erstmalig kombiniert ein HD-Camcorder die Vorteile eines "Filmlook-Sensors", wie er bislang nur bei Video-DSLRs zur Verfügung stand mit den Funktionen eines professionellen HD-Camcorders (XLR-Eingänge, HD SDI-Out, ND-Filter, Peaking etc.). Wir haben die Panasonic AG-AF 101 einem Test mit diversen Optiken unterzogen (u.a. auch hochwertigen Leica-M-Optiken) …

zum ganzen Artikel

Space


Antwort von pilskopf:

Boh, unterhalb der GH2 Auflösung, ich lach mich jetzt echt schlapp, nein, das hab ich nicht erwartet. Wird heute Abend gleich mal die GH2 gestreichelt.

Space


Antwort von deti:

@slashCAM: Wenn ihr jetzt noch die Panasonic Lumix DMC-GF2 testen würdet, dann wäre ich euch sehr dankbar!

Deti

Space


Antwort von toxitobi:

Gilt die Zeitlupe für 1080? Ist denn dann 1080/50bzw 60p möglich wie vor einiger Zeit mal irgendwo gelesen oder nicht?
und wird während dieser noch Ton aufgenommen?

gruß Toxitobi

Space


Antwort von r.p.television:

Das hier im Gegensatz zur fast 5000 Euro billigeren (!) GH2 stärkere Skalierungsartefakte und insgesamt eine geringere Auflösung anfallen ist eigentlich ziemlich peinlich.
Wäre das Overcranking nicht so attraktiv, hätte diese Kamera neben XLR, ND und HD-SDI keinen Mehrwert, wobei selbst das HD-SDI mit 422 8bit nicht das Optimum bieten.
Auch sehr enttäuschend: Nur die GH2 hat den digitalen Zoommodus, der einen vor Ort doch sehr viel Flexibilität bei der Brennweite bietet. Und der Sucher ist bei der GH2 auch besser. Hallo?

Doch mal kucken was Canon dieses Jahr bietet. Entweder eine 5D Mark III (mit hoffentlich besserem Videobild) oder ein XL-Nachfolger mit EOS-Mount und APS-C. Oder vielleicht die Sony-Variante die noch kommen soll - obwohl ich mir da eigentlich am wenigsten erwarte.
Bis dahin vielleicht doch eine GH2 und EOS-Adapter.
Wenn die 101 nicht dieses leckere Overcranking in 1080p hätte...grübel...grübel....

EDIT: Achja. Bei diesem Preis hätte man doch AVCIntra 100 oder so ein Format wie bei Canon 422 8bit 50Mbit erwarten dürfen. Zumindest irgendwas mit 422. Das fummelige Arbeiten mit externen Rekordern mag ich nicht, zumal ich nicht mal weiss ob über irgendeine Schnittstelle beim Overcranking 60p bei 1080p funktionieren bzw. ob die Rekorder das können.

Space


Antwort von -paleface-:

Was heisst eigentlich bei eurer Nachtaufnahme "Shutter Off"?
Kann man auch ohne Shutter drehen?

Also für den Preis was das Teil kostet. Habe ich noch nen Rig dazu bekommen, ne LED Leuchte, 2 Stative und ne Schiene. Und hatte dann noch Geld übrig.

Will erstmal Moire und Rolling Shutter Vergleiche sehen um hier sagen zu können "ein Wechsel würd mir gut tun".

Wobei ich auch da eher nach dem Moire schauen würde. Rolling Shutter Probleme hatte ich bei meinem Projekten bisher fast nie. Und wenn dann so wenig das es eh keinem Auffällt.
Bei Moire ist das schon was anderes. Wenn man da de Falsche Kleidung für einen Protagonisten wählt, muss man schon etwas kämpfen. Aber auch da kann man mit ein paar Filtern sein Ergebnis (zum Teil jedenfalls) wieder etwas Retten.

Space


Antwort von Christian Schmitt:

Ich war einer der ziemlich lange über den Workflow mit HDSLRs geschimpft hat und der auf genau so eine Kamera von Pana gewartet hat.
Ein würdiger Nachfolger für die alterwürdige HVX.

Nur hab ich in der Wartezeit mal zum ausprobieren ne 550 gekauft und meine alten Nikonscherben davor geschraubt.
Ändert natürlich nichts am "Tonproblem".
Aber: Wenn ich die AF101 so behandeln möchte wie die HVX, brauch ich ein Rig.
Hab zwar XLR onboard, aber vom Handling her ist die blanke AF101 weder so leicht zu halten wie ne HDSLR, noch liegt sie so gut in der Hand wie ne HVX (zumindest für mich...).
Wenn ich aber ein Rig brauche, kann ich da auch ne 550D und nen Tascam/Zoom draufschnallen - und bin immer noch bei einem Viertel der Kosten.
Also ist mein neues Dilema: Jetzt gibt es ne Pana wie ich sie (ungefähr) wollte, nur kann ich den Aufpreis gegenüber ner bereits vorhandenen HDSLR irgendwie nicht rechtfertigen, da die Pana meiner Meinung nach nicht genug Mehrwert bietet.
Ganz ehrlich, ich würde lieber 10000+ in nen HPX370 Nachfolger mit größerem Chip, gutem Zoom und AVCHD100 investieren.

Space


Antwort von stonee:

Hi,

ich hoffe dass dies jetzt nicht allzu off-topic ist aber:

Weshalb haben die 35mm Kameras (Red, Alexa, AF101, Sony F35...) nur einen Bildsensor?

Jede Kamera die bisher für gute Bildqualität stand (egal ob Henkelmann oder dicke Ikegami) hat 3 Bildsensoren. Für jede Grundfarbe einen.

Habe ich da eine grundsätzliche Forschungsneuheit bzw. Neuentwicklung verpasst? Weshalb war für SD mit 720x576 ein Bildchip per'se "Müll" und plötzlich reicht es für HD aus?

Ich vermute eher, dass viel Platz auf dem 35 mm Chip für Filter verschwendet wird. Damit kann man dann zwar die Tiefenschärfe reduzieren weil man die Bildpunkte weiter voneinander verteilt, aber Signal-Rauschabstand bzw. Empfindlichkeit, Dynamikumfang (Blenden) usw. lassen sich damit nicht gewinnen.

Aufgrund des mechanischen und vor allem optischen Aufwandes liegt auch der Verdacht nahe, dass die Hersteller jetzt erstmal den Markt mit 1Chip 35mm-Cams fluten. Sobald der Markt dann z.B. 2014 gesättigt ist gibt es dann plötzlich einen "unvorhergesehenen" 3Chip-Hype mit 3Chip-Red, Alexa & Co. Die aktuellen Kameras sind dann reif für die Tonne bevor sie abgeschrieben sind...

Was denkt Ihr?

Viele Grüße,
stonee

P.s.: Gegen die Panasonic AG-AF101 habe ich nichts. Die gefällt mir von den Daten und vom Test sehr gut.
Ich habe auch nichts gegen große Bildsensoren, ich frage mich nur ob das jetzt wie bei Fotokameras reines Marketing wird: "Handliche Digitalkamera mit 50 Megapixeln zu verkaufen, hervorragende Bilder, aber nur wenn die Sonne mittags um 12 am höchsten steht und ein kräftiger Zusatzblitz verwendet wird"...

Space


Antwort von rob:

hallo paleface,

shutter off bedeutet, dass die kamera den zum format vorgegebenen standard-shutter wählt:

bei der 101 sind das sowohl bei

1080 50i als auch bei 1080 24p = 1/50

andere verschlußzeiten sind natürlich individuell wählbar ...

viele grüße

rob

Space



Space


Antwort von ruessel:

1080 50i als auch bei 1080 24p = 1/50 Sicher?

Ich tippe bei "Shutter off" auf:

50i = 1/50
25p = 1/25
24p = 1/24

Space


Antwort von domain:

Weshalb haben die 35mm Kameras (Red, Alexa, AF101, Sony F35...) nur einen Bildsensor?

Jede Kamera die bisher für gute Bildqualität stand (egal ob Henkelmann oder dicke Ikegami) hat 3 Bildsensoren. Für jede Grundfarbe einen. Ich denke, dass man davon ausgehen kann, dass 3 Bildsensoren ziemlich bald für alle Kameras vollkommen out sein werden. Oder kennst du irgendeine hochwertige DSLR (selbst im Mittelformatsektor) die noch mit Strahlenteilern arbeitet?

Es ist schlicht nicht erforderlich, sofern die primäre Pixelanzahl und die nachfolgenden bildgebenden Algorithmen darauf abgestimmt sind.

Space


Antwort von Harald_123:

Ich denke, dass man davon ausgehen kann, dass 3 Bildsensoren ziemlich bald für alle Kameras vollkommen out sein werden. Oder kennst du irgendeine hochwertige DSLR (selbst im Mittelformatsektor) die noch mit Strahlenteilern arbeitet? Das kommt in Zukunft wohl sogar vermehrt. In der Art wie beim Foveon "3in1" Sensor.

Eine aktuelle Sony Patentanmeldung dazu:
http://www.freepatentsonline.com/20110019042.pdf

Space


Antwort von meawk:

Was habe ich bereits gestern vor dem Test geäußert?

Ja - teures Spielzeug für Amateure -

mit unzureichendem max. 24 MBit AVCHD-Codec, zu niedriger Auflösung etc., aber mit ein paar Profi features. Nur wenn man extern aufzeichnet, wird es "a weng" besser . . .

Nicht kaufen!

Da ist in der Tat eine GH2, wenn es denn eine Pana sein muss schon besser. Eine GH13 ist noch besser. Alles klar?!

Ich bin immer wieder verwundert, wie der eine oder andere Pre Production Tester diesen Cams eine gute Note verpassen kann: OK, die werden alle irgendwie von Pana bezahlt . . .

Insofern danke an den Test von SlashCam - Ihr testet doch i. d. R. absolut neutral und nennt das Kind beim Namen (wie bereits bei der GH1 in Sachen MJpeg damals . . ., während Philip Bloom den Modus sehr gelobt hatte???).

LG

Space


Antwort von rob:

1080 50i als auch bei 1080 24p = 1/50 Sicher?

Ich tippe bei "Shutter off" auf:

50i = 1/50
25p = 1/25
24p = 1/24 hallo ruessel,

das hatten wir ursprünglich auch gedacht, aber das handbuch sagt was anderes aus (Bd II, S. 15).

viele grüße

rob

Space


Antwort von ruessel:

hallo ruessel,

das hatten wir ursprünglich auch gedacht, aber das handbuch sagt was anderes aus (Bd II, S. 15).
Wird dann der Bildchip nicht sehr ungewöhnlich ausgelesen? Kann er vielleicht nur i und alle p werden nur künstlich gerechnet?

Space


Antwort von Funque:

in der Preisklasse wäre dann ja wohl bald die RED Scarlet anzusiedeln, wobei die ja modular aufgebaut ist und so nach oben im Preis noch einiges offen ist, je nachdem was man an Ausstattung haben will oder bezahlen kann.

Aber laut RED kommt ja erst die Epic und dann die Scarlet so, das man dazu wohl noch nicht wirklich was sagen kann.

Oder vertue ich mich jetzt ganz nebenbei und versuche Äpfel mit Birnen zu vergleichen?

Liebe Grüsse

Space


Antwort von meawk:

in der Preisklasse wäre dann ja wohl bald die RED Scarlet anzusiedeln . . . Sehr schön, aber was willst Du uns damit sagen? Falls Du der Meinung bist, dass man eine RED Scarlet (filmfertig) für diesen Preis bekommt, bist Du auf dem Holzweg. Ob eine Scarlet jemals kommt, ist auch fraglich. Ist aber toll, man hat immer einen Grund abzuwarten und nichts zu kaufen - denn man wartet auf die Scarlet . . . Irgendwie coooool!!!

Space


Antwort von WoWu:

Nur RED kommt ja auch an der Physik nicht vorbei.
Und aus großen Sensoren, kleine Auflösungen zu machen, bedeutet immer, entweder Low-Pass-Filter deutlich unter der Nyquist Frequenz, mit der entsprechenden Unschärfe, oder eben Aliasing.
Und RED wird da auch nichts dran ändern.
Nun hat sich DSRL für Aiasing entschieden, weil sie auch noch Fotos machen soll und die AF100 eben für ein unscharfes Bild, weil die Diskrepanz zwischen den beiden Frequenzen groß ist, musste es eben entsprechend früh einsetzen.
Es müssen nun mal die Beiden Frequenzen des Sensors und des Objektives aufeinander abgestimmt sein.
Also 2/3" mit dem passenden HD Objektiv und das Thema ist ausgestanden.
Bis dahin haben sich dann auch die ganze (anti) Tiefenschärfe Fraktion totgespielt und anständige Bilder sind wieder modern.
Ich warte die HPX 300er Nachfolger ab dann bleibt das auch 10 Bit und AVC-I.

Space



Space


Antwort von meawk:

Nur RED kommt ja auch an der Physik nicht vorbei.
Und aus großen Sensoren, kleine Auflösungen zu machen, bedeutet immer, entweder Low-Pass-Filter deutlich unter der Nyquist Frequenz, mit der entsprechenden Unschärfe, oder eben Aliasing.
Und RED wird da auch nichts dran ändern.
. . .
Bis dahin haben sich dann auch die ganze (anti) Tiefenschärfe Fraktion totgespielt und anständige Bilder sind wieder modern.
Ich warte die HPX 300er Nachfolger ab dann bleibt das auch 10 Bit und AVC-I. Gebe dir Recht - so isses nun mal. Behaupte auch nicht generell, dass der Vollformatsensor etc. hier eine Königslösung sei. Man braucht eigentlich zwei gute Cams: Eine für das ultimative DOF und eine für den Rest . . .
Das mit der "nur" Tiefenunschärfe wird ja auch so langsam grottenlangweilig.

Space


Antwort von WoWu:

Problem ist nur, will man die beiden Cams in einer Produktion verwenden, dass die Bilder nicht zu matches sind.
Haben wir probiert ... grottenschlecht.

Space


Antwort von PeterM:

@Mewk
Ich halte mich ja meistens aus zu emotinalen Standpunkten heraus, aber du bervst mit deinem gebetsmügligen Lobpreisungen für eine alte Cam

Wie lange willst du eigendlich noch verbreiten, dass eine GH13 besser ist als eine GH2 und AF101 oder was auch immer. Ich habe beide und kann das wie vile andere Nicht bestätigen. Lies mal andere Foren z.B dvx user

Nein ich bin kein Pana Fanboy. Auch zu Zeiten als die Af 100 mit vorschusslorbehren überhäuft wurde und leute ihre EXe verkaufen wollten, hab ich das als Quatsch angemerkt
Aber zum Thema.
Es ist natürlich entäuschend das die AF 100 hier noch hinter der GH2 liegt.
Letztendlich wird man sicher das eine oder andere aus den Kamereaeinstellungen rauskitzeln können.
Nun sagen wir es mal einfach so, man wird mit den Limiitationen leben müssen, oder warten was von der Konkurenz kommt.
Leider ist die AF 101 die einzige verfügbare Kamerea für leute wie uns mit " Optikspielchen" zum Übergangspreis, bis die Epic S den dann mal kommt, gerade bei Produktionen in denen die RED (MX) zu aufwendig ist.

FÜr Liebhaber von Testigitäten hier noch etwas zum vormerken

http://reduser.net/forum/showpost.php?p ... stcount=39

Space


Antwort von pailes:

mit unzureichendem max. 24 MBit AVCHD-Codec Das ist Bullshit: http://www.dvxuser.com/articles/article.php/25

Die AVCCAM AVC-Implementierung toppt den XDCAM-EX-Codec bei 35mbps und damit sollte das im Regelfall ausreichen.

Space


Antwort von groover:

Slashcam zauberte folgendes aus der Tastatur:
"Gemessen an DSLR-Niveau ist das Bild gut, liegt jedoch noch leicht unter der GH2 aus den gleichen Hause."

Das finde ich jetzt insofern interessant, weil ich in diesem Vergleichsvideo eher das Gefühl habe dass das Bild der AF101 einen ticken schärfer wirkt.
... re=related

LG
groover

Space


Antwort von deti:

Das finde ich jetzt insofern interessant, weil ich in diesem Vergleichsvideo eher das Gefühl habe dass das Bild der AF101 einen ticken schärfer wirkt.
... re=related Schärfewirkung und Auflösung sind zwei paar Stiefel. Obendrein taugt YouTube zur Qualitätsbeurteilung von Kameras überhaupt nicht, weil der H.264-Stream selbst bei 1080p auf <4Mbit/s reduziert ist.

Deti

Space


Antwort von B.DeKid:

.....

Doch mal kucken was Canon dieses Jahr bietet. Entweder eine 5D Mark III (mit hoffentlich besserem Videobild) oder ein XL-Nachfolger mit EOS-Mount und APS-C. ..... Daumen hoch denn Recht hast Du mit so einem Wunsch!

Aber ich sage mal voraus :

5D Mark III

- Killer Focus System in richting 7D
- knappe 30 MP Auflösung
- geringfügige Video Quali Aufwertung zu bestehenden VDSLR Cams
- kein RAW kein 4:2:2
- kein überzeugenden AF im VideoModus
- im Handel ab ca Nov 2011

XL H 1 Nachfolger ( XF L 1 zB genannt = ich lag ja damals schon richtig mit XF ;-) )


- MPEG Codec 4:2:2 intern so wie extern
- EF Linsen tauglich via Adapter auch "alte Linsen"
- 2 auf Video und AF abgestimmte Objektive
- APS-C Chip
- TC in / Out
- Elektronischer Sucher
- Frames bis zu 120 FpS bei geringerer Auflösung
- Erscheinungs Datum 1.Quartal 2012

Das so meine Vermutung zu dem Thema , aber eins dürfte sicher sein die 5D Mark III wird ne vollwertige FF Photo Cam werden !

Und der Nachfolger der XL H1 wird sich nicht vor irgend einem System verstecken müssen!

Einzig und allein an RED wird sich Canon noch nicht herran wagen und einfach aus den jetzigen Mitteln das beste bauen wollen - sonst hätten sie uns schon lange den Wunsch einer XL H1 erfüllt - ich glaube die lassen sich bewusst Zeit und wollen einfach ein Produkt auf den Markt werfen welches stimmig ist!

MfG
B.DeKid

Space


Antwort von Bernd E.:

...in der Preisklasse wäre dann ja wohl bald die RED Scarlet anzusiedeln, wobei die ja modular aufgebaut ist und so nach oben im Preis noch einiges offen ist...Oder vertue ich mich jetzt ganz nebenbei und versuche Äpfel mit Birnen zu vergleichen?... Im Endeffekt führen die meisten solcher Vergleiche zu Obstsalat, aber da AF101 und Scarlet Fixed in einigermaßen ähnlicher Preisklasse antreten, werden sich Käufer durchaus diese Gedanken machen. Von der Papierform her dürfte die Panasonic eigentlich nur bei den billigen Speicherkarten und dem "sDOF-Wahnsinn" ;-) die Nase vorn haben, da die Scarlet auf die bewährte und praktisch universell geeignete Sensorgröße von 2/3-Zoll setzt. Für viele Kameraleute ist allerdings auch das ein starkes Argument pro Scarlet; wer Schärfentiefen unterhalb eines Zentimeters bevorzugt, wird"s zu Recht anders sehen.
Alle anderen Kategorien wie Auflösung, Aufzeichnungsformate, Bildfrequenzen, konfigurierbare Bedienung, Ausbaufähigkeit usw. gehen klar an die Scarlet, die obendrein noch ein Servo-Zoom (das wird bei 4/3 schwer vermisst!) mit konstanter Lichtstärke mitbringt, das normalerweise schon alleine mehr kosten müsste als die gesamte Scarlet Fixed. Wer Wechseloptiken einsetzen will, der ist freilich wieder mit der AF101 besser bedient - es sei denn, er entscheidet sich für die andere Scarlet ohne eingebautes Objektiv. Dann allerdings wird eine drehfertige Kombination doch recht deutlich teurer als die Panasonic-Lösung.
Aber während die Scarlet in einer höheren Liga als die AVCHD-Camcorder spielt, dürfte der interessanteste Vergleich der nächsten Monate wohl eher der zwischen der AF101 und dem Sony-Pendant "NXCAM S35" werden. Beide verfolgen weitgehend denselben Ansatz und peilen dieselbe Zielgruppe an - mit dem möglicherweise entscheidenden Unterschied in der Sensorenfrage: ein hochpixeliger Fotosensor bei Panasonic, ein auf Video spezialisierter Sensor aus dem professionellen Bereich bei Sony. Ich denke, das könnte bald sehr spannend werden. Und vielleicht zaubert ja Canon tatsächlich auf der NAB Anfang April die große Sensation aus dem Hut.

Space


Antwort von Filmo:

@B.DeKid:

Deine Wünsche in Canons Gehörgang,was die XL's betrifft,schade auch,daß Canon nicht die leiseste Andeutung macht;inzwischen werden nicht wenige anderweitig "Trost"suchen....

Allerdings ist es ja nicht so,daß man nun mit der XLH1 plötzlich keine Filme mehr machen könnte:-)

Space



Space


Antwort von r.p.television:

@B.DeKid:


Allerdings ist es ja nicht so,daß man nun mit der XLH1 plötzlich keine Filme mehr machen könnte:-) Das stimmt natürlich. Aber bereits eine XH A1 ist zum Filmen weitaus praktikaber als dieses kopflastige Ungetüm. Einzig allein das optionale WW rechtfertigte eigentlich noch die XL H1.
Mit den Vorzügen eines EF-Mounts und APS-C freilich sieht das ganze anders aus. Da nehme ich dann auch die Kopflastigkeit in Kauf.
Die Xl H1 ist ein alter Hut. Allein der Sucher macht keine Freude. War schon schlecht beim Release 2006. Heute mag man damit nicht mehr arbeiten.
Das Bild dagegen war ein Quantensprung zur damaligen FX1/Z1.

Und nichts anderes erwarte ich von Canon, wenn sie Ihr "DOF"-Modell auf den Markt werfen. Canon hat immer die Messlatte höher gelegt in Sachen Bildqualität und Preis/Leistung.

Space


Antwort von Filmo:

Die XLH1 ist d i e Cam für zB Tierfilm,auch ich verwende sie dafür,nur vom Stativ,was bei den langen Brennweiten ohnehin nicht anders machbar ist.Damit ist mir die Kopflastigkeit natürlich egal.
Dazu den BW-Sucher, der einfach notwendig ist und in einer anderen Liga spielt, als der mickrige Farbsucher.

Klar wäre vielleicht ne Sony EX3 das Top-Ding für solche Vorhaben,kostet dann aber doch wesentlich mehr.

Space


Antwort von r.p.television:

Klar wäre vielleicht ne Sony EX3 das Top-Ding für solche Vorhaben,kostet dann aber doch wesentlich mehr.
Ich hab keine Ahnung was eine XL H1 heutzutage kostet, aber 2006 habe ich dafür auch noch 9000 Euro bezahlt. Eine EX3 kostet heute doch eher ein bisschen weniger.
Allerdings hat die XL H1 hier einiges mehr an Tele (für Tierfilm).

Space


Antwort von Filmo:

ist zwar schon OT ;die XLH1 gibts in zwei Ausführungen mit/ohne SDI.
Mit SDI-Ausgang immer noch ca EUR 9000.-(XLH1s) ,ohne SDI EUR 6000.-(XLH1a) Hab die "billigere" Version.

Die AG 101 mit dem mft-Sensor wär für Tierfilm schon auch interessant,muß man keine soooo riesigen Telekanonen ansetzen,mit dem Crop 2 reicht vielleicht schon ein 300er (600KB) um arbeiten zu können.

Space


Antwort von meawk:

@Mewk
Ich halte mich ja meistens aus zu emotinalen Standpunkten heraus, aber du bervst mit deinem gebetsmügligen Lobpreisungen für eine alte Cam

Wie lange willst du eigendlich noch verbreiten, dass eine GH13 besser ist als eine GH2 und AF101 oder was auch immer. Ich habe beide und kann das wie vile andere Nicht bestätigen. Lies mal andere Foren z.B dvx user

Nein ich bin kein Pana Fanboy. Welche? Die GH2 und die AF 100 oder die GH2 und die GH1.

Falls Du die GH2 und die GH1 hast, dann kannste wahrscheinlich nicht den Hack optimal anwenden, sonst hättest auch Du gemerkt, dass die GH13 nun wirklich nicht schlechter ist als die GH2 und in der Gesamtbetrachtung, 24/25p sowie 50/60p, bis 100 MBit bei AVCHD möglich, MJpeg Color 4.2.2 sowie bis 100 MBit usw., usw.

Falls das so ist - dann nervst Du mich gewaltig, weil ich ständig für euch GH2-Besitzer das Gesamtpaket der GH13 aufzählen mus etc.

Wende mal den Hack richtig an und dann kannste eigentlich deine GH2 wieder verkaufen.

Also - mach mich nicht an, wenn Du keine Argumente oder Beweise hast.

Um beim Thema zu bleiben, die AF 101/100 wird schon noch werden, wenn sie Vitaliy mal durch die Mangel hat, das steht fest - nur das mit dem externen Aufnehmen - um die optimale Quali rauszuholen - stört mich schon gewaltig (muss man immer so einen Kasten mit rum schleppen - und da geht die Qual der Wahl ja auch schon wieder los: welchen Kasten nimmt man bzw. wer ist der beste und dann noch bezahlbar usw.).

Insofern werde ich dieses Teil wahrscheinlich nicht kaufen.

Z. Z., Stand 2011, reichen mir meine 5D II, 550D und meine GH13 allemal - da müsste schon der absolute Brüller, so um die 2500 Euro rauskommen (mehr investiere ich sowieso nicht mehr . . .), damit ich noch mal was kaufe. OK - vielleicht lege ich mir noch so einen sehr guten "Null bis Timbukto" scharfen Camcorder für Landschaft u. ä. zu. Ist ggf. die bessere Kombi als weit über 5000 Euro für dann ein nicht besseres oder kaum besseres Gerät zu zahlen.

Außerdem sind mir die "großen" Geräte sowieso suspekt: Da wird man überall als ein Außerirdischer wahrgenommen - kann gar nicht mehr in Ruhe was filmen, weil jeder Depp einem anquatscht etc.

LG - Freunde

Space


Antwort von WoWu:

die AF 101/100 wird schon noch werden, wenn sie Vitaliy mal durch die Mangel hat ...... :-)
Na, da ist die Welt aber jetzt gespannt, ob Vitaly gegen die Gesetze der Physik ankommt.
Dann soll er doch bei der Gelegenheit gleich die Schwerkraft mit aushebeln, dann spart man sich den Kran.

Space


Antwort von meawk:

Vitaliy wird schlicht und einfach die Begrenzung nach oben beim AVCHD-Codec aufheben - mit einer Veränderung der physikalischen Gesetze oder einer neuen Form von Schwerkraft hat das nichts zu tun. Die Cam wird dann in der Spitze 75 - 100MBit liefern, was ist daran schlecht. Da warten tausende von Besitzern jetzt schon drauf. Ein paar andere kleinere Verbesserungen kommen noch hinzu und dann passt das schon.

Wer den Hack nicht anwenden möchte - muss es ja nicht tun.

Viele GH1-Besitzer drauen sich da auch nicht ran und filmen dann eben mit "mud" etc. weiter, ist doch ok.

LG

Space


Antwort von WoWu:

@ meawk

Bei aller Freundschaft .... ich weiss, Du glaubst es mir ja nicht, aber es hat absolut nichts mit der Datenrate zu tun. Die Wavelet Zeiten sind vorbei. Deswegen kann Vitaly da 3 Gbit rausholen und bekommt immer noch kein besseres Bild, weil er das Low Pass Filter am Sensor nicht wegzaubern kann.

Hier ist übrigens noch was zum Thema und zum Chroma/Luma Verhalten der AF100:
http://provideocoalition.com/index.php/ ... _the_ugly/

Also warten wir jetzt nochmal die F3 ab und dann ist das Thema wahrscheinlich auch durch.
Übrigens finde ich nirgend Infos über die Pixelzahl des Sensors, der in der F3 zur Anwendung kommt.
hat da jemand Infos ? Vielleicht haben sie die ja ein erträgliches Maß herabgesetzt und bekommen so wieder scharfe Bilder ohne Artefakte, wollen aber jetzt die Pixelfeteschisten nicht enttäuschen.
Wenn da jemand Infos hat , immer her damit.

Space


Antwort von Ernesto:

Übrigens finde ich nirgend Infos über die Pixelzahl des Sensors, der in der F3 zur Anwendung kommt. bei der F3 Produktpräsentation sprach der Sony-Moderator von ca. 3,6 megapixels.

viele Grüsse Ernesto

Space



Space


Antwort von WoWu:

Hallo Ernesto

Hmmmm das würde ja vorn und hinten nicht reichen, es sei denn, sie benutzen 3 davon.
Aber zumindest scheint es ja nicht mehr so ein Pixelzauber zu sein.
Gab es noch weiterreichende Infos ?
Beispielsweise ob sie da ihren Q67 schon einsetzen ... oder infos über eine Farbmaske (wenn sie nicht 3 verbauen) ??
Sony ist in der Chipentwicklung ja ziemlich aktiv.
Also gute Chancen, dass nicht nur irgend einen Fotosensor greifen und damit auch gute Chancen dass es mit Video klappt.

Space


Antwort von Ernesto:

Darum ging es Sony hauptsächlich, eben keinen Foto-Sensor zu nutzen, wie Panni, mit all seinen negativen Einflüssen bei Bewegtbildern. Leider konnten infos über die Farbmaske nicht gemacht werden. Die Farbaufbereitung einer F35 wird es sicherlich nicht werden.

Viele Grüsse Ernesto

Space


Antwort von Bernd E.:

...Übrigens finde ich nirgend Infos über die Pixelzahl des Sensors, der in der F3 zur Anwendung kommt. hat da jemand Infos ?... Laut dem Prospekt sind es effektive 3,36 Megapixel, nachzulesen auf der letzten Seite unter "Specifications": http://www.scribd.com/doc/48585451/Sony-PMW-F3
Interessanterweise existiert eine zweite, ansonsten nahezu identische und wohl neuere Version des Prospekts, in der die Angabe der Pixel fehlt. Zum Thema, wie die F3 was aus wie vielen Pixeln erzeugt, gibt es übrigens auch einige Diskussionen bei www.dvinfo.net und www.dvxuser.com . Die exakten Links habe ich nicht parat, aber vielleicht sind dort schon einige der hier noch offenen Fragen beantwortet.

Space


Antwort von WoWu:

Ich schau da mal, danke, Bernd.

Space


Antwort von meawk:

@ meawk

Bei aller Freundschaft .... ich weiss, Du glaubst es mir ja nicht, aber es hat absolut nichts mit der Datenrate zu tun. Die Wavelet Zeiten sind vorbei. Deswegen kann Vitaly da 3 Gbit rausholen und bekommt immer noch kein besseres Bild, weil er das Low Pass Filter am Sensor nicht wegzaubern kann.
Ich glaub dir fast alles - ehrlich, aber bei der GH1 hat Vitaliy es mit dem Hack geschafft, dass der "mud" weg ist. Mein Eindruck nach dem Hack ist, dass das Video-Bild schon einen Tick besser geworden ist. Dies zeigt sich auch insbesondere beim MJpeg-Modus, wo ja Low-Light vor dem Hack fast unmöglich war, so schlecht sahen die Bilder aus. Nach dem Hack sieht MJpeg-LowLight super aus.

Also Low-Pass-Filter hin oder her - da hat sich was getan, sonst würde ich mir keine Mühe machen, den Hack zu verwenden . . .

In den USA werden die hackbaren GH1 nach wie vor hoch gehandelt - nur die GH1 mit der unhackbaren 1.34 Firmeware werden nach dem Erscheinen der GH2 "verschleudert".

Alle Anwender weltweit wären somit deiner Argumentation nach irgendwie "blind" - oder?

Übrigens, die F3 wird a weng zu teuer für mich . . .

Space


Antwort von pilskopf:

Die GH2 bring halt noch einige andere Vorteile mit sich die auch eine GH3 einfach nicht beherrscht. Full per HDMI zum Beispeil. Ist aber nicht das Thema hier sondern der Test der AF101.

Space


Antwort von pilskopf:

Die GH2 bring halt noch einige andere Vorteile mit sich die auch eine GH13 einfach nicht beherrscht. Full per HDMI zum Beispeil / Telesprop / sehr gutes Low Light Verhalten.

Ist aber nicht das Thema hier sondern der Test der AF101.

Space


Antwort von WoWu:

@ meawk

Bei Codierverfahren, die auf JPEG oder einem Wavelet aufsetzen, bin ich ja bei Dir, da klappt das auch und die Bilder lassen sich verbessern.
Nicht aber bei AVC. Dazu müssten andere Codiertools implementiert werden.

Bei allem Respekt, den ich Hackern gegenüber zolle, dürfte das Vitaly nicht schaffen.
Da es sich aber bei der AF100 um einen solchen Codec handelt, wird der Hack nichts bringen.
Es kommt noch etwas weiteres hinzu.
Der Hauptmangel des Bildes ist weder durch den Codec bedingt und schon gar nicht durch eine zu geringe Datenrate sondern besteht aus der Mischfrequenz zwischen Sensorauflösung und Objektivauflösung. Um diesen Fehler möglichst klein zu halten, hat Panasonic ein LowPass Filter eingesetzt, der unterhalb der angestrebten Auflösung von 1920x1080 einsetzt. Dadurch wird das Bild unscharf. Betrachtet man die Grafik und setzt man voraus, dass kein Messfehler gemacht wurde, so sieht man unmittelbar auf die Auflösungsgrenze bereits die erste Moire Störung, die, ohne Filter, entsprechend höher ausgefallen wäre, wie es in DSLR Geräten der Fall ist.

Du siehst, ein Hack bringt gar nichts bei der AF100, weil es ein Hardwareeffekt, den auch Vitaly nicht beheben kann.
Physik eben.

Space


Antwort von Harald_123:

Also warten wir jetzt nochmal die F3 ab und dann ist das Thema wahrscheinlich auch durch.
Übrigens finde ich nirgend Infos über die Pixelzahl des Sensors, der in der F3 zur Anwendung kommt. In der Anleitung des F3 gibt es den Hinweis:

"Aliasing
When fine patterns, stripes, or lines are shot, they may appear jagged or flicker."

In mit bekannten, progressiven Beispielen habe ich aber nichts davon gesehen. In interlaced Formaten sieht man das ja sowieso ab und zu.


Andererseits gibt es die Aussage:

"Cutting-edge Camera Technologies
Super 35-mm type “Exmor” CMOS sensor
The PMW-F3K/F3L is equipped with a newly developed Super 35 “Exmor” CMOS sensor, which delivers excellent picture performance with full HD resolution."

Wenn das wörtlich zu nehmen ist, liefert der Sensor FHD. Nicht nachgeschaltete Bearbeitung. "excellent picture performance" trifft die Situation wohl ganz gut(, nach meinem Eindruck).

Space



Space


Antwort von WoWu:

@ Harald
Danke für die Info.
Bleibt uns wahrscheinlich nur die F3 abzuwarten.
Im Grunde genommen ist Pana in der AF100 ähnliches passiert wie Nikon in der D70, in der sie auch mal mit OLPF experimentiert haben und das Bild zu weich wurde.
Einwenig bestand die Hoffnung, dass Pana das schafft, aber wie sich zeigt, hatten Nyquist und Shannon wohl doch Recht.
Ich hatte Bilder von der AF100 gesehen, die mich ziemlich haben zusammenzucken lassen, dachte aber, es käme von einer veränderten Quantisierung bei Bewegung, aber wie es aussieht, ist es wohl doch das bekannte Problem.
Es bleibt vermutlich nur der angepasste Kompromiss in Sachen Sensor.
Schaun wir also mal, wie die F3 das macht und ob es ihnen besser gelingt.

Space


Antwort von groover:

@wowu
trifft somit besagte Eigenschaft der AF101 dann auch 1:1 auf die GH2 zu?
Ich wäre dir sehr dankbar.
LG
groover

Space


Antwort von WoWu:

DSLR, die auch Video machen, können nicht wirklich mit einem OLPF ausgestattet werden, weil Fotos dann zu weich würden.
Daher tritt bei DSLR mehr Aliasing auf, das Bild wirkt aber eben schärfer.
Die Hoffnung bei der AF100 war ja, dass Pana ein OLPF einsetzt, dessen Durchlass hoch genug ist, noch ein scharfes Bild zu liefern, und dennoch Alising zu begrenzen.

Aber grundsätzlich betrifft das Nyquist und Shannon Theorem auch auf die GH2 zu.

Space


Antwort von Flyingdutchman:

Also die Lösung wäre eigentlich, die sollten dieses Lowpass-Filter regulierbar machen, z. B. low, mid, high...
Wär sowas nicht machbar, für zukünftige high-end VDSLRs?

Weil die Idee, beides (fotografieren + filmen) mit einem Gerät zu machen, hat schon sehr viele Vorteile; und die Qualität die jetzt dabei heraus kommt, finde ich nicht sooo schlecht - naja 10 bit wären schon besser, klar :)

Space


Antwort von WoWu:

Nee, das funktioniert leider nicht.
Bei den OLPFs handelt es sich um eine „sandwich-Konstruktion“ in der ein Kunststofffilm zwischen zwei Quarzgläser eingebettet ist, der Wide-Band Phase Retardation Film. Dies ist eine Polymer Kunststoffschicht von 20-300 nm, die Licht, ab einer bestimmten Frequenz, polarisiert.
Diese OLPF sind ohnehin nicht das Gelbe vom Ei, weil sie mehr als 1 mm über der Sensoroberfläche angebracht sein müssen, da sich sonst Reflektionen und Einbringungen in den Gläser im Bild abzeichnen.
Auch wirken sich partielle Unschärfen in der Sandwichkonstruktion in einer solchen Anwendung auf das Bild aus.
Wenn man nun diese Filter noch wechselbar machen wollte .... nee, nee, die beste Idee ist noch, das Objektiv und den Sensor aufeinander abzustimmen. :-))

Space


Antwort von meawk:

@WoWu

OK - das mit dem Lowpass-Filter ist ein Problem, ein scheinbar oder offensichtlich unlösbares, aber wieso hat der Hack von Vitaliy den MUD bei den AVCHD-1080p-Aufnahmen der GH13 beseitigt. Vor dem Hack war es einfach matschig, wenn man z. B. viel "Grünzeug" mit im Bild hatte: Wirklich ein total vermatschtes Bild: Und nach dem Hack ist das weg . . .????

Die "Gemeinde", Vitaliy und Barry Green (hat das irgendwann auch mal bemerkt), dass die Beseitigung der 17 MBit-Begrenzung der GH1 hierzu beigetragen hat . . .

Wie ist das zu verstehen?

LG

Space


Antwort von WoWu:

Ich weiss leider nicht was MUD ist.
Aber Eingriffe in die Bildverarbeitung führen selbstverständlich zu Bildveränderungen.
Nur muss man deutlich unterscheiden zwischen dem Codec und der Bildverarbeitung. Diese beiden "Abteilungen" haben im ersten Ansatz nichts miteinander zu tun. Allerdings beeinflusst die Bildverarbeitung den Codec, weil beispielsweise Bildrauschen ein Encoding stärker beansprucht, als ein Bild ohne Rauschen. Auch Unschärfe beeinträchtigt die Effizienz des Codec.
Also, ein Eingriff in die Bildverarbeitung kann leicht zu einer Ineffizienz führen, aber auch anders herum .... schärfe ich ein Bild künstlich, arbeitet ein Encoder effizienter. Das führt aber allerdings lediglich zu einer geringeren Datenrat. Natürlich treten gleichzeitig die Nebeneffekte auf. Speziell bei Kantenaufsteilung, die man nur begrenzt einsetzen sollte. Aber natürlich, das Bild wirkt weniger "matschig".
Ich weiss nun nicht, ob das die Ursache war, aber tippe mal auf so etwas.
Erhöht man durch den Hack lediglich das übertragene Datenvolumen, wird nicht mehr als die ohnehin zur Verfügung stehenden Bildinformationen übertragen. Die Datenpakete werden "gestuffed", also mit Nullen aufgefüllt.
Ich vermute mal, dass die Eingriffe in der Bildverarbeitung stattgefunden haben und weil beispielsweise auch nur geringe Kontrastveränderungen bereits zu einem deutlich anderen Eindruck führen, so ein vermeintlich besserer Bildeindruck entstanden ist.
Aber an den Codiertools lässt sich mit einem Hack nichts mehr verändern und erst recht keine neuen, besseren Tools einführen.
Und allein die Erhöhung der Datenrate bringt, ohne bessere Tools, überhaupt nichts.
Es ist schade, dass solche Hacker das, was sie tun, nicht transparent kommunizieren, dann wären solche Hacks auch nachvollziehbar. Statt dessen hüllen sie sich in mysteriöses Schweigen.

Und Leute, wie Vitaly und BG leben von Clicks auf ihren Webseiten und nicht davon, schlichte Zusammenhänge aufzudecken .. ganz im Gegenteil.
"Serve the customers expectations".

Space


Antwort von meawk:

Danke Wolfgang,

ist schon mal eine Erklärung, warum der hack dann doch irgendwie zu einer Bildverbesserung bei 1080p der GH1 geführt hat. Insofern werde ich demnächst mal testen, ob auch ohne die MBit's drastisch zu erhöhen, der Matsch dann auch weg bleibt.

Inzwischen bin ich auch nicht mehr ganz sicher, dass z. B. GOP 1 und dann 100 MBit ein besseres AVCHD-Bild produziert als z. B gemäßigte 35MBit (Durchschnitt) mit GOP 5 usw.

Die AVCHD-Geschichte bleibt für mich noch etwas verworren bis unklar . . .

Bei MJPeg ist für mich die Sache klar: Hier hat der Hack viel gebracht.

OK - ich schweife jetzt fundamental vom Thema der AF 100/101 ab. Daher, die Amis haben den Test von SlashCam auch gelesen und das große Jammern beginnt, da die GH2 besser auflöst. Da bricht für einige eine Welt zusammen - köstlich . . .

LG

Spass am Rande: @Pilskopf, ich denke, ich kauf mir auch noch eine GH2 ;) - denn eine Kamera über die so herrlich diskutiert wird und jetzt der AF 100/101 Probleme macht, muss man besitzen, die wird Kult.

Space


Antwort von WoWu:

Alles klar LG.
Aber ich muss nocheinmal kurz widersprechen.
Die GH 2 erkauft die höhere Auflösung durch deutlich höheres Moiré.
Panasonic hat vermutlich die Abwägung treffen müssen und sich für die geringeren Artefakte entschieden, weil sie im bewegten Bild natürlich eklatanten sind.
Und weil die GH2 eigentlich eine Fotokamera ist, hat jeder eigentlich die richtige Entscheidung getroffen, denn was nutzt ein scharfes Bild, mit dem ich nicht alles filmen kann.
Insofern steht es 0:0, weil beide Systeme ihre Macken haben.

Space



Space


Antwort von meawk:

LG - steht für "liebe Grüße" Wolfgang. Und so ist das auch gemeint!

0:0 ist schon mal eine Hausnummer für eine über fünf mal preiswertere Kamera - da bin ich Realist. Dieses 0:0 ist ein stark gefühltes 1:0 für das Konzept der GH2.

Man werden sich die Amis in der nächsten Zeit die Köpfe heiß reden, jeder versucht vehement seine Kaufentscheidung zur AF 100 irgendwie zu rechtfertigen - und da sind wir wieder bei einem alten Thema - seit die D90 die Branche revolutioniert hat (!?): wer braucht eigentlich mehr als eine GH13, GH2 bzw. eine 5D II oder 550D zu filmen, wenn man dann auch noch sehr gute Fotos damit machen kann? Ich sage: Nur diejenigen, die wirklich Film machen. Und die kaufen eine ARRI etc. Alles andere geht mit schmalem Budget.

Liebe Grüße (LG)

Space


Antwort von MarcTGFG:

Alles klar LG.
Die GH 2 erkauft die höhere Auflösung durch deutlich höheres Moiré. Ähm, also auf dem ISO-Testchart hat doch die GH2 deutlich weniger sichtbare Artefakte und Moirébildung als die AF101, oder bin ich blind.

Also nochmal zusammengefasst:

Pro GH2:

+ Mehr Schärfe
+ Weniger Moires
+ Crop-Telemodus
+ Touchscreen-Fokusverlagerung
+ Touchscreen-Bedienung
+ höher auflösender (und größerer) Sucher
+ einfache Umschaltung zwischen 24p und 50i
+ weniger Pumpen beim Autofokus
+ ca. 80% günstiger

Pro AF101:

+ 422 HD SDI out, inkl. Ton
+ Sw/Sucherschaltung
+ 25p
+ 3 Sekunden Pre-Recording
+ ND-Filter
+ Live Tonaussteuerung
+ Kopfhöreranschluss
+ XLR-Anschlüsse mit Phantomspeisung
+ Peaking/Zebra
+ 2 SDXC-Slots
+ besseres internes Mikro
+ mehr Möglichkeiten zu Under-/Overcranking

Space


Antwort von Flyingdutchman:

@ meawk:

ich habe ne GH13 + GH2; und ganz ehrlich: seit ich dem GH2 habe, habe ich die GH13 nur noch angerührt, um es in / aus meiner Tasche zu packen...
Klar 24p ist nervig; aber die GH2 ist dermaßen rauscharm... Da fühlt sich das 14-140-er plötzlich an, als ob's durchgängig Blende 1.4 hätte :-)

Aber manche Nachteile bleiben - das Moiré stört mich weniger, umso mehr Banding / Posterization und das Fehlen eines Motorzooms mit dynamische Ansteuerung... Ton ist dagegen sehr brauchbar, wenn man ein gutes Mikro drauf schraubt, braucht man m. M. n. nicht unbedingt nen Zoom (also je nach Drehsituation).

Posterization soll bei der 101 übrigens auch nicht wesentlich besser sein.

lg, FD

Space


Antwort von LarsProgressiv:

Hallo WoWu,

ich hab' mal eine Frage zu der Filtergeschichte.

Woher weißt Du, dass diese Filter wirklich in Hardware eingebaut sind. Sowas lässt sich doch auch (bis zu einem guten Grade) auch in »Software« bzw. parametrisierbarer Hardware nach der Digitalisierung realisieren, oder?

Grüße
Lars

Space


Antwort von meawk:

@ meawk:

ich habe ne GH13 + GH2; und ganz ehrlich: seit ich dem GH2 habe, habe ich die GH13 nur noch angerührt, um es in / aus meiner Tasche zu packen...
Klar 24p ist nervig; aber die GH2 ist dermaßen rauscharm... Da fühlt sich das 14-140-er plötzlich an, als ob's durchgängig Blende 1.4 hätte :-)

Aber manche Nachteile bleiben - das Moiré stört mich weniger, umso mehr Banding / Posterization und das Fehlen eines Motorzooms mit dynamische Ansteuerung... Ton ist dagegen sehr brauchbar, wenn man ein gutes Mikro drauf schraubt, braucht man m. M. n. nicht unbedingt nen Zoom (also je nach Drehsituation).

Posterization soll bei der 101 übrigens auch nicht wesentlich besser sein.

lg, FD Danke für deine Eindrücke: Hab ja geschrieben, dass ich nun doch ernsthaft darüber nachdenke, sie auch zu kaufen. Mal sehen wer sie z. Z. liefern kann, dann werde ich vielleicht diese Woche noch bestellen. Hier oben, an der Küste in Nordvorpommern, hat sie noch niemand im Laden (Gut - muss ggf. mal eruieren, ob sie in Rostock zu kaufen ist . . .).

Kann ja nichts schaden: Dann habe ich beide, GH2 und GH13. Ist für das eine oder andere Projekt ja nicht schlecht, sondern von Vorteil, wenn man gleichzeitig zwei Cams einsetzen kann.

Space


Antwort von WoWu:

@ meawk

Hallo meawk, danke für die Aufklärung ... ich bin nicht so fit in den Abkürzungen, aber nun einen Schritt weiter.
Ich möchte auch noch einmal sagen, dass ich es schon ganz beachtlich finde, was die DSLRs da machen und dass ich natürlich auch den Preisvorteil FÜR die Kameras sehe. Ich betrachte es völlig neutral und wenn Hacks ein Ergebnis bringen, dass zur Zufriedenheit führt, ist das ja auch ok. Mir geht es nur darum, dass da kein X zum U gemacht wird.
Aber ich finde es eben auch gut, was so manche (hier im Forum), mit der GH2 an Ergebnissen erzielen. Es ist wirklich gut, da gibt es nix zu meckern.
Ich stehe den Hacks zwar kritisch gegenüber, aber nicht ablehnend. Das wolle ich nur noch kurz klarstellen.

@LarsProgressiv

Was die Filter betrifft:
Es bleibt eigentlich nur Hardware, weil ja eine Schwebung entsteht aus den beiden Frequenzen. Die entsteht aber quasi auf der optischen Seiten. Man muss sie also auch dort verhindern. Ist die Mischfrequenz erst einmal Teil des Nutzsignals, dürfte eine Trennung nicht mehr möglich sein. (Mir ist jedenfalls keine Methode bekannt). Und selbst wenn, dann wäre die Rechenpower immens, weil es sich ja nicht um eine konstante Frequenz dabei handelt. Schaut man sich auch einmal die Prozessverteilung in einem Camcorder an, fällt sofort auf, dass bei heutigen Camcordern sogar bereits Prozesse abgebrochen werden, weil die Rechenleistung nicht ausreicht. Da wäre ein solcher Prozess mehr als schädlich, so es ihn gäbe.
Daher der Schritt zur optischen Lösung.

Space


Antwort von LarsProgressiv:

Hallo!

WoWu, die Schwebung entsteht doch eigentlich nur durch die Lücke zwischen den Abtastpunkten. Wenn aber alle Digitalisierungspunkte eines Sensors benutzt würden (also volle Auflösung), könnte man Filter durchaus nach der Digitalisierung einsetzen, denke ich.

Solche Filter sind eigentlich nicht so rechenintensiv oder könnten einfach in Hardware gegossen werden.

Aber vermutlich spielt das die gewünscht Bildrate mit rein.

Jedenfalls habe ich das bisher immer gedacht.

Grüße
Lars

Space


Antwort von Flyingdutchman:

Was mich allerdings etwas wundert: wieso tragen die Fotos mit x-facher Auflösung keine nachteilige Effekte weg von diesem optischen Filter?
Weil die GH2 löst sehr fein auf, und die 7D (die dafür bekannt ist, dass das Bild im Videomodus relativ weich ist, wahrscheinlich wg. LP-Filter) im Fotomodus auch...

Wäre auch viel logischer, das Moiré herauszufiltern, nachdem das auf 1920x1080 herunterskaliert wurde - oder sehe ich da etwas falsch? Ich bin ja nicht so der Techniker ;)

fd

Space


Antwort von Filmo:

nebenbei....

auch ein Weg?



http://forums.dpreview.com/forums/read. ... e=37719405

Space



Space


Antwort von LarsProgressiv:

Hallo Flyingdutchman,

soweit ich das verstehe, wird ein Filter unter anderem durch den Skalierungsalgorithmus implementiert.

Der Algorithmus entscheidet, welche Artefakte übrigbleiben/entstehen.

Und wenn der Filter schon im optischen System eingebaut ist, begrenzt er die Auflösung. Also dürfte dieser bei filmenden Fotoapparaten keinen Einfluss auf das Videomaterial haben, da deren Optik auf die höher auflösenden Fotos optimiert sein sollte.

Oder ich verstehe etwas grundlegend falsch.

Grüße
Lars

Space


Antwort von ThomasKluge:

Ich hatte am Wochenende die Möglichkeit, einen Profi zu fragen, der zufällig genau die AG-AF101 zu Testzwecken ausgeliehen hat und von ihr begeistert ist. Mir ist selbst als Laie aufgefallen wie gut diese Cam ist. Die Aufnahmen wurden in Dämmerlicht oder völliger Dunkelheit, nur bei Schaufensterlicht geschossen und ich konnte keinerlei Rauschen erkennen, Dynamik einfach Klasse.

Als ich ihn aber fragte, ob ich denn damit Aufnahmen frei Hand mit Autofokus machen könne, riet er mir ab und meinte: So etwas tut man mit dieser Kamera nicht und der Autofokus wäre eh zu langsam und die Cam dafür zu schwer handhabbar. Ist das so? Muss ich mir das aus dem Kopf schlagen?

Space


Antwort von ThomasKluge:

Pro GH2:
+ Weniger Moires Also ich glaube alles, aber das nicht. "So gut wie kein Aliasing oder Moire" ist für Panasonic eines der Schlüssel-Features für die AG-AF101 im Vergleich zu herkömmlichen DSLRs zu denen ich auch die GH2 zähle.

Space


Antwort von WoWu:

@ Lars
Der Abstand zwischen den Pixels spielt in diesem Zusammenhang keine Rolle, weil schon das De-bayering hier greift.
Die hier angesprochene Schwebung entsteht durch die unterschiedlichen Auflösungsfrequenzen des Objektivs und des Sensor Binnings.
Das Objektiv ist auf den gesamten Sensor abgestimmt und liegt so bei 80 lp/mm. Der gebinnte Sensor setzt aber nur etwa 20 Lp/mm voraus.
Dazwischen liegt das Problem.
Rausrechnen aus dem fertigen Signal ist nicht möglich. Allgemein wird das Bluren eingesetzt, wenn keine HW zum Einsatz kommt.
Aber so, oder so läuft es auf Unschärfen hinaus.

@Filmo
Das Beispiel ist keine Lösung, weil die Probleme ganz vorn am Sensor entstehen und im beschriebenen Fall nach wie vor im Signal enthalten sind.

@Flyingdutchman
Die DSLR haben keine Filter, die die Ortsfrequenz soweit herabsetzt. Und weil die Objektive auf die volle Sensorauflösung abgestimmt sind, gibt es auch keine Moiré Effekte, mal ganz davon abgesehen, dass sie in Stills auch nicht so auffällig sind.
Das Problem entsteht erst, wenn die hohe Sensorauflösung auf HD gebinnt wird, ohne dass man das Objektiv gegen ein angepasstes Teil austauscht. (Was es aber nicht gibt). Um dann das Moiré zu überdecken, blured man das Bild.
Aber genau das ist ja das Problem, egal, ob Hardware oder Software im Einsatz ist.

Manchem mag es ja sogar gefallen, weil es ein mehr "filmischer" Look ist. Nur dass das Chrom ausbrennt, ist eigentlich weniger "filmisch".

Space


Antwort von MarcTGFG:

Pro GH2:
+ Weniger Moires Also ich glaube alles, aber das nicht. "So gut wie kein Aliasing oder Moire" ist für Panasonic eines der Schlüssel-Features für die AG-AF101 im Vergleich zu herkömmlichen DSLRs zu denen ich auch die GH2 zähle. Die ISO-Charts sieht jedenfalls besser aus mit der GH2 als mit der AF101. Im Fazit schreibt Slashcam dann plötzlich, dass die AF101 deutlich weniger Moiree habe. Gesehen hab ich das aber nirgendwo.

Space


Antwort von cmartis:

Was die Filter betrifft:
Es bleibt eigentlich nur Hardware, weil ja eine Schwebung entsteht aus den beiden Frequenzen. Die entsteht aber quasi auf der optischen Seiten. Man muss sie also auch dort verhindern. Ist die Mischfrequenz erst einmal Teil des Nutzsignals, dürfte eine Trennung nicht mehr möglich sein. (Mir ist jedenfalls keine Methode bekannt). Und selbst wenn, dann wäre die Rechenpower immens, weil es sich ja nicht um eine konstante Frequenz dabei handelt. Schaut man sich auch einmal die Prozessverteilung in einem Camcorder an, fällt sofort auf, dass bei heutigen Camcordern sogar bereits Prozesse abgebrochen werden, weil die Rechenleistung nicht ausreicht. Da wäre ein solcher Prozess mehr als schädlich, so es ihn gäbe.
Daher der Schritt zur optischen Lösung.
Hallo,

wenn wir von diesen Filter sprechen (AF 100/1), wie wird er aktiv gegen z. B. Moire?
Ich meine bei einem Motiv den man gerade filmt der Artefakte darstellen würde, würde dieser Filter nur im Bereich der Artefakte eintreten? Ich meine z. B. bei einer Steinwand mit einer Person, würde die Wand "weicher" prozessiert als die Person im Vordergrund? Oder würde dieser Filter den ganzen Frame prozessieren unabhängig von was dieser Frame enthält?


mfg,

Cmartis

Space


Antwort von LarsProgressiv:

Hallo WoWu,

ich denke eher, dass das sogenannte line skipping für das Moiré verantwortlich ist und nicht das pixel binning.

Ansonsten müsste dieser Moiré-Effekt auch bei Filmen aus herunterskalierten Einzelbindern (Photos der Originalauflösung) auftreten.

Was wird denn bei den GH-Modellen von Panasonic eingesetzt Binning oder Skipping?

Grüße
Lars

Space


Antwort von WoWu:

Diese Filter schneiden die Ortsfrequenz etwa 10% unterhalb der Nyquistfrequenz ab.
Je tiefer also die Frequenz liegt, umso tiefer muss das Filter greifen.
Weil hier der Unterschied der beiden Frequenzen aber sehr groß ist und die daraus resultierende Frequenz relativ niedrig, muss ein Filter greifen, dass stark in den Auflösungbereich eingreift.
Daher werden die Bilder so weich.
Wäre die Differenz klein, müsste man nur die oberen Frequenzbereiche begrenzen und die Unschärfe würde nicht so auffallen.

Space


Antwort von WoWu:

@ LarsProgressi
Canon sagt: Binning. Skipping würde auch nicht zur Veränderung der S/N Ratio führen. Der Zuwachs an Empfindlichkeit deutet aber klar darauf hin.
Eine Ratio von 6:1 wäre mit Lineskipping nicht annäherungsweise zu erreichen.
Einmal davon abgesehen, dass kein Hersteller gut beraten wäre, auf Photonen, die am Sensor Elektronen erzeugt, in der Verarbeitung zu verzichten.
Das Märchen vom Lineskipping ist entstanden, weil ein paar Leute Patterneffekte, die beim Binning entstehen, nicht deuten konnten und sie der Einfachheit halber zu Skipping Effekten erklärt haben, ohne aber auch die Nebeneffekte die bei Bildmanipulatioen am Sensor entstehen, zu achten.

Space



Space


Antwort von LarsProgressiv:

Hallo WoWu,

ja, ja. Du magst bei den Frequenzen ja Recht haben, aber nur ist das noch kein Grund für Moiré.

Die Filter arbeiten unterschiedlich und dadurch entstehen unterschiedliche Effekte. Einfache Filter haben halt für Videoprofis unangenehme Nebenwirkungen.

Insofern steht immer noch die Frage, ob die Filter nicht doch digital umgesetzt sind und wenigstens theoretisch durch eine Firmwareanpassung der AF101 geändert/verbessert werden könnten.

Grüße
Lars

Space


Antwort von WoWu:

Lars,
Du kommst aber an den Gesetzmäßigkeiten nicht vorbei, egal ob Du HW Filter oder digitale Filter benutzt.
Die Nyquistfrequenz steht nun mal fest, Auflösung des Sensors ist eine Konstante und die Ortsfrequenz des Objektivs (bezogen auf das verwendete Teil) ebenfalls.
Ich gehe einmal davon aus, dass Panasonic die Werte ins Optimum gebracht hat, egal ob HW oder SW.
Betrachtet man auch einmal die Kurve der Camera, wie sie Slashcam veröffentlicht hat und gehen wir einmal davon aus, dass kein Messfehler vorliegt, dann sieht man auch bereits ganz klar, das nächste Schwebungsmaximum. Das bedeutet aber, wenn man die Auflösung der Filter heraufsetzen sollte, man unmittelbar in diesem Moiréanteil landen würde.
Daher halte ich es für obsolet, darüber zu spekulieren, ob Pana HW oder SW eingesetzt hat, denn mit einer Manipulation der SW landet man unmittelbar in der Traufe.

Space


Antwort von LarsProgressiv:

Hallo WoWu,

ich denke, Dir wieder widersprechen zu müssen.
Dass die Nyquistfrequenz fest steht, ist klar. Der optische Filter soll die »schlechten« Ortsfrequenzen herausfiltern, damit das Herabsetzen der Abstastfrequenz – und damit die herabgesetzte Nyquistfrequenz – kein Moiré erzeugt.

Das optische Filtern kann man aber auch lassen, wenn man gute, digitale Filter auf die native Sensorauflösung anwendet.

Im speziellen Fall (AF101) magst Du recht haben, _aber_ im Allgemeinen kann man auch (SW-) Filter bauen, die kein Moiré verursachen.

Andernfalls könnte man nie herunterskalieren ohne Moiré entstehen zu lassen.

Bei der AF101 ist der Filter vermutlich festgelegt. Dem will ich nicht wiedersprechen. Aber es könnte auch anders sein.

(Warum schreiben eigentlich einige AF100 und andere AF101?)

Grüße
Lars

Space


Antwort von WoWu:

Nee, Lars da werden keine Frequenzen herausgefilter, weil die Fehlinformation bereits Teil des Signals ist. (herausgefiltert heisst ja immer Teile eines Spektrums, hier geht es aber um Pass-Filter)
Und auch Filter "verursachen" kein Moiré sondern wirken der Moirébildung entgegen.

Durch die unterschiedlichen Ortsfrequenzen werden überlappende Helligkeitswerte im Sensor generiert, was dazu führt, dass sie erst gar nicht korrekt am Sensorausgang vorliegen. Es handelt sich also um eine Fehlinformation, die gar keine korrekte Bilddarstellung mehr gewährleistet. Um diese Fehlinformation nicht mehr wirken zu lassen, wird das Signal spatial durch einen Low-Pass Filter so abgeschnitten, dass die Falschinformation nur noch so um die 15% des Bildsignals hat. Diese Filterabstiummung kann ich beeinflussen, bei Software sowohl im Einsatzpunkt (lege ich sie Tiefer, habe ich ein weicheres Bild, lege ich sie höher, habe ich Moiré) als auch in der Flanke (mache ich sie flacher, bekomme ich ein weicheres Bild und Moiré nimmt zu, mache ich sie Steiler, bekomme ich Überschwinger. Die aber sind unberechenbar, weil sie vom Bildinhalt abhängen).
Und das gilt für alle Filter, die an solchen Stellen eingesetzt werden.
Also selbst, wenn man per Hack eingreifen würde, kann man zwar Parameter verändern, handelt sich aber immer andere Nachteile ein.
Man kann das Bild dann zwar in der Form geschmacklich schöner finden aber das heisst nicht, dass es besser geworden ist.

AF100 benutze ich immer, weil wir im 60Hz Raum angesiedelt sind und solche Sachen natürlich unabhängig davon, ob ich AF 100, 101, 106 oder was auch immer benutze denn die letzte Kennziffer sagt ja nur etwas über das Verkaufsland, aber nur wenig über das Gerät aus.

Space


Antwort von rush:

Viele Panasonic-Geräte aus dem EU-Raum sind ja mittlerweile auch umschaltbar zwischen 50Hz u. 60 Hz

Space


Antwort von nomad-3:

Hi Wolfgang,

da ich auch gerade beide Kameras (GH2 und AF101) gründlich teste, muss ich mal meinen Senf dazu geben.

Grundsätzlich hast Du auf der Seite der Physik (Nyquist/Shannon) völlig Recht – da kann man einfach nicht widersprechen und kein Vitaly wird irgendwas daran ändern.

Ich bin auch sicher, dass Sony mit der F3 richtig liegen wird, indem ein für Full-HD optimierter Sensor verwendet wird, der dann natürlich einen optimal angepassten OLPF bekommt (siehe EX1/3). Dass sie es inzwischen peinlich vermeiden, Pixeldaten dran zu schreiben, ist sicher naiven Pixelfanatikern geschuldet, die man nicht vergraulen möchte. Insofern ist übrigens der irgendwo im Thread geäußerte Wunsch nach 50 mpx auch Quark, da keine Optik der Welt das derzeit bei einem Sensor unterhalb Mittelformat auflösen könnte – schon mit den 4K (eigentlich 3,2) bei der RED kann ich teure Filmoptiken gegeneinander testen. Übrigens hat die RED einen perfekt auf 4K (eigentlich 4,5) abgestimmten OLPF, und das Material wird so aufgezeichnet (quasi bis zu 120 Fotos per Sekunde). In der Post kann ich dann jeden aufwändigen Skalierungsalgorithmus der Welt darauf loslassen, falls ich nur HD brauche – mit entsprechend guten Ergebnissen!

Zurück zu Panasonic. Wirklich interessant sind folgende Punkte:

– der Sensor der GH2 ist nicht identisch mit dem der AF100!
– die Abstimmung des OLPF ist für Foto optimiert, klar
– sieht man auch, wenn man in's Windowing (erw. Zoom) geht, keinerlei Moiré
– die Softwareskalierung ist besser und macht weniger Moiré
– die Spitzlichter werden besser verarbeitet (s. Good, Bad, Ugly)
– das Handling ist Sch…e und der Ton nur begrenzt brauchbar

Ich kann daraus nur folgendes schließen, dass völlig verschiedene Entwicklerteams daran gearbeitet haben oder unterschiedliche Marketingvorgaben hatten. So etwa:
Bei der GH2: "Zeigt Canon, wo der Hammer hängt!"
Bei der AF101: "Greift Euch einen mFT-Sensor aus dem Regal und baut schnellstmöglich eine Videokamera drumrum!"

In der reinen Bildqualität schlägt die GH2 die AF100. Schade nur, dass sie bei der offensichtlich vorhandenen Prozessorleistung nicht auch noch mehr Zeitlupe beim Windowing bieten und noch ein paar Bugs in der Firmware haben.

Mein Fazit: Wenn ein hochpixeliger Fotosensor einen darauf optimal abgestimmten OLPF besitzt, kann man trotzdem noch beim Herunterskalieren Mist bauen. Oder genug Rechenleistung reinpacken…

Gute Grüße,

Uli

Space


Antwort von groover:

@Uli
Wie groß ist eigentlich der Unterschied der beiden Geräte im Bezug auf Schärfe?
Sprich, ab welcher Größenordnung wir das sichtbar?

Ich wäre dir sehr dankbar wenn du etwas dazu sagen könntest.
Danke.
LG
groover

Space


Antwort von LarsProgressiv:

Hallo Uli,

warum sollte man bei einem Sensor, der mit seiner Auflösung an das Endmaterial angepasst ist noch einen OLPF einsetzen? Des Bayers wegen?

Danke
Lars

Space


Antwort von nomad-3:

Du brauchst IMMER einen OLPF – bitte schau mal bei Wikipedia zu Nyquist/Shannon…

Space



Space


Antwort von nomad-3:

@Uli
Wie groß ist eigentlich der Unterschied der beiden Geräte im Bezug auf Schärfe? Minimal, an sich siehst Du das nur auf 'nem ISO-Chart…

Beide sind viel besser als 5D oder 7D.

Das Objektiv hat mehr Einfluss in der Praxis. Wobei die Plastiktüten von Panasonic für den Preis knackscharf sind.

Space


Antwort von LarsProgressiv:

Das Theorem ist mir bekannt.
Aber diese OLPF sind doch etwas, was erst bei digitalen Kameras verwendet wird, oder waren die schon in den analogen Kameras mit dabei?

Die Abstände der Pixelsensoren müssen ganz schön groß sein, wenn man IMMER einen Filter benötigt.

Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter. Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon). Also war für mich nur noch das Bayermuster als Grund für einen Filter in nicht Foveon-Kameras übrig.
Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe.

So verstehe ich das, wenn der Filter den Zweck hat, Moiré zu verhindern, aber vielleicht hat er eine andere Aufgabe?

Ansonsten werden natürlich oft IR-Filter eingesetzt, aber das ist ja was anderes.

Ich versteh's immer noch nicht.

Grüße
Lars

Space


Antwort von nomad-3:

"Das Theorem ist mir bekannt." Aber unverständlich ;-)

"… oder waren die schon in den analogen Kameras mit dabei?"
Beim chemischen Film nicht, der hat ja kein regelmäßiges Raster, sondern unregelmäßiges Korn. Bei analogen Chipkameras schon.
Übrigens: Unsere Sensoren sind immer noch analog…


"Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter." Falsch!

"Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon)." Falsch. Selbst bei Schwarzweiß brauchst Du ihn. Es gibt Luma-Moiré und Chroma-Moiré (bei Canon-DSLRs sehr schön zu beobachten).


"Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe." Falsch.
Die einzelne Fotozelle misst nur ein diskretes Signal und hat keine Ahnung von ihrer Ausdehnung… Somit quantisiert sie in der Fläche!

Hilft das? Trifft übrigens auch alles bei digitalem Audio zu.

Ich versuch es noch mal mit einem Gedankenexperiment:

Stell Dir ein Schachbrettmuster mit exakt 1920 x 1080 schwarzen und weißen Quadraten vor. Richte eine Full-HD Kamera darauf, die ganz große Pixel ohne nennenswerten Rand hat. Wir nehmen mal an, dass die Optik absolut verzeichnungsfrei wäre…

Justiere die Position so genau, dass jedes Quadrat auf eine Photozelle fällt (das sind ja eigentlich noch keine Pixel). Was siehst Du auf dem Full-HD Monitor?
Genau: 1920 x 1080 schwarze und weiße Quadrate. Nun hauche mal gegen das Stativ, so dass es sich um ein halbes Quadrat verschiebt…

Was siehst Du jetzt? Richtig: Grau!
Leider ist keine Optik so perfekt. Und perfekt waagerecht wird's wohl auch kaum…

Gute Grüße,

Uli

Space


Antwort von cantsin:

Das Objektiv hat mehr Einfluss in der Praxis. Wobei die Plastiktüten von Panasonic für den Preis knackscharf sind. Allerdings fragt sich, wieviel die Kamera dabei schoenrechnet. Das besondere des Micro Four/Thirds-Standards ist ja, dass Objektive kein optisch sauberes Bild mehr an den Sensor liefern muessen, sondern z.B. mit Tonnenverzeichnung, chromatischen Aberrationen etc. designt und in der Objektiv-Firmware ausgewiesen sind, so dass die Kamera die Bilddaten wiederum in ihrer Firmware korrigiert. Auch das 20mm-Pancake hat z.B. eine per Firmware/Software korrigierte Tonnenverzeichnung.

Space


Antwort von nomad-3:

Völlig korrekt, das wird ja auch bei Camcordern schon länger so gemacht (s. anfänglicher Firmware-Bug der EX-1). Ist aber auch nicht unvernünftig: Jedes Objektiv ist ein schwieriger Kompromiss zwischen CA, Verzeichnung, Vignettierung, Schärfe, Zoombereich und Lichtstärke (und Preis…).

Wenn ich jetzt weiß, dass ich drei Faktoren in Software rausrechnen werde, kann ich mich auf die verbleibenden Faktoren konzentrieren, hier also Schärfe und Zoombereich (die Lichtstärke ist ja bei den Zooms nicht so dolle) oder Schärfe und Lichtstärke (beim Pancake). Wen wunderts da noch, dass ich für relativ kleines Geld so gute Bilder bekomme.

Vergleicht das mal mit einem Optimo-Zoom für den Preis einer Eigentumswohnung!

Space


Antwort von WoWu:

Das Problem ist nicht der Sensor oder die Filtermaske, das Problem entsteht zwischen Objektiv und dem Sensor. Diese Abstimmung ist relevant.
Stimmen die Ortsfrequenzen des Objektivs und des Sensors überein, wird es zu keiner Mischfrequenz kommen. Weichen aber die beiden Frequenzen voneinander ab, so treten Additionen/Subtraktionen auf. Man spricht auch von der "Rückfaltung des Signalspektrums in sich selbst".
Ein großer Sensor hat entsprechend viele Pixels, sodass sich über den Sensor rd. 60-80 Lp/mm ergeben. darauf sind die Objektive abgestimmt und liefern diese Leistung ebenfalls.
Binne ich nun aber den Sensor aus 4x4 zu 1x1, mache ich aus 16 Pixels also 4 Pixels, erhalte ich nur noch eine Sensorauflösung von rd. 15-20 Lp/mm. Das Objektiv hat aber nach wie vor 60-80 Lp/mm. das bedeutet, dass ein (großes) Pixel auch Anteile aus Auflösungen bekommt, die für den Nachbarpixel bestimmt sind. Die Leinpaare sind also kleiner als ein Pixel und nicht abgestimmt auf das Pixelraster.
Es enteht also aus der Frequenz des Objektivs und der Frequenz des Sensors, eine dritte Frequenz. Die Schwebung. Diese Schwebung ist das eigentliche Problem.
Das ist die Rückfaltung. Wenn diese sich mit dem Signal mischt, spricht man von Aliasing. Das Signal enthält dann also diese Fehlinformation, also die Bildfehler.
Mit dem Low-Pass Filter versucht man nun, die Ortsfrequenz des Objektivs so zu begrenzen, dass sich Sensor und Optik wieder annähern. Man schneidet also die hohen Frequenzen, also die "Schärfe" ab, um weiter in die Nähe von 20 Lp/mm zu kommen.
Und das wars schon.... es entsteht weniger Rückfaltung und damit im Bild weniger Aliasing. Leider wird es aber eben auch unscharf dadurch und Filter können diese Frequenz aus einem bereits gemischten Signal nicht mehr entfernen, weil die Frequenz auch mit dem Detailinhalt variiert. Siehe Aliasing im Bild. Man kann nur die Rückfaltung minimieren.
Die Bayermaske und alles, was dahinter passiert ist eigentlich irrelevant für das Thema.
Auf der Grafik sieht man, dass die Auflösung mit zunehmender Ortsfrequenz nicht größer wird, sondern dass Falschinformationen ein zufälliges Bild erzeugen.

Space


Antwort von freezer:

@ WoWu

Wenn Du mir Deine e-Mail-Adresse gibst, dann schicke ich Dir einen Link auf meinem Server von Testaufnahmen mit der Sony F3. Ich kann das Rohmaterial aus rechtlichen Gründen leider nicht einfach online stellen, da Persönlichkeitsrechte gestreift werden.

Dann kannst Du Dir selbst ein Bild von der Aufnahmequalität machen.

lg, Robert

-> robert (.) niessner (@) laufbildkommission (.) com

Space


Antwort von WoWu:

Hallo Robert,
Das würde ich gern.
Nimm doch einfach den:
info(at)auberge-tv.com

Vielen Dank im vorab.

Space


Antwort von jogol:

@WoWu
Super erklärt.

Space


Antwort von LarsProgressiv:

Hallo Zusammen,

"Das Theorem ist mir bekannt." Aber unverständlich ;-)

"… oder waren die schon in den analogen Kameras mit dabei?"
Beim chemischen Film nicht, der hat ja kein regelmäßiges Raster, sondern unregelmäßiges Korn. Bei analogen Chipkameras schon.
Übrigens: Unsere Sensoren sind immer noch analog…


"Wenn die Abstände der Sensoren gegen Null gehen, braucht man meines Erachtens keinen Filter." Falsch! Begründung?
"Zumindest im Idealfall, wenn alle drei Farben am selben Ort digitalisiert werden (Foveon)." Falsch. Begründung? Selbst bei Schwarzweiß brauchst Du ihn. Es gibt Luma-Moiré und Chroma-Moiré (bei Canon-DSLRs sehr schön zu beobachten). Das ist klar, solange ich einen Abstand zwischen den Sensoren habe. Allerdings ist das hier bei den Canons ein Mischung von Gründen, da die wohl alle Bayersensoren haben, oder?

"Der Zusammenhang zwischen einem OLPF und dem Nyquist/Shannon ist, dass die Signale nur zu einem bestimmten Zeitpunkt bzw. an einem singulären Ort gemessen werden. Würde die Messung den gesamten Abstand zwischen den Abtastungen ausfüllen, bräuchte man keinen Filter, da dieser ein Mittel aller auf ihn treffenden Signale messe." Falsch. Begründung? Der folgende Satz ist jedenfalls keine. Die einzelne Fotozelle misst nur ein diskretes Signal und hat keine Ahnung von ihrer Ausdehnung… Somit quantisiert sie in der Fläche! Na endlich, genau das meine ich, Du veranschaulichst es ja selber weiter unten. Der »singuläre Ort« meint, der Pixelsensor hat eine Ausdehnung, von der im Theorem nicht ausgegangen wird! Das Theorem »lebt« davon, dass das Pixel keine Ausdehnung aber einen Abstand zu seinem Nachbarn hat.
Hilft das? Trifft übrigens auch alles bei digitalem Audio zu. Genau! Stell Dir mal vor, die Digitalisierung der Schallschwingung passiert nicht zu einem singulären Zeitpunkt, sondern über den ganzen Zeitraum bis zur nächten »Abtastzeit«. Dann entsteht kein Aliaseffekt, sondern das Signal ist (bei sinusförmigen Eingangssignal) gleichbleibend (grau).
Ich versuch es noch mal mit einem Gedankenexperiment:

Stell Dir ein Schachbrettmuster mit exakt 1920 x 1080 schwarzen und weißen Quadraten vor. Richte eine Full-HD Kamera darauf, die ganz große Pixel ohne nennenswerten Rand hat. Wir nehmen mal an, dass die Optik absolut verzeichnungsfrei wäre…

Justiere die Position so genau, dass jedes Quadrat auf eine Photozelle fällt (das sind ja eigentlich noch keine Pixel). Was siehst Du auf dem Full-HD Monitor?
Genau: 1920 x 1080 schwarze und weiße Quadrate. Nun hauche mal gegen das Stativ, so dass es sich um ein halbes Quadrat verschiebt…

Was siehst Du jetzt? Richtig: Grau!
Leider ist keine Optik so perfekt. Und perfekt waagerecht wird's wohl auch kaum… Richtig, und dabei ist unser Problem noch garnicht aufgetreten. Denn eigentlich müsste das Schachbrett eine wesentlich höhere Ortsfrequenz aufweisen, als der Sensor, damit wird unser Aliasingproblem (z.B. Moiré) bekommen.

Aber bei Deinem Versuchsaufbau, würden wir dann (fast) immer eine graues Bild bekommen, da mehrere Schachbrettquadrate durch einen Sensorpixel aufgelöst werden müssten.
Dadurch, dass diese Pixel nun aber keinen Abstand zueinander haben, kann auch kein Aliasing entstehen. Und das Bild bliebe gleichmäßig grau ganz ohne Filter.
Gute Grüße,

Uli @WoWu
Wenn durch das Binning virtuelle Pixel entstehen, die keinen Abstand zueinander hätten und deren Nutzsignal gemittelt würde, hätten wir ebenfalls keinen Filter nötig.

Hier mal einschönes Beispiel, das nur funktioniert, weil es einen Abstand zwischen den Abtastpunkten gibt.

Mir fällt immer noch nur das Bayermuster als Grund für den Abstand von Pixelsensoren ein. Weil halt die Farben nicht alle Abstandslos gemessen werden.


Grüße
Lars

Space


Antwort von WoWu:

ich weiss nicht, was Du als "ABSTAND" bezeichnest. Die lichtunempfindliche Fläche zwischen den Pixels oder die Anzahl der Pixels über eine Strecke (Fläche) ?
Das hat mit dem Mosaikfilter zunächst mal nichts zu tun.
Beim Binning entsteht nicht weiter, als dass die einzelnen Pixel so ausgelesen würden, als wären sie 4x so groß.
Ein Sensor hat also eine entsprechend kleinere Ortsfrequenz. Das Objektiv aber nicht, weil sich daran nichts ändert.
Aus diesen beiden Größen entsteht die Rückfaltung. Das hat mit dem Farbmosaik lediglich dadurch zu tun, dass anschliessend die drei Pattern unterschiedliche Rückfaltungen aufweisen und dadurch (streng genommen) 3 Rückfaltungen entstehen. Aber das spielt in dieser oberflächlichen Betrachtung nur eine nachgelagerte Rolle.
Betrachtet man nur einen Wert, so entsteht das folgende Bild.
Das Beispiel zeigt einmal nur das Missverhältnis 7:10, was in unserem Fall noch sehr viel größer ist. Daran sieht man aber schon, die Entstehung des Bildfehlers.
Man erkennt, dass auf 10 Pixels ca. 7 Hell / Dunkel Balkenpaare/ Linienpaare kommen.
Die Balkenbreiten sind jetzt kleiner als ein Pixel (etwa Faktor 0,7), so dass auf ein Pixel ein heller, aber auch noch ein gewisser Anteil eines dunklen Streifens fällt.
Das Pixel kann dies natürlich nicht mehr unterscheiden und mittelt die Helligkeit.
Daher haben die aufeinander folgenden Pixels jetzt verschieden helle Grautöne je nach Flächenanteil der hellen und dunklen Balken auf dem Pixel.
Die Helligkeitsverteilung darunter zeigt, dass jetzt nur noch drei (grob gestufte) Übergänge von maximaler Helligkeit bis maximaler Dunkelheit pro 10 Pixels erfolgen. Eigentlich sollten es aber 7 Linienpaare pro 10 Pixels sein, wie im Abbildungsmuster.
Das Bild hat von dem Punkt an keine Ähnlichkeit mit dem Objekt mehr, es besteht nur noch aus Fehlinformation! Wenn man bedenkt, dass die höchste übertragbare Linienpaarzahl gleich 5 Linienpaare pro 10 Pixels ist, so erkennt man auch die Gesetzmässigkeit für diesen eigentümlichen Informationsverlust:
Die, über die maximale Linienpaarzahl von 5 Lp/10 Pixel hinausgehenden Linienpaare (7 Lp/10 Pixel - 5 Lp/10 Pixel = 2 Lp/10 Pixel), werden von der maximal wiedergebbaren Linienpaarzahl abgezogen (5 Lp/10 Pixel - 2 Lp/10 Pixel = 3 Lp/10 Pixel) und ergeben so die tatsächlich wiedergegebene (falsche) Struktur von 3 Lp/10 Pixels. Die Kontrastübertragungsfunktion wird also an der maximal wiedergebbaren Linienpaarzahl gespiegelt.

Space


Antwort von LarsProgressiv:

Hallo WoWu,

mit Abstand meine ich die Fläche zwischen den Pixeln.

Die mathematischen Begründungen sind ja alle samt richtig. Das bezweifle ich ja garnicht.

Aber dennoch!
Ich vermute, dass beim Binning nur Pixel mit gleichem Farbfilder miteinander gekoppelt werden. Dadurch entstehen große Lücken zwischen den Sensoren, wenn es sich um einen Bayersensor handelt. Das ist der (einzige) Grund, warum diese Rückfaltungen den bekannten Effekt bewirken. Und das hat sehr viel mit dem Mosaikmuster zu tun.

Nehmen wir mal an, die Foveonsensoren haben einen vernachlässigbaren Abstand zwischen den Pixeln. Dann behaupte ich, dass Deine Rechnungen immernoch richtig sind, aber die Rückfaltung keine Rolle mehr spielt. Auch beim Binning nicht mehr.
Dann müssten, wenn diese OLPF keine andere Funktion haben, keine OLPF notwendig sein.

Du wiederholst Dich, das bedeutet, Du gehst davon aus, dass ich Dich oder die Mathematik Deiner Ausführungen nicht verstehe. Schade, das ist nämlich leider meist der Grund, warum Leute wie ich argumentieren können, bis sie umfallen, weil sie nicht ernst genommen werden.

Ich schreib's nochmal. Das Nyquist-Shannon-Theorem begründet ein Phänomen, das nur auftritt, wenn die Abtastung im Verhältnis zum kontinuierlichen Signal sehr begrenzt (signulär) satt findet, sei es nun zeitlich oder örtlich. Das bedeutet nämlich, dass es einen nicht zu vernachlässigenden Abstand (zeitlich oder örtlich) zwischen den Messungen gibt.

Grüße
Lars

Space


Antwort von WoWu:

@ Lars
Deine Befürchtung bezüglich der Akzeptanz ist absolut unbegründet. ich schätze Deine Einwände und versuche, sie nachzuvollziehen.

Was ich aus Deinen Erläuterungen jetzt sehe, ist dass wir über zwei unterschiedliche Phänomene diskutieren, weil das, was Du anführst grundsätzlich richtig ist, aber auf die Quantisierung zutrifft. Das Nyquist-Shannon-Theorem begründet ein Phänomen, das nur auftritt, wenn die Abtastung im Verhältnis zum kontinuierlichen Signal sehr begrenzt (signulär) satt findet, (sei es nun zeitlich oder örtlich). Das örtlich hab ich mal in Klammern gesetzt, weil es nicht für denselben Prozess zutrifft. Das Nyquist-Shannon-Theorem findet überall Anwendung, wo sich Frequenzen überlagern.
Dein Einwand, und auch der bezüglich der Filter (oben) trifft für den Prozess : Abtastfrequenz : Samplingfrequenz 100%ig zu.
Auch dass ein Signalverlauf ziemlich genau zurückgerechnet werden kann. Das war vermutlich das von Dir beschriebene Filter.
Das heisst, zwischen einem kontinuierlichen und einem zeitdiskreten Signal.
Da bin ich völlig bei Dir !!
Auch kann ich so Deine Darstellung unterbringen, dass eine Abtastung punktförmig erfolgen muss, damit eine Zuordnung optimal erfolgen kann. Zeitlich wäre das unendlich kurze Zeit und räumlich der unendlich kleine Raum. Das beschreibt den Öffnungsfehler( und bei entsprechend langen Signalen auch zum Fenster-fehler).
Das aber führt zum Taktverhältnis, also Impulsbreite und Abtastperiode.
Es ist also alles richtig, was Du schreibst, nur eben ein anderer, nachgelagerter Prozess. (Quantisierung) wo natürlich ebenfalls Fehler auftauchen, allerdings anderer Natur und wo selbstverständlich auch N/S Theorem zur Anwendung kommt.

Nur ... das ist eben nicht der Fehler, um den es hier geht ...
(Du sprichst über die Abtastung der zur Quantisierung und ich spreche über die Abtastung am Sensor).
Hier liegt nämlich ein analoges Problem vor, nämlich zwischen Auflösungsvermögen eines Objektives und dessen Projektion auf eine Sensoroberfläche und den daraus resultierenden Fehlern, die rein optischer Natur sind und daher auch lediglich analog, durch ein gegenständliches Filter oder die Anpassung des optischen Weges behoben werden können.

Space


Antwort von nomad-3:

Die Kurve eines Audiosignals wird bei der Digitalisierung auch nicht kontinuierlich abgetastet – auch wenn gar keine (bzw. vernachlässigbar kleine) Pausen zwischen den Samples liegen. Dadurch wird eine ursprünglich kontinuierliche, analoge Kurve quantisiert. Es wird immer über einen bestimmten Zeitraum gemittelt, bei der CD z. B. über 22,67 Mikrosekunden. Du bekommst also kleinste Treppchen, die auf keine Weise mehr rekonstruierbar machen, wie eine Kurve ausgesehen (bzw. geklungen) hat, die feinere Details aufwies, als ein Sample groß ist. Das macht aber nichts, da die Auflösung auch mit Anti-Alias Filterung über der Hörgrenze liegt. Soweit in der zeitlichen Form.

Entsprechend geht es aber bei der flächigen Form, also beim Bild, nicht um den Abstand der Sensorflächen, sondern darum, dass der einzelne Sensor kein Bild, sondern einen Helligkeitswert liefert. Er mittelt also den Wert über eine Fläche, wo ursprünglich ein kontinuierlicher Helligkeitsübergang existiert haben kann.

Bitte beachten: An dieser Stelle sprechen wir noch gar nicht von Pixeln (die haben nämlich qua Definition gar keine Ausdehnung), sondern von Fotozellen. Darauf will m. E. auch Wolfgang hinaus, wenn er von zwei verschiedenen Quantisierungen schreibt. Gespeichert wird also nur ein Wert, wo vorher eine Fläche war.

Und nun versuch bitte noch mal, das mit dem Schachbrettmuster nachzuvollziehen: Da es garantiert keine perfekte Abbildung aller Flächen auf die jeweiligen Fotozellen gibt, sondern zumindest noch Verzeichnungen des Objektivs und kleinste Winkelfehler bei der Aufstellung, bekommst Du mitnichten ein Schachbrett oder reines Grau, sondern die interessantesten Muster aus Grautönen, die absolut nichts mit dem Schachbrett mehr gemein haben…

Space


Antwort von WoWu:

Genau das zeigt die Grafik, die ich oben eingestellt habe.
Nur würde die Auflösung des Objektiv exakt der Pixel - Auflösung (bleiben wir der Einfachheit halber dabe) entsprechen, gäbe es auch wieder das Schachbrettmuster und keine Rückfaltung.
Genau da liegt eben das Problem und das lässt sich eben nur beseitigen, wenn ich die beiden Parameter anpasse, oder den Fehler durch ein Filter überdeck.
Nur dann sind eben auch die oberen Frequenzen weg und damit auch die Datails.

Space


Antwort von nomad-3:

Eben.
Wenn das Objektiv nicht mehr auflöst als der Sensor, bildet es praktisch selbst den OLPF. Es soll ja auch Leute geben, die auf der Canon bewusst "Flaschenböden"benutzen, um weniger Moiré zu haben.

Wobei das in der Praxis mit dem Objektiv auch nicht so einfach ist, da eigentlich jedes in der Mitte besser auflöst als am Rande, während der Sensor natürlich überall die gleiche Abtastung aufweist. Man müsste also die Auflösung so gering halten, dass es auch in der Mitte kein Aliasing gäbe…

Space


Antwort von WoWu:

Ja, so funktionieren ja praktisch alle Camcorder mit ihren knopfgroßen Scherben.

Aber hier legt das Problem eben genau anders herum.
Das Objektiv löst so um die 80 Lp/mm auf und gebinned wären nur so um die 20-30 nötig .... Es bring eben nix, eine Videoauflösung mit Objektiven zu realisieren, die für höhere Auflösungen gedacht sind ..... ausser eben, man liebt Moiré ....

Space


Antwort von handiro:

Die Kurve eines Audiosignals wird bei der Digitalisierung auch nicht kontinuierlich abgetastet – auch wenn gar keine (bzw. vernachlässigbar kleine) Pausen zwischen den Samples liegen. Dadurch wird eine ursprünglich kontinuierliche, analoge Kurve quantisiert. Es wird immer über einen bestimmten Zeitraum gemittelt, bei der CD z. B. über 22,67 Mikrosekunden. Du bekommst also kleinste Treppchen, die auf keine Weise mehr rekonstruierbar machen, wie eine Kurve ausgesehen (bzw. geklungen) hat, die feinere Details aufwies, als ein Sample groß ist. Das macht aber nichts, da die Auflösung auch mit Anti-Alias Filterung über der Hörgrenze liegt. Soweit in der zeitlichen Form.
Da möchte ich aber widersprechen weil ich keine digitalisierte Musik vertrage nicht nur weil ich die Treppchen höre, sondern noch viel viel mehr Verluste bei der Digitalisierung höre! Seit Karajan mit Philips dieses Verbrechen, 44,1 KHz Auflösung für ausreichend zu erklären, beging, höre ich keine digitalen Aufnahmen mehr, nur noch Live Musik. Aber nicht diese verlogenen Auftritte von Pop/Rock/wasauchimmer Bands, bei denen zusätzlich noch das Playback im Hintergrund eiert.

Warum gibts denn überhaupt noch Live Musik? Es ist doch schon alles 3 und 4mal digitalisiert.
Warum wird auch heute noch auf Celluloid gefilmt? Weil es so praktisch und billig ist?

Überhaupt hinkt der Vergleich noch mehr wenn man bedenkt, dass ein gesundes Ohr tausende male schneller ist als ein gesundes Auge!

Space


Antwort von WoWu:

@ handiro

Auch wenn"s jetzt hier nicht ganz zum Thema gehört, aber ich gebe Dir da Recht, weil der Mensch Oberwellen sehr wohl wahrnimmt, weil sie auch Sub-Harmonische bilden, die nicht nur mit den Ohren wahrgenommen werden.
Das ist nach dem Low-Pass Filter ein für allemal weg, mal ganz davon abgesehen, dass auch ein Burmester keinen Konzertsaal ersetzen kann und die optische Wahrnehmung unmittelbar mit der akustischen Wahrnehmung korrelieren muss.
Wenn ein Mensch in einen Raum geht, weiss er sofort, wie er klingt.
Da muss noch nicht ein Ton gefallen sein.
Dazu kommt noch der Umstand, dass der Mensch sich nach etwas 20 Minuten nicht mehr in der Situation wohl fühlt, wenn optische Wahrnehmung und akustische Wahrnehmung nicht mehr korrelieren.
Daher sind Aufzeichnungen, egal ob akustisch oder optisch immer ein äußerst mangelhaftes Abbild.

Aber das ist jetzt ganz sicher ein anderer Thread.

Space


Antwort von nomad-3:

Da möchte ich aber widersprechen weil ich keine digitalisierte Musik vertrage nicht nur weil ich die Treppchen höre, sondern noch viel viel mehr Verluste bei der Digitalisierung höre! Habe ich behauptet, dass ich es gut finde? Ich habe es als Vergleich herangezogen, weil ich schließlich auch Aliasing bei Kameras sehe und hasse!

Wenn unser Bildungssystem in der Lage wäre, es zu finanzieren, würde ich unsere Studenten auch lieber noch auf Zelluloid ausbilden, wie ich es 15 Jahre getan habe. Aber wir geben mit 3% des BSP eine der niedrigsten Raten der Industrieländer für unsere Zukunft aus… (Soweit mein Off-Topic Beitrag)

So, wie Ton bestenfalls mit 24/96 vernünftig digitalisiert werden kann, ist auch nur eine RED oder Alexa als Alternative zu Film akzeptabel. Leider sind das aber Alternativen, die sich kaum jemand der Leser bei Slashcam leisten kann.

Space


Antwort von groover:

wie ich diesen thread genial finde.

Schon lange habe ich nicht mehr mit solch Begeisterung so gerne mitgelesen.
Danke an die Beteiligten.

Ich verstehe eigentlich nur mehr die Hälfte (oder noch weniger) aber das macht nichts, ich lese manche Sätze zwei doppelt.

Eine Frage hab ich hier.
Heißt das jetzt, dass die GH2 und die AF101 auch mit sehr guten teuren Objektiven die Bildleistung nur "etwas" aufbessern im Vergleich zu Standardobjektiven, weil die Lp/mm im optimalen Verhältniss zum Sensor arbeiten sollen?

Zitat WoWu:
"Das Objektiv löst so um die 80 Lp/mm auf und gebinned wären nur so um die 20-30 nötig .... Es bring eben nix, eine Videoauflösung mit Objektiven zu realisieren, die für höhere Auflösungen gedacht sind ..... ausser eben, man liebt Moiré .... "



Was mich interessiert ist, ab welcher Größe realisiert denn das menschliche Auge beim Betrachen ob etwas unscharf ist und Moire im Spiel sind?

LG
groover

Space


Antwort von nomad-3:

Erst mal muss man die Kameras getrennt betrachten, weil die GH2 natürlich als Fotokamera von guten Objektiven sehr wohl profitiert. Ich habe es mal mit einem Rokkor 50mm 1,4 PG probiert (Kenner wissen, was ich meine) und die Bilder sehen toll aus.

Die AF101 wird weniger davon profitieren, andererseits haben wir ja nicht behauptet, sie habe gar keinen Aliasing-Filter – er ist nur nicht optimal ausgelegt. Meine persönliche Vermutung ist, dass sie einen Filter für die volle Auflösung hat und ein relativ schlechtes Downscaling mangels Prozessorleistung. Aber an dieser Kamera wird man doch hochwertige Filmobjektive eher einsetzen, um die Schärfe gut ziehen zu können und weniger Atmen zu bekommen.

Aliasing sieht man nur bei bestimmten Motiven, Schärfe eigentlich immer. Und noch etwas: Eigentlich ist jede Optik nur für einen Punkt perfekt scharf. Dass man überhaupt von einer Schärfentiefe sprechen kann, bezieht sich bereits auf das Auflösungsvermögen des menschlichen Auges.

Space


Antwort von groover:

alles klar........

Gibt es bei der AF101 nicht eine Möglichkeit die Schärfe intern noch etwas anzuheben?
LG
groover

Space


Antwort von nomad-3:

Ja, klar: rechts, links, rauf, runter – so viel Du willst!
Aber das ist elektronische Kantenschärfung, die auch sämtliche Artefakte wie Aliasing und Rauschen mit anschärft…

Ich dreh' sie immer ziemlich weit runter!

Space


Antwort von WoWu:

@ nomad-3
Nun bist du Deiner Zeit aber voraus gewesen, wenn Du schreibst. Aber wir geben mit 3% des BSP eine der niedrigsten Raten der Industrieländer für unsere Zukunft aus… Zumindest 2010 lagen wir noch 4,8% BIP (4,3 BSP) in die Bildung ... dennoch zuwenig. Da stimme ich zu, obwohl China nur 2,2 % investiert und mit besseren Ergebnissen aufwartet. Wollen wir aber hoffen, dass es sich nicht nach 3 % in Deutschland entwickelt.

@ groover
Natürlich kann jede Kamera von besseren Objektiven profitieren, denn die Güte beschränkt sich ja nicht nur auf eine hohe MTF sondern natürlich auch auf die zahlreichen übrigen Werte und geringen optischen Fehlern, die ein Gutes Objektiv nun einmal ausmachen.
Und weil wir hier nur über die Begrenzung der Auflösung sprechen, also das Abschneiden der oberen Frequenzen (und damit der kontrastreichen Wiedergabe feiner Details), zur Begrenzung von Artefakten, betrifft das natürlich nicht die Gesamtgüte des Objektivs.
Nur es kann natürlich vorkommen, dass auf einer AF100 der Unterschied zwischen einem Objektiv, mit nicht so hoher Leistung zu einem Objektiv hoher optischer Leistung, geringer sichtbar wird, als auf einer Kamera, in der Sensor und Objektiv aufeinander abgestimmt sind, wie das in der GH2 im Fotomodus natürlich der Fall ist.
Und Du wirst in der Nachbearbeitung die Mängel einer Optik nicht mehr ausgleichen können.

Space


Antwort von blubber:

sind die gespeicherten Daten dann direkt in 4:2:2 oder das nur über SDI out? Habe nämlich keinen SDI ANschluss am PC, was müsste ich denn dann für eine Karte kaufen?

Space


Antwort von nomad-3:

Die gespeicherten Daten sind 4:2:0, aber über SDI oder HDMI kannst Du mit einem externen Rekorder auch 4:2:2 aufnehmen.

Gute Grüße,

Uli

Space


Antwort von jwd96:

sind die gespeicherten Daten dann direkt in 4:2:2 oder das nur über SDI out? Habe nämlich keinen SDI ANschluss am PC, was müsste ich denn dann für eine Karte kaufen? Karte für den PC: z.B. Blackmagic DeckLink Studio. Gibt noch andere

Space


Antwort von blubber:

Hab gelesen das die AF101 nur ein 4:2:0 über HDMI ausgibt. Somit bleibt nur der SDI Out.
Da die Blackmagic Karten enorm teuer sind und ein Recorder wirklich preislich besser passt und mobiler ist, wird es wohl darauf hinauslaufen. GIbt es bessere passende Recorder als den HyperDeckShuttle von Blackmagic? (ich weis gerade etwas abweichend :)

Space


Antwort von nomad-3:

Wo hast Du das gelesen? Ich habe dazu sehr widersprüchliche Angaben.

Eine Karte für HDMI wie die Intensity wäre nämlich nicht teuer.

Und der Preis des Shuttle steigt steil nach oben, wenn Du über den Preis der Medien und deren Verbrauch bei unkomprimierter Speicherung nachdenkst…

Space


Antwort von WoWu:

Das stimmt auch nicht.
4:2:2 in 8 Bit + 2 Steuerbits

Space


Antwort von Jott:

Warum filmt ihr eigentlich nicht einfach mal? Musikvideos, Dokus (auch TV), Hochglanzwerbung, alles wird munter immer öfter z.B. mit Canon-DSLRs gedreht, selbst bei konservativen deutschen Öffis. Da machen sich nur noch die Jungs am Schreibtisch einen Kopf über 4:2:0-Aufzeichnung, nicht aber die Producer. Es gibt jede Menge Beispiele, auch aus Werbung mit Megabudget und voll mit Compositing/Keying.

Will meinen: 4:2:2/10Bit etc. ist gut und erstrebenswert, aber definitiv NICHT zwingende Voraussetzung für eine geile Produktion.

Zurück zu den Steuerbits!

Space


Antwort von Axel:

Kein OT: Ein neues Geschäftsmodell sieht Internetpräsenz über eigene Server vor, gut, aber recht teuer (fünfstellig), die Produktion des Videos übernimmt der Kunde nach einer Schulung. Die Tagline ist: Ein hochprofessionell aussehendes Video von 5 min Länge lässt sich mit einer 550D innerhalb von drei Stunden konzipieren, drehen und schneiden, vorausgesetzt, man befolgt straight das Schema F, das einem in der Schulung vermittelt wird. Die Schulung selbst dauert einen Tag, und es werden mehrere eindrucksvoll effiziente Beispielfilme dabei produziert. Dem Kunden wird vermittelt, dass es für das Konzept ein Bündel von Formeln gibt, und die richtige für seinen Bedarf findet er mithilfe eines kleinen Fragebogens. Aufnahme und Schnitt gelten als reines Handwerk, für das man nicht mehr braucht als das richtige Kochrezept, jedenfalls aber keinerlei besondere Erfahrungen oder Spezialausbildung, von Kreativität oder Talent zu schweigen. Frage eines Seminar-Teilnehmers: Wie erklären sich die hohen Preise professioneller Anbieter? - Vielsagendes Schmunzeln.
Für Greenscreen (mit der 550D !) ist ein einfaches Setup vorgesehen, das wie eine spanische Wand von IKEA genau nach Vorgabe aufgestellt wird. Das passende Primatte-Preset ist in dem passenden Projekt-Template bereits optimal eingestellt, das Ergebnis überzeugt die Video-Laien einmal mehr, dass die ganze Branche viel Rauch um nichts macht.

Das Rendern des fertigen Films erfolgt natürlich bei diesem DIY-Schlachten nicht in H.264 (oder AVCHD im Falle des Threadthemas). Hier ist der Knackpunkt, nicht bei der Aufnahme.

Space


Antwort von pilskopf:

Von Lutz hab ich ja jetzt gelernt, die hohen Preise der Pros kommen nicht von der Qualität sondern der Größe der Cam. Was ich im übrigen als besonders traurig empfinde. Kein Wunder dass es teils so schlechte Videos gibt die zig tausend gekostet haben, da geh ich in ein 5 Sterne Hotel und seh auf deren TVs eine Hotelwerbung die schlechter nicht sein kann. Ich wette der Typ kam mit 2 Leuten an, mit ner dicken fetten Cam die 4:2:2 kann und er hat 4 Tage gebraucht um 1 Minute Rotz zu erstellen. Aber er ist Pro und kann 4:2:2 aufnehmen.

Space


Antwort von Axel:

Ich wette der Typ kam mit 2 Leuten an, mit ner dicken fetten Cam die 4:2:2 kann und er hat 4 Tage gebraucht um 1 Minute Rotz zu erstellen. Aber er ist Pro und kann 4:2:2 aufnehmen. Kann sein, glaub ich aber nicht. Es gibt halt, wie überall, auch hier viele Pfuscher, die viel versprechen, aber keine Ahnung von den Grundregeln haben, die auf ein paar Bierdeckel passen ;-)

Bei dem oben erwähnten Geschäftsmodell wurde ja immerhin eine Menge Know How zur Verfügung gestellt. Die Skripte für unterschiedliche Anforderungen mussten ja auch erstmal erstellt werden, der Gerätepark, der dem Kunden zur Verfügung gestellt wird, getestet und der Workflow optimiert. Und natürlich gehe ich davon aus, dass ein Profi beim Schnitt dabei ist und eigentlich das Ganze leitet.
Teuer und lästig ist nicht zuletzt die Unsicherheit des Auftraggebers, was er eigentlich selbst erwartet, und dieser Faktor wird in diesem System völlig eliminiert. Der Stolz auf das "eigene" Video führt außerdem dazu, dass man monatlich die Online-Gebühr bezahlt, ohne die die Website natürlich umgehend deaktiviert würde.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


Panasonic S1: Autofokus- und 50p Slowmotion Test mit finaler 1.0 Firmwareversion
MacBook Pro 16? M1 Max im Performance-Test mit ARRI, Sony, Canon, Panasonic, Blackmagic ? Teil 1
MacBook Pro 16? M1 Max im 5K-12K Performance-Test mit Sony, Canon, Blackmagic, Panasonic ? Teil 2
MacBook Pro 16? M2 Max im Performance-Test mit ARRI, Canon, Sony, Panasonic, Blackmagic ?
MacBook Pro M2 Max im Performance-Test bis 12K RAW mit ARRI, RED, Canon, BMD, Sony, Panasonic ...
Huawei P30pro VS Sony A7III -Low light test 4k
Die Sony Alpha 6400 im (Mess-)Test - Gute Bildqualität, starker Rolling Shutter
ProGrade Cardreader Test
Blackmagic RAW Speed Test zeigt Systemleistung für BRAW an
S1H (Test)Nachtaufnahmen
Slashcam Nikon Z6 Prores RAW test?
SONY RX100 VII - kleiner Test der Bildqualität
DER ultimative Hitze Test!
The "Ultimate Full Frame Lens Test"
Wünsche für Komodo Test
DJI RS 2 und DJI RSC 2: Die neuen DJI Einhand-Gimbal im Vergleich und Praxis-Test
HARDCORE - GEAR - Test DJI RS2 mit A7s iii, Raveneye bei -25 Grad in einem Eispalast
Bemerkenswerter Reallife Test eines Käufers der Skydio 2 Drohne




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash