Newsmeldung von slashCAM:Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten
Antwort von deti:
Hier sollte man vielleicht erwähnen, dass Canon kein Skipping, sondern Binning macht. Anders wäre die erreichte Lichtempfindlichkeit im Filmmodus wohl nicht erklärbar.
Deti
Antwort von Blackeagle123:
Woher hast Du denn diese Information? Kommt die Helligkeit durch den hohen ISO-Wert?
Oft wird vermutet, dass Canon Pixel-Binning (to bin = gruppieren) nutzt. Dabei wird die Ladung mehrerer Pixel zu einer einzigen zusammengefasst. Dies würde jedoch Probleme beim Demosaiking (Entwicklung der Bildrohdaten) bereiten, denn jedem Pixel ist ein RGB-Farbfilter (Stichwort "Bayer-Pattern") vorgelagert, der beim Binning nicht mehr ausdifferenziert würde.
Genausowenig nutzt Canon eine reduzierte Sensorfläche für die kleineren Formate, denn hierdurch würden unterschiedliche Bildwirkungen (z.B. höhere Schärfentiefe) resultieren. Canon macht u.W. zwar keine konkrete Aussage, höchstwahrscheinlich werden die kleinen Formate jedoch schlicht durch kamerainterne Rechenvorgänge erzeugt (Interpolation).
Die Frage ist natürlich nur, was genau diese Interpolation ist?
Viele Grüße!
Antwort von Blackeagle123:
Würde man einen solchen Crop-Mode einführen, könnte man in diesem Modus einen relativ einfachen, digitalen Bildstabilisator integrieren.
Wieso also nicht wirklich gleich einen 4k-Modus einführen?
Viele Grüße!
Antwort von docstevie:
Und wenn wir gerade beim Wünschen sind:
Die meisten Objektive haben ja einen von der Kamera steuerbaren Autofokus-Motor (sei es Ultraschall oder ein herkömmlicher Motor) - für's Focus Pulling gibt es auf dem Markt aber nur Lösungen, die mechanisch auf den Fokusring des Objektivs aufsetzen. Eleganter wäre doch eine Lösung, die per Poti und Datenkabel an die Kamera andockt und diese entsprechende Befehle an das Objektiv selbst weitergibt. Also ohne mechanische Teile.
Antwort von JonasB:
Die 550D hat doch soetwas ähnliches, nur nicht FullHD^^
M F G
Jonas
Antwort von Blackeagle123:
die per Poti und Datenkabel an die Kamera andockt und diese entsprechende Befehle an das Objektiv selbst weitergibt. Also ohne mechanische Teile.
Nikon verbaut die Motoren in die Kamera, bin damit sehr, sehr zufrieden! Bei Canon sind die Motoren zwar im Objektiv, aber: Gab es bei dir Probleme mit der Mechanik zur Kamera?
Die 550D hat doch soetwas ähnliches, nur nicht FullHD
Wie nennt sich dieser Modus? Ist mir jetzt neu... Denn theoretisch müsstest Du ja dann andere Objektive benutzen, wenn Du diesen Modus anschaltest.
Viele Grüße!
Antwort von Blackeagle123:
Eine Frage hätte ich aber noch: Dieser "Roling Shutter" kann ,9doch nur entstehen, wenn man nicht immer jeweils die gleichen 3. Zeilen aufzeichnet, sondern einmal:
Zeilen 1, 4, 7,....
dann Zeilen: 2,5,8
dann Zeilen: 3,6,9
dann wieder von vorne...
Oder täusche ich mich da?
Dass Aliasing-Artefakte entstehen ist logisch, die würden durch ein Binning vermindert werden...
Viele Grüße!
Antwort von B.DeKid:
Die 550D hat doch soetwas ähnliches, nur nicht FullHD^^
Wo von sprichst Du nun Jonas?
Meinst Du AF Modus beim filmen?
oder
Den Zoom Modus wo man mit 640ziger x10 er Zoom Rec Modus?
MfG
B.Dekid
Antwort von Blackeagle123:
Was genau ist der Zoom-Modus und passiert dort tatsächlich genau das?
Antwort von BLNeos:
Dieser Cropmodus ist laut canonrumors in der 60D implementiert.
laut CR gibts dann den 1080p Modus, wobei nur 50% der Sensorfläche benutzt wird und den 720p Modus in dem dann eine noch kleinere Fläche (28% der Sensorgröße) benutzt wird. Ansich eine Supersacheinsofern man ausreichend potente linsen hat. Weitwinkelaufnahmen wären dadurch dann aber nicht mehr wirklich gut möglich.
Zur pro Seite gehört natürlich, dass man dann im 720p Modus mit einem 200mm filmen kann und den Bildausschnitt eines 700mm Objektivs hätte.
Abzuwarten bleibt natürlich inwiefern es dem entsprechen wird. Die Information wird auf www.canonrumors.com mit einem CR1 bewertet.
beste Grüße, www.dslrfilm.de
Antwort von deti:
Zur pro Seite gehört natürlich, dass man dann im 720p Modus mit einem 200mm filmen kann und den Bildausschnitt eines 700mm Objektivs hätte.
Was natürlich nur in der Theorie stimmt, denn die Abbildungsleistung der Objektive ist bei der Pixelgröße lange nicht mehr gut genug, was generell zu einem matschigen Bild führen kann (auch bei geringeren Brennweiten oder kleinerer Blende).
Hinzu kommt, dass die Aliasing-Effekte gerade in weitwinkligen Situationen besonders störend auffallen. Eine solche Aufnahme kann schlichtweg nicht im Crop-Modus entstehen.
Für mich bleibt die vollständige Skalierung der Eingangsdaten die einzige sinnvolle Alternative. Die Menschheit hat schon schwerere Probleme als dieses gelöst.
Deti
Antwort von WoWu:
Oft wird ver mu tet, dass Canon Pi xel-Bin ning (to bin = grup pie ren) nutzt. Dabei wird die La dung meh re rer Pixel zu einer ein zi gen zu sammen ge fasst. Dies würde je doch Pro ble me beim De mo sa ik ing (Ent wicklung der Bild roh da ten) be rei ten, denn jedem Pixel ist ein RGB-Farb fil ter (Stich wort "Bayer-Pat tern") vor gelagert, der beim Bin ning nicht mehr aus dif fe ren ziert würde.
Es ist keine wirkliche Vermutung, denn Tim Smith (Canon) hat dies anlässlich eines Vortrages vor der DigitalCinemaSociety ausdrücklich bestätigt. (Link hatte ich hier mal gepostet, schon etwas her)
Ausserdem ist die oben geäußerte Vorstellung eines Pixel Binnings (in diesem Sachzusammenhang) falsch. Dezeit gibt es rd. 30 Binningmethoden, von denen nur einmal 3 gebräuchliche (Anhang) aufgeführt sind. Während des Binnings wird kein Demosaicing vorgenommen, sondern erst aus den gemittelten Pixels.
Darüber hinaus kann, wie Deti schon angeführt hat, eine solche Lichtempfindlichkeit (und damit einhergehender Störabstand) nur aus Binning, nicht aber aus Skipping oder Windowing erreicht werden. Bis zu 7:1 wird her erreicht.
Die aufgeführte Erklärung ist zwar sehr nett anzuschauen und auch allgemein interessant, trifft aber leider auf DSRL (Canon) nicht zu.
Es nutzt das Wissen der Blogs also manchmal nur dem, der nicht alles glaubt.
Dieser "Roling Shutter" kann ,9doch nur entstehen, wenn man nicht immer jeweils die gleichen 3. Zeilen aufzeichnet, sondern einmal:
Zeilen 1, 4, 7,....
dann Zeilen: 2,5,8
dann Zeilen: 3,6,9
dann wieder von vorne...
Ich weiss nicht, ob ich das jetzt richtig verstanden habe, aber der RS entsteht ja durch das
Rücksetzen aller Bildpunkte einer Zeile, das
Integrieren aller Bildpunkte einer Zeile sowie dem
Auslesen aller Bildpunkte einer Zeile.
Erst mit dem Abschluss der Integrationsphase ist der Inhalt des Bildpunktes des Abbildes fixiert.
Man beachte, daß mit dem Beenden der Integrationsphase der Zeile 1 die Integrationsphase der Zeile 8 erst beginnt.
Würde man nun Zeilen überspringen, entstünde der RS als grobes Zickzack Muster. Das hatten wir in sehr fein ja schon im interlace Verfahren. Das muss man sich jetzt sehr viel gröber vorstellen.
Rolling Shutter ist in erster Linie durch paralleles Auslesen des Chips oder durch Erhöhung des Auslesetaktes zu vermeiden.
Antwort von JonasB:
Die 550D hat doch soetwas ähnliches, nur nicht FullHD^^
Wo von sprichst Du nun Jonas?
Meinst Du AF Modus beim filmen?
oder
Den Zoom Modus wo man mit 640ziger x10 er Zoom Rec Modus?
MfG
B.Dekid
Letzteres.
M F G
Jonas
Antwort von alibaba:
who the f... is nino leitner?
Maybe use a flippable chip ;-)
Antwort von WoWu:
@ Deti
Für mich bleibt die vollständige Skalierung der Eingangsdaten die einzige sinnvolle Alternative. Die Menschheit hat schon schwerere Probleme als dieses gelöst.
Aber nichts Anderes ist Binning doch eigentlich ... es geschieht nur an einer sehr frühen Position, um den (sonst) immensen Datenfluss zu begrenzen, der bei rd. 6,5 Gbit/s liegen würde. Selbst die K7 hat auf 4 Datenkanäle erhöht, um (lediglich) 5,2 Bilder/sec zu erreichen. Und damit ist sie mit 1,5 Gbit/s kurz vor dem Schmelzen.
Da ist Binning schon die angebrachte Methode.
Mal ganz davon abgesehen, dass der oben angegebene Blog-Inhalt auch in Bezug auf das Windowing einen ganz entscheidenden Gedankenfahler beinhaltet.
Um eine 1920x1080 HD Auflösung zu erzeugen komme ich mit einem solchen Fenster natürlich nicht aus, denn er verwechselt da Bildpunkte mit Pixels.
Für eine solche 2 Mill. "Full HD Auflösung benötige ich aber (mindestens) 6 Mill. Pixels (je 2 Mill. Rot/Grün/Blau).
Würde ich nur ein Window auf dem Sensor von 1920x1080 "öffnen" läge ich bei einer "besseren" WEB-Auflösung.
Antwort von deti:
@ Deti
Für mich bleibt die vollständige Skalierung der Eingangsdaten die einzige sinnvolle Alternative. Die Menschheit hat schon schwerere Probleme als dieses gelöst.
Aber nichts Anderes ist Binning doch eigentlich ...
Naja die Frage ist doch, wie das realisiert ist. Canon verliert dabei offensichtlich Information so, dass es zu Aliasing kommt.
Käme eine gewichtete Summe zum Einsatz, wäre das Problem vermutlich nicht mehr wahrnehmbar.
WoWu, wie siehst du das?
Deti
Antwort von WoWu:
Deinen Ansatz verstehe ich .... nur eine solche "Vollauslesung" .... und das 24/25/30 mal/sec (oder irgendwann mal 50 Mal/sec) ist nicht machbar.
Aber Du hast völlig Recht, dass Canon im Binning nicht optimal arbeitet.
Wobei ich das Binning schon für den besten Kompromiss halte, zumal sich die Mengeneffizienz dadurch beträchtlich vergrößern läßt, sicher eine der Stärken dieser Kameras.
Klar, das Aliasingproblem (oder etwas, das so aussieht) kauft man sich damit ein ...
Für mich die beste Lösung wäre ein "schwenkbares" optisches Filter, das passend zum Objektiv eine optische Reduktion vornimmt.
Illusorisch .... ich weiss, aber vermutlich eine Lösung um die maximale Detailtreue zu erreichen.
Wobei ich nicht der Meinung bin, dass es alles Aliasing ist. Vielmehr denke ich, ist es eine Frage des Abtastpattern, denn durch ungeschicktes Binning erreicht man nicht mal 1/4 der Sensorauflösung, sondern teilweise nur 1/16 oder noch weniger.
(Schau Dir mal die Grünpattern der Binnings an. Ein "normales" Binning, nach dem offenbar auch Canon arbeitet, deckt eine zu geringe Auflösung ab. (Anlage)
Ein anderes Binning würde also Abhilfe schaffen. (2) wäre so ein Beispiel, das Effekte, die nach Aliasing aussehen, in Wirklichkeit aber ein Binningeffekt sind, vermeiden würde.
Mich würde also einmal ein solches Bild in Bezug auf Aliasing interessieren, wenn solche Effekte bereits beseitigt sind.
Vielleicht greift Canon ja mal in die Portokasse und erwirbt eine solche Lizenz bei DALSA oder Kodak, oder wie immer die Rechtehalter solcher Binningmethoden auch heissen mögen.
Die "Luft" in Bezug auf Verbesserungen ist jedenfalls noch lange nicht raus.
Antwort von Gabriel_Natas:
Aliaising entsteht doch, weil die Optik höher auflöst, als der Sensor.
Durch Pixelbinning wird künstlich die Sensorauflösung verringert.
Darum gibt es einen Unterschied zwischen Pixelbinning und nachträglichem Herunterskalieren.
Das ganze ALiaising Problem ließe sich relativ simpel lösen, wenn man einen Filter aufs Objektiv schraubt, welches für FullHD ausgelegt ist und nicht für 18 MegaPixel :).
Videocams haben einen entsprechenden LowPass Filter vor dem Sensor eingebaut.
Der Filter der 550D ist aber eben auf 18 Megapixel ausgelegt und nicht auf 2.
Das Aliasing bei VDSLRs entsteht, weil bei Pixelbinning dann 9 BIldpunkte die stelle für einen übernehmen.
Das heißt aber auch, weil das ganze ein Fotoapperat ist, dass durch die Optik und den Low Pass Filter bis zu 9 unterschiedliche Lichtreize dringen können (wenn das zu filmenden Objekt detalliert genug ist), die auf diesen 9zu1 Bildpunkt auf dem Chip treffen. Das führt zu Aliaising. Auch wenn die aufgetretetenen Lichtreize gemittelt werden.
Ein entsprechender Low Pass Filter würde dafür sorgen, dass aus diesen 9 Lichtreizen einer würde (unscharf machen). Diese optische Lösung wäre zu bevorzugen, weil so gar kein aliasing entstehen kann.
Antwort von alwin:
noch ein denkanstoss ich hab mit der 550d auch im crop modus, der zwischen der 5 fach vergrösserungslupe und der 10 fach liegt moire
wie is bei der lupenfunktion aussieht muss ich nochmal nachschaun
Antwort von WoWu:
Jau, Gabriel, das ist genau, was ich meinte. Allerdings glaube ich nicht wirklich, dass Camcorder so ein Filter haben, weil die meisten Objektive schon als Tiefpass wirken und solche OLPF eigentlich für Monitore gemacht worden sind und mindestens 1mm von der Oberfläche entfernt sitzen müssen, um zu wirken. Schwer bei Sensoren machbar. Ausserdem sind die Reflektionsflächen dieser Sandwichkonstuktionen so unpräzise, dass vermutlich ein komisches Bild dabei heraus käme .... deswegen sagte ich "illusorisch".
Aber, wie gesagt, ein großer Teil, dessen was stört, ist gar nicht mal Aliasing.
Canon würde mit einem anderen Binning schon einen Schritt weiter kommen.18 Megapixel ausgelegt und nicht auf 2
Wieso 2 ? .... 6 Mpix wären das
Antwort von Gabriel_Natas:
Wieso 2 ? .... 6 Mpix wären das
Für mich sind 3 RGB Pixel ein echter Pixel :D
Dieses RGB Pixel zählen, bei der man die tatsächliche Auflösung immer dadurch ermitteln muss, dass man durch 3 rechnet, find ich doof :=).
Stimmt, Camcorder mit Festobjektiv brauchen keinen Tiefpassfilter, weil man ein perfekt auf die Kamera und den Chip angepasstes Objektiv bauen kann. Bei Kameras mit Wechselobjektiven bräuchte man so einen Tiefpassfilter, es sei denn man beschränkt sich auf wenige vorgegebene Objektive.
Die billigste Methode um z.B. die 550D oder andere Video DSLRs Aliasing-Artefaktfrei zu machen, wäre ein Weichzeichnungsfilter den man aufs Objektiv schraubt.
In den USA gibts z.B. Caprockfilter, die ganz gute Ergebnisse erzielt haben.
Antwort von deti:
Wieso 2 ? .... 6 Mpix wären das
Für mich sind 3 RGB Pixel ein echter Pixel :D
Dieses RGB Pixel zählen, bei der man die tatsächliche Auflösung immer dadurch ermitteln muss, dass man durch 3 rechnet, find ich doof :=).
Stimmt auch nicht ganz. Die grünen Pixel sind im Bayer-Muster doppelt so oft vorhanden, wie die roten und blauen. Somit ist der anzuwendende Faktor abhängig vom jeweiligen Debayering-Algorithmus.
Die billigste Methode um z.B. die 550D oder andere Video DSLRs Aliasing-Artefaktfrei zu machen, wäre ein Weichzeichnungsfilter den man aufs Objektiv schraubt.
Nein, die billigste Methode ist keine feinen Strukturen zu filmen.
Deti
Antwort von Gabriel_Natas:
Stimmt auch nicht ganz. Die grünen Pixel sind im Bayer-Muster doppelt so oft vorhanden, wie die roten und blauen. Somit ist der anzuwendende Faktor abhängig vom jeweiligen Debayering-Algorithmus.
Genau darum mag ich diese RGB Pixelzählerei nicht. Sie sagt nix über die tatsächliche Auflösungsleistung aus.
Nein, die billigste Methode ist keine feinen Strukturen zu filmen.
Also nur noch kahlköpfige Menschen in einfarbigen klamotten vor einfarbigen Hintergründen ... :D
Antwort von WoWu:
Na ja, aber ich kann auf gar keinen Fall hergehen und, wie in dem oben angepriesenen Blog, einfach sagen, ich will nur noch 1920x1080 und taste ... ergo .. nur noch jede dritte Zeile ab.
Ich finde, man muss schon zwischen Bildauflösung, also Details und Pixels eines Sensors unterscheiden.
Soviel Detail muss bei allem Aliasing noch sein.
Stimmt, Camcorder mit Festobjektiv brauchen keinen Tiefpassfilter, weil man ein perfekt auf die Kamera und den Chip angepasstes Objektiv bauen kann.
-Kann- das ist das magische Wort ... macht man aber nicht, denn dann wären die verbauten Chips bei den knopfgroßen Objektiven alle größer.
Oder, im Umkehrschluss, die Objektive wären alle bei den winzigen Sensoren, so gut wie mindestens die Zeiss-Referenzobjektive (und besser).
Leider klafft die Schere da genau in der Gegenrichtung auseinander.
Da entstehen die misen Bilder durch das "Tiefpassfilter" Objektiv.
Bleibt die Frage, was besser ist. Unscharfe Bilder durch zu kleine Sensoren und miese Objektive oder unscharfe Bilder durch zu große Sensoren und zu gute Objektive ...
Mann, mann, das ist vielleicht eine verrückte Technik.
Antwort von domain:
Mir kommt vor, dass es nur so gehen kann, wie es JVC schon jetzt beherrscht, was die Konkurrenz einfach nicht schafft. Auch die neuen Canon-Camcorder kommen ja prompt wieder nicht an die Auflösung der HM1 heran.
Eigentlich fehlt jetzt nur mehr die Vergrößerung des Sensor auf 4/3" mit größeren Pixeln und die Sache wäre sowohl von der Foto- als auch von der Videoseite her gelöst.
Antwort von WoWu:
Wobei auf der Videoseite dann dringend noch die 50% Daten(zwangs)Reduktion vom interlaced Mode wegfallen muss .... aber das deutet schon wieder auf ein zu enges Processing vom Sensor hin.
Denn das Up-Converting am Ausgang von i nach p kann"s ja auch nicht sein. Und wenn die Kamera ähnlich starke Filtereinsätze wie die 400 er hat und mit messerscharfer Kantenschärfung ihre Messwerte aufpoliert, dann gehört das für mich auch nicht gerade in die Kategorie der guten Kameras.
Vielleicht ist das aber auch nur dem eingschränkten Speichermedium geschuldet.
Würde mich mal interessieren, wie so ein Bild am HDMI Ausgang aussieht (sofern vorhanden). Erst dann könnte man eigentlich sagen, ob das von der Objektiv/Sensor Kombination funktioniert.
Aber, ich geb"Dir Recht, 1/2" ist nach wie vor bei so winzigen Objektiven grenzwertig und jeder Zuwachs an Chipmaßen käme dem entgegen.
:-)) Warum liefert eigentlich Fujinon (Zeiss und wie sie heissen), nicht schon lange ihre Objektive mit Sensor und kleinem Bild-DSP an einem HDSDI Ausgang.
Dann könnte sich jeder den Codec und Recorder seiner Wahl andocken und gut ist"s. Dann wären ziemlich viele Probleme gelöst.
Antwort von Jott:
Kann die Wunschliste wirklich so gross sein? Wie veröffentlicht wurde, entstand das aktuelle Saisonfinale von "House" mit der 5D. Komplett, nicht nur punktuell wie schon vorher. Die derzeit erfolgreichste TV-Serie weltweit, wo ganz bestimmt niemand windige Experimente macht. Das heißt doch, dass die Kamera in den richtigen Händen offensichtlich keine Probleme macht.
Antwort von Backslash:
<wunschliste>Ich möchte, das meine Kamera im Fotomodus 4:4:4 RAW Dateien mit 4K Auflösung erzeugt, mit variabler Framerate von 1 bis 200 Fps und das ganze mit lossless Komprimierung auf im Aufnahmebetrieb wechselbaren Flashspeicher ausgibt!</wunschliste>
...aber das wäre ja dann schon wieder filmen...
Antwort von JonasB:
<wunschliste>Ich möchte, das meine Kamera im Fotomodus 4:4:4 RAW Dateien mit 4K Auflösung erzeugt, mit variabler Framerate von 1 bis 200 Fps und das ganze mit lossless Komprimierung auf im Aufnahmebetrieb wechselbaren Flashspeicher ausgibt!</wunschliste>
...aber das wäre ja dann schon wieder filmen...
Für nicht mehr als 300€ !
Antwort von Blackeagle123:
Kommt in 5 Jahren auf den Markt, eine chinesische Firma bastelt grade was. ;-)
Antwort von Backslash:
Neee, für 300 möchte ich dann ein Video-Kamera-Foto-Modus-Aufsteckblitz mit E-TTL2 und dimmbarer Daylight/Tungsten Umschaltung damit ich gleich ein ordentliches Kopflicht habe.
Die Zubehörproduzenten werden sich da schon was einfallen lassen.
Ich hätte da schon noch so ein paar Ideen auf meiner Wunschliste...
:D
Antwort von joe11:
Hier sollte man vielleicht erwähnen, dass Canon kein Skipping, sondern Binning macht.
Die Qualität der Bilder deutet eindeutig auf "line skipping" hin.
Eine dünne schwarze Linie auf weißen Untergrund wird als Strichellinie dargestellt, da die Kamera nur auf Linie 1 sieht und auf Linie 2 und 3 blind ist. Kreuzt die schwarze Linie 2 und 3, dann interpretiert die Kamera daraus "weiß". Etwas anderes sieht sie nicht.
Mit Binning gäbe es überhaupt kein Aliasing-Problem.
Antwort von B.DeKid:
@ Auf der NAB hat doch der LED Light Hersteller ne Leuchte rausgebracht die auch blitzen kann - Ich komm grad aber nicht auf den Namen;-/
B.DeKid
Antwort von B.DeKid:
LitePanels so hiessen die Jungs ;-)
MfG
B.DeKid
Antwort von r.p.television:
Vielleicht trägt folgendes zum Ratespiel ob Binning oder Skipping bei:
Meine erste 5D Mk 2 hatte einen Pixelfehler (rotes Pixel, wurde erst sichtbar ab ISO 500 und dunklem Hintergrund).
Im Fotomodus war dieser Pixelfehler bei den vollen 21 Megapixeln nur 2-3 Pixel gross, wirklich kaum sichtbar und bei der relativen Grösse gut verschmerzbar.
Im Videomodus dagegen war der rote Punkt bei der Auflösung von 2,1 Megapixeln etwa 4 Pixel hoch und 7 Pixel breit, also sehr deutlich sichtbar und in der Relation zur endgültigen Auflösung auch sehr viel grösser.
Die Signalelektronik hat also beim Runterskalieren diesen Pixelfehler extrem vergrössert.
Die Kamera ging übrigens zurück zu Amazon und ich bekam ohne Mecker eine neue obwohl schon drei Wochen vergangen waren.
Antwort von WoWu:
Hier sollte man vielleicht erwähnen, dass Canon kein Skipping, sondern Binning macht.
Die Qualität der Bilder deutet eindeutig auf "line skipping" hin.
Eine dünne schwarze Linie auf weißen Untergrund wird als Strichellinie dargestellt, da die Kamera nur auf Linie 1 sieht und auf Linie 2 und 3 blind ist. Kreuzt die schwarze Linie 2 und 3, dann interpretiert die Kamera daraus "weiß". Etwas anderes sieht sie nicht.
Mit Binning gäbe es überhaupt kein Aliasing-Problem.
Das stimmt nicht so ganz.
Dieser Effekt (Anhang) entspricht dem geschilderten Problem und entsteht durch Binning (Grünpattern). Das zweite Bild zeigt eine andere Binningmethode mit einem veränderten Pattern.
Ich denke aber auch, Canon wird schon wissen, was sie ihrem Fachpublikum vortragen. Und da heist es : "... Binning, kein Skipping".
Ausserdem ... siehe oben ... würde Skipping bei diesem Sensor nicht mehr zu 1080 Zeilen Auflösung führen. (Siehe Bayermaske)
Die einzige mögliche Skipping-Art wäre Pixelskipping, wo 2 RGB Samples pro 36 Pixel gewonnen würden. Dem widerspricht aber der Störabstand, den die Kamera hat. (Lichtempfindlichkeit) (Übrigens widerspicht Lineskipping dem auch !!!)
Man muss also schon mal alle Parameter der Kamera betrachten und nicht nur auf das Rechenexempel 1920x1080 abfahren und Bildpunkte mit Pixelauflösung vermischen.
Antwort von meawk:
Was genau ist der Zoom-Modus und passiert dort tatsächlich genau das?
Guckst Du hier:
http://www.vimeo.com/10037983
Movie-Crop-Test 550D.
Antwort von WoWu:
@ r.p. television
Im Videomodus dagegen war der rote Punkt bei der Auflösung von 2,1 Megapixeln etwa 4 Pixel hoch und 7 Pixel breit, also sehr deutlich sichtbar und in der Relation zur endgültigen Auflösung auch sehr viel grösser.
Jau, wäre bei Skipping um rd.60% kleiner geworden, weil 2 von 3 Rotzeilen übersprungen würden.
Antwort von Blackeagle123:
@ WoWu: Woehr hast Du denn diese Information, dass ein Binning und kein Skipping gemacht wird?
Und eine allgemeine Frage: Binning ist doch nur eine Art von Interpolation, oder?
Antwort von WoWu:
Ich hatte es oben schon erwähnt, Tim Smith, von Canon hat dies explizit anläßlich eines Vortrags vor der DigitalCinemaSociety erklärt.
In einem früheren Thread habe ich auch den Link angegeben wo der Vortrag abzurufen ist. Ich finde ihn nicht so schnell wieder, aber mit etwas Geduld wird man den alten Thread sicher hier in SlashCam noch finden.
Ich glaube auch, auf der DigitalCinemaSociety.com wird man den Vortrag noch aufstöbern.
Aber, wie gesagt, auch allein die Wertung der Fakten würde zu keinem andern Ergebnis führen, es sei denn, man betrachtet nur einen (winzigen) Effekt, verrechnet dann auch noch Pixel mit Bildpunkten und gewichtet andere Methoden nicht .... dann könnte man auch auf Lineskipping kommen.
Und .. ja, Binning ist eine Art der Interpolation (Punktdichte), allerdings mit einer eigenen Gewichtung der einzelnen Pixel und, weil ja ein Sensor keine Farbe Überträgt, fallen viele interpolationstypische Fehler heraus, die erst nach einem De-Mosaiking die Sache komplizierter machen.
Antwort von domain:
Im Fotomodus war dieser Pixelfehler bei den vollen 21 Megapixeln nur 2-3 Pixel gross, wirklich kaum sichtbar und bei der relativen Grösse gut verschmerzbar.
Im Videomodus dagegen war der rote Punkt bei der Auflösung von 2,1 Megapixeln etwa 4 Pixel hoch und 7 Pixel breit.
Damit ist für mich jedenfalls ziemlich klar, dass es sich bei der Canon nicht um Skipping handeln kann.
Es gibt in Photoshop bekanntlich ein Skalieren mit drei Möglichkeiten, wobei eine davon "Pixelwiederholung" genannt wird, beim Herunterskalieren aber genau das Gegenteil bedeutet, nämlich sowas wie "Pixelüberspringung" oder "Pixelweglassung".
Und genau so funktioniert es auch: meine zwei roten in eine Pixelmatrix von 5616*3159 (= 5D Mk2 16:9) eingefügten Pixel wurden beim Herunterskalieren auf 1920*1080 entweder eliminiert oder gezeigt und zwar je nachdem in welcher Zeile oder Spalte sie sich befanden, aber nie auf mehr als auf die Originalgröße "aufgeblasen."
Antwort von Blackeagle123:
Bis jetzt haben wir nämlich nur darüber gesprochen, wie die einzelnen Zeilen verdichtet werden, das heißt Skipping oder Binning, was ja beides Interpolationsmethoden sind.
Ist es bei den einzelnen "Spalten" denn mit der Verdichtung gleich?
Viele Grüße!
Antwort von WoWu:
@Blackeagle123
Oben, aus der Grafik kannst Du ersehen wie die einzelnen Binningmethoden die Pixel den einzelnen Übertragungskanälen zuordnen. Welche Canon nun anwendet, weiss ich auch nicht, vermutlich aber #1 (oä).