Frage von Jan:Hallo Slashcamer,
wir hatten das Thema schon mal, kamen aber nie auf einen Nenner, weil selbst im Internet dauernd 2 deutige Aussagen über den Aufbau herumschwirren. Ich bin mir nicht bei jedem Schritt sicher gewesen, hab aber einige Canon, JVC, Panasonic, Sony und Olympus Unterlagen zugezogen, und hoffe wir können Zusammen den Aufbau und die Funktionsweise einer 1 Chipkamera relativ ordentlich erklären, auch wenn es immer Kontroversen geben wird, wie zb bei Wikipedia.
Das Objektiv (mehrere Linsen) nimmt das einfallende Licht entgegen.
Das Objektiv:
Da die Sensoren nur senkrecht einfallendes Licht registrieren, müssen die Linsen das Licht möglichst Senkrecht zum Sensor führen (telezentrisch), gut geschliffene & vergütete Linsen können das bewerkstelligen. Im schlimmsten Fall kann folgendes passieren: Reflexionen & Übersprechen auf benachbarte Pixel, Helligkeitsverlust. Diese Effekte veringern die Ladung der einzelnen Pixel , was zu einem schlechteren Signal/Rausch Verhältnis, Randabschattung und verminderter Farbtreue führen kann.
Scharfstellen:
Eine beliebte Methode ist das Kontrastmessverfahren, welches vom CCD vorgegebene Bild, solange der Focus verändert wird bis die besten Kontrastwerte vorliegen, und somit eine scharfe Aufnahme garantiert.
Dafür werden entweder Linsen "gedreht" oder Linsengruppen durch einen Mikromotor vor oder zurückgeschoben.
Es gibt aber auch das Phasenvergleichssystem, dort werden 2 Sensoren beschäftigt, um den Phasenunterschied in einem Bild zu berechnen und so die Entfernung zum Objekt festzustellen.
Canon benutzt 2 Systeme bei einigen neueren Kameras (HV 10 & DC 50), Eins zum grob erfassen, das Andere für die feinjustierung, damit verspricht sich Canon eine Geschwindigkeits & Genauigkeitsverbesserung.
Da ein Sensor nur schwarz weiss sieht muss ein Farbfilter davor für die Farbfähigkeit herhalten.
Der Filter befindet sich heutzutage direkt auf dem CCD & CMOS.
Filter:
Bekannt sind RGB (Rot Grün Blau)Filter ( Bayer Mosaik) oder Komplementärfilter (Cyan, Magenta und Gelb).
Bayer Filter
Den CMY Filter gibts in verschiedenen Ausführungen zb CMY + Grün Farbfilter (für noch bessere Helligkeitsergebnisse) oder JVC selbtentwickelter hybrider Komplementär Primär Farbfilter.
Dieser arbeitet mit Cyan (Cy) und Gelb (Ye), der Primärfarbe Grün (G)
und dem Helligkeitssignal (W).
Durch Verschiebung jeweils eines Pixels über dem CCD und Kombination zu Paaren zur Helligkeitserzeugung und zu Viererblöcken zur Farberzeugung ensteht eine maximale Auflösung. Die Fähigkeit sowohl Y - Helligkeits als auch RGB Farb Daten abzutasten, macht es einem System mit 3CCD ebenbürtig.
W / G
Cy / Ye
G / W
Ye / Cy
(W+Ye) - ( G+Cy) = R
(G+Cy+Ye)+W = G
(W+Cy)x(G+Ye)= B
Wird zb in der JVC GR PD 1 verwendet.
Sony HC 3 zb hat noch in anderes System mit 5.1.1 RGB.
Sensor:
Dann kommt der Sensor CCD oder CMOS ins Spiel
Jede Diode repräsentiert ein Pixel. Trifft Licht auf den Sensor laden sich die einzelnen Dioden elektronisch auf. Diese Ladungen werden als elektronisches Spannungssignal ausgelesen.
AD Wandler:
Bei der Analog Digital Wandlung werden dann die analogen Signale in Form von Millionen von Spannungssignalen in digitale Werte umgewandelt.
Signal Prozessor: (zb Canon - D!GIC DV, JVC - Megabrid, Panasonic "Crystal Engine" oder Sony "HD Codec Engine")
Weil jedem Pixel einer der drei CCD (CMOS) Pixel zugeordnet ist, wird für jeden Bildpunkt immer nur eine Grundfarbe aufgezeichnet. die fehlenden Farbinformationen werden mit Hilfe eines Imaging Prozessors ( Signalprozessor) errechnet und automatisch ergänzt.
Er arbeitet mit verschiedenen Algorithmen, wird von anderen Prozessoren unterstützt, beschleunigt außerdem die Bildverarbeitung und die Kamerasteuerung.
Hard & Software für Bildüberarbeitung:
Dort wird das Bild überarbeitet & verbessert, zb mit JVCs Super High Band Prozessor wo der Frequenzgang erweitert wird um die Horizontalauflösung von 520 Zeilen und mehr zu steigern.
Pixel Mapping
Ein extra Prozessor sucht nach Pixelfehlern, und bei Gefundenen werden
die benachbarten Pixel zur Berechnung des toten Pixels herangezogen um den toten Pixel zu beseitigen.
Rauschreduktion :
In den meisten Fällen setzt die Rauschreduktion ( zb 3D NR JVC) nach dem Fertigstellen der kompletten Bildbearbeitung ein, ausser zb bei Sony"s Clear RAW die vor dem Signalprozessor stattfindet um ein besseres Ergebnis zu erzielen bevor Helligkeit und Farbe bearbeitet werden.
Signalumwandlung:
Am Ende der Kette sorgt die DV Signalumwandlung für die passende
Eckdaten unseres DV Systems (720x576).