Und wo ist jetzt die neue Erkenntnis ?
Ist doch alles schon mal gesagt:
Du hast lediglich mit dem Filter dafür gesorgt, dass noch weniger Licht als zuvor auf den Sensor auftrifft und musst entweder höher verstärken, mehr Licht setzen oder länger Belichten.
Mehr Licht setzen kommt (7nic's) Blendenöffnung gleich, solange genügend Licht vorhanden ist.
Ich habe mir noch folgende Gedanken gemacht.
- Wenn eine Quecksilberdampflampe eng begrenztes gelbes Licht emitiert, dann sind z.B. bluejeans schwarz/grau.
Es gibt einen Sensor mit Bayernpattern 4x grün, 2x blau, 2x rot
Dann eine Laserlichtquelle mit drei separaten Strahlen in RGB, die zusammen weiss ergeben.
Der Laser wird als Muster gesplittet und exakt gleich wie das Bayer-Pattern auf den Sensor gelenkt, so wird jeder Sensorpixel im Pattern mit der entsprechenden Farbe beleuchtet (ohne theoretisch die Nachbarpixel zu beeinflussen).
-> So wird mit der Bildverarbeitung wieder eine homgene weisse Fläche gemacht. (wie wenn ich drei deckungsgleiche Laserbeams über den gesamten Sensor gelegt hätte)
Nun ändert das Pattern LaserRot->SensorGrün, LB->SR und LG->SB.
Damit erkennt der Sensor zwar Helligkeitswerte (im Bereich weiss bis schwarz, je nach Laser-Intensität).
So würde nebst Sensorrauschen die Bildverarbeitung schwarz/grau oder weiss zeigen (weiss nicht als Mischfarbe sondern als geclipter Wert).
Was das Bayerpattern Verfahren etwas suspekt macht, ist die niedrige Empfindlichkeit im Blaubereich eines CMOS Sensors. Und die 4 Grünpixel Gewichtung um der Augenempfindlichkeit zur Differenzierung entgegen zu kommen.
Gruss Tiefflieger
@domain, was eine Dreichip Kamera macht ist mir klar ;-)
Die spezielle Variante mit 1/2 Grünpixelversatz in h/v Richtung ebenfalls.
Zuletzt geändert von Tiefflieger am Di 05 Mär, 2013 23:32, insgesamt 1-mal geändert.
Die Problematic (und das müsste auch in 7nic's Test sichtbar sein) ist die, dass Töne, wie beispielsweise Violett aus zwei sehr unterschiedlichen Wellenlängen bestehen.
Ein Weissabgleich hat ja nicht nur die Aufgabe, WEISS herzustellen, sondern er sorgt für eine allgemeine Ballance der einzelnen Farben (in sich).
Verschiebt man solche Abstimmungen, die durch die interne Filterstärke, Farbe und Gewichtung stattfindet durch ein externes Licht/Filter, dann wird beispielsweise der Rotanteil des Violett nicht genügend berücksichtigt.
Du erhältst also ein blaues Violett durch den Eingriff, obwohl dein Weiss wieder "normal" aussieht.
Nun kann man die Diskussion an jedem beliebigen Punkt abbrechen, indem man sagt, das sei künstlerisch so gewollt ... Dann bitte.
Wir machen solche Filterungen auch nicht zum ersten Mal, aber eben nur, wenn kein Licht zusätzlich zu setzen ist und keine Blende mehr zu öffnen, nämlich um Autorücklichter und Leuchtschilder in Nachtaufnahmen nicht weiss werden zu lassen.
Dabei haben wir all dies Effekt durchlaufen müssen, die zwar den gewünschten Nutzen brachte, aber eben auch alle nicht gewollten Nebeneffekte.
Greift man also mit "schrägem" Licht in den Verarbeitungsprozess ein, reicht es nicht, auf den Rauscheffekt zu stieren.
Man muss auch alle andern Effekte sehen (können).
Aber wenn "künstlerisch wertvoll" gewollt ist, wird man mit den Nachteilen leben. -Ist bei uns ja nicht anders. Die Rücklichter der Autos sind wieder Rot und die Nachteile fallen (hoffentlich) nicht auf. Sie sind aber alle sichtbar.
- Ich habe mir zu 3-Chip auch überlegt, wenn die Prismastrahlenteilung als ND-Filter unabhängig für drei Sensoren gesteuert würde (elektrisch gesteuerte Lichtdurchlässigkeit, Problem Dämpfung und maximale Lichtdurchlässigkeit).
- Oder minimal pro Sensor die Belichtungszeit ändert (Deckungsleiche Zeichnung Problem)
Bei Single Sensoren können Zwischenwerte ausgelesen werden vor dem Sensor-Reset. So könnte eine Art HDR und zwischen Farb-Gewichtung berechnet werden (auch da, Deckungsgleiche Bilder Problem).
Voraussetzung bei Zwischenwerten ist global shutter (gleichzeitiges auslesen aller Pixel).
Der Hersteller Rambus kann jeden Pixel separat auslesen um den Helligkeitsverlauf im Bild anzupassen. https://www.slashcam.de/news/single/Ram ... 10477.html
Gruss Tiefflieger
Zuletzt geändert von Tiefflieger am Mi 06 Mär, 2013 00:04, insgesamt 1-mal geändert.
Die Grenzen der Sensorempfindlicheit sind gegeben zwischen Rauschgrenze und Clippen.
Wenn der Weissabgleich bekannt ist, können mathematisch die Bilder (Zwischenwerte) normalisiert (Referenz) und extrapoliert werden (Pixelhelligkeit mit Bayerpattern Gewichtung).
So kann zwischen Ist- und Sollwerten (Zwischenwerte, Tangente) jeder Farbkanal mathematisch (Bildverarbeitung) berechnet werden (weiss wäre die Referenz).
Solche Datenmengen lassen sich nicht mehr als pseudo RAW speichern (Tangente Sensorsättigung, Belichtungsszeit vor Reset).
Dies müsste zur Aufnahmezeit (Echtzeit) als Vorverarbeitung zur RAW-Ausgabe gespeichert werden.
So wäre zur Aufnahmezeit für Extremfälle die Bildverarbeitungskennlinie variabel.
Gruss Tiefflieger
Auf dem Sensor im Randbereich sind immer Pixel, als Referenz Dunkelpixel definiert.
Um Ladung in Pixel zu speichern gibt es ein nicht lineares dt in Abhängigkeit der Lichtmenge und Sensor-Temperatur.
Alle diese Werte können erfasst oder kalibriert werden. <- Referenzen
Zuletzt geändert von Tiefflieger am Mi 06 Mär, 2013 00:25, insgesamt 1-mal geändert.
Mit ähnlichen Methoden sind schon Chiphersteller (quasi) gescheitert. Ihre "HDR" Methoden sind zwar gut, aber viele sowas von proprietär, dass gänzlich neue Workflows her müssten.
Sowas ist am Markt nicht wirklich durchsetzbar.
Kommt noch hinzu, dass bei zeitlichen Referenzen auch noch andere Verfahren und Standard Techniken, wie z.B. die Flickervermeidung, funktionieren müssen.
Solche Kamerasystemen bestehen ja nicht nur aus einer Funktion.
Und schon hier an dem laufenden Beispiel sieht man, dass viele zwar die Vorteile, nicht aber die Nachteile sehen. Denn wenn es so einfach wäre, mit einem kleinen Blaufilter die tollen Ergebnisse zu erzielen, hätten es ganz sicher schon alle Kameras.
Hatte vor drei Jahren eine der ersten Alexa Produktion mit der SUP2.0 Firmware und sehr viel Nachtaufnahmen.
Es war genug Licht vorhanden, das aber meisten im LKW blieb und die Beleuchter waren eher damit beschäftigt die Scheinwerfer durch ND-Folien,
Dimmern und Fahnen zu minimieren.
Teilweise mussten sogar Praktikals wie Straßenlampen gedimmt werden.
Gedreht haben wir Nachts mit 1000ASA also einer leichter Signalverstärkung, die gerade bei der Alexa zu einem sehr angenehmen Rauschen führt.
Der DOP wollte eigentlich auch auf Kunstlicht Filtern, aber nach Rücksprache mit Arri habe die uns davon abgeraten.
Wir haben es trotzdem mal getestet und konnten am Ende keinen so großen Unterschied im Grading feststellen. Es wurde nur in ProRess4444 gedreht und vorher mit einer Graukarte und einem Astro-Monitor per Vektorscope so neutral wie möglich gedreht. Dafür benutzten wir auch die Magenta und Grün Verschiebung der Kamera.
Je nach Hautfarbe der Schauspieler justieren wir den Wert manchmal etwas nach.
Bei bestimmten Filtern legen wir in der Alexa auch bestimmte Presets um z.B. Farbstiche von Hot-Mirror oder ND-IR Filtern zu korrigieren.
Wenn RAW aufgezeichnet wird machen wir das auch und drehen dazu jedes mal eine DSC Farbtafel mit, damit das Grading auch ohne Metadaten ein Referenz hat.
Ach genau die native Farbtemperatur des Alexa Sensors soll anscheinend irgendwo zwischen 4000 und 4800kelvin liegen.
@WoWu
Würde es gerade bei den roten Autolichter nicht mehr Sinn machen, das die Ausstattung etwas Rotfolie oder gar ND Folie auf die Scheinwerfer klebt(mit etwas Zuckerwasser) oder gar schwächere Lampen verbaut werden.
Klar bei kleiner Produktionen geht das nicht so schnell.
Szenisch hätten wir das auch gemacht aber wenn Du in Bogota drehst, hast Du bei den 4.000 Autos pro Minute, die unter Dir durchkacheln, kaum eine Chance :-)
Nee. Spass bei Seite ... Doku ist da mit Problemen behaftet, die man auf der Herstellungs- bzw. Post Seite lösen muss.
Aber, geht ja alles ... nur hat eben jede Methode auch ihre Schattenseite.
Und Arri hat Euch ja auch bestimmt nicht ohne Grund von einer Konversion abgeraten.
Die Zeiten, gegenüber der analogen Filmverarbeitung haben sich schon ziemlich geändert.
Bei solchen Nachtaufnahmen mit einer relativ unbeeinflussbaren Lichtvorgaben, muss man sich daran orientieren. Wahrscheinlich blieb deshlab de Lichtpark im Laster.
Mit welcher Begründung riet Arri von der Filternutzung ab?
Eine mögliche Antwort hast du ja schon angedeutet: 4000 Kelvin.
Die Alexa hat im Vergleich zur Red (da zeigt auch der Test) bessere LowLight-Fähigkeiten und kommt mit Kunstlicht besser zurecht.
Dazu noch der höhere DR.
Deshalb muss Red ja nun auch mit dem Dragon-Sensor kommen.
Wobei man wohl auch mit einem Red-MX bei dem von dir geschilderten Dreh ein gutes Ergebnis erzielt hätte.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.