da ja LED Lampen (auch günstige, asiatische) bzw. DIY LED Eigen- & Umbauten ein Thema sind, würde mich mal interessieren:
Wie ermittelt ihr den tatsächlichen CRI derartiger Lampen. Messen, schätzen, am fertigen Bild beurteilen...???
Mit der Anschlußfrage: Gibt es gegenüber den Hand-Spektrometern (die imho so ca. ab € 1500,- losgehen) preisgünstigere (€ 200-300,-), aber ebenfalls verläßliche Messgeräte/Messmethoden. Beispielsweise als externen Sensor & Software für Laptop o.ä.???
Der Frage möchte ich mich anschließen. Es geht mir dabei nicht nur um DIY, sondern auch um das Nachmessen von Herstellerangaben (denen traue ich nicht) sowie um die CRI-Bestimmung von Leuchten, zu denen der Hersteller nichts angibt.
Und verstehe ich das richtig:
Mit dem Teil schaust du direkt in die Lichtquelle und beurteilst anhand der (vorhandenen oder auch nicht vorhandenen) Spektrallinien die Qualität/den CRI der Lichtquelle?
Je weniger Lücken desto mehr CRI...
Wenn man es Vollbild ansieht, erkennt man bei ca. 6:00 ff gut den Bildschirm. In der Software ist als Sensor dort ein X-Rite i1 DisplayPro angeben.
Kennt jemand den Sensor und Software & was misst der Kollege dort genau???
Zuletzt geändert von ShakyMUC am Do 09 Nov, 2017 19:50, insgesamt 1-mal geändert.
Frank Glencairn hat geschrieben: ↑Do 09 Nov, 2017 19:31
Der x-Rite ist eigentlich zur Monitor Kalibrierung
Ich halte so ein Monitor-Colorimeter nicht für tauglich für Lichtquellen-Messungen. Colorimeter sind keine Spektralphotometer, sondern arbeiten nur mit einfachen Farbfiltern. Sie benötigen Korrekturtabellen für die jeweilige Monitor-Hintergrundbeleuchtung; wenn man z. B. eine Korrektur für CCFL-Hintergrundbeleuchtungen wählt und dann einen Monitor mit LED-Hintergrundbeleuchtung misst, kommt ziemlicher Mist raus. Aber selbst LED-Lichtquellen sind nicht alle gleich. Gängige Colorimeter bringen Korrekturen für RGB-LEDs und mehrere Sorten weiße LEDs mit - und das sind dann jeweils nur Durchschnittskorrekturen. Für einzelne Monitorkalibrierungen und -profilierungen reicht das aus, weil es dabei mehr auf die Farbdarstellung "in sich" ankommt und nicht darauf, eine Farbe absolut zu treffen. Aber man kriegt damit z. B. zwei unterschiedlich aufgebaute Monitore nie perfekt gleichfarbig kalibriert; da muss man dann ggfs. noch eine Angleichung "nach Sicht" anschließen.
Lange Rede, kurzer Sinn: Die absoluten farblichen Eigenschaften der Lichtquelle kann man mit einem Colorimeter nun wirklich nicht messen. Dazu bräuchte man ein Spektralphotometer.
Wenn der Kollege im Video behauptet, die Farbtemperatur der Leuchte habe eine zu kühle Farbtemperatur, kann er das auf diese Weise gar nicht zuverlässig wissen. Ein anderes Colorimeter oder auch nur eine andere Korrekturtabelle kann hier durchaus um einige hundert Kelvin höher oder tiefer messen.
Wenn man es Vollbild ansieht, erkennt man bei ca. 6:00 ff gut den Bildschirm. In der Software ist als Sensor dort ein X-Rite i1 DisplayPro angeben.
Kennt jemand den Sensor und Software & was misst der Kollege dort genau???
http://indiecinemaacademy.com/are-leds- ... cts-video/
Summary: Did you know that LEDs lights may actually be ruining the look of your productions? And no, this problem can’t be fixed in the grade. We put seven different brands of LEDs lights to the test, capturing with a Red Epic Dragon camera. Then we discuss the results and how they’re going to affect the creative choices that you make on set.
http://indiecinemaacademy.com/is-cri-re ... led-world/
Summary: Did you know that with an LED, not only is a high CRI rating misleading, but it might be totally irrelevant? In this video I’ll show you why and what to do about it.
In dem Zusammenhang kann ich auch noch erwähnen (es gab auch schon mal einen längeren Thread dazu), dass meine LED-Leuchten von Aputure im Vergleich zu natürlichem Tageslicht einen leichten Magenta-Farbstich produzieren - trotz einem angeblichen CRI von 95. Da geht es also nicht einfach um einen ungenauen Kelvin-Wert (der würde ja nur etwas wärmere oder kühlere Bilder liefern), sondern um eine Abweichung auf der Grün-Magenta-Achse.
So, wie der CRI definiert ist, müsste sich sowas drastisch auf den Wert auswirken. Tut es aber nicht. Ob hier einfach der Hersteller etwas schwindelt oder ob dies am Prinzip der CRI-Bestimmung liegt, weiß ich in diesem Fall nicht.
In meinem konkreten Fall hilft übrigens ein manueller Weißabgleich oder, wenn man das LED-Licht mit Tageslicht mischen will, eine schwache "Plus Green"-Filterfolie. Ich kann den Fehler also korrigieren. Aber eigentlich sollte das, wenn der hohe CRI sein Geld wert wäre, überhaupt nicht nötig sein.
Was ich in dem ersten oben verlinkten Video aber besonders interessant & logisch finde, ist ab 10:05 ff die Beachtung der R9/13/15 Werte (natürlich hauptsächlich, wenn man viel mit Hauttönen zu tun hat).
Nur wie erfährt man die von seinen Leuchten, wenn man nicht €1000,-++ für ein Messgerät ausgeben will...?
(und die eigenen Leuchten gerade nicht in der Liste sind die man auf der oben verlinkten Video-HP ja auch findet)
Mal mit den Grundlagen beschäftigen, dann wird man verstehen, warum es unter einem Spektrometer nicht geht, und dass Ra und CRI ohnehin nicht geeignet sind für so eine Bewertung.
Der simplere Weg ist, Leuchtmittel zu kaufen, für die eine vollständige photometrische Analyse veröffentlicht ist. Selten, aber gibts. Aber auch die muss man lesen können. Google hilft.
carstenkurz hat geschrieben: ↑Do 09 Nov, 2017 23:19
Mal mit den Grundlagen beschäftigen, dann wird man verstehen, warum es unter einem Spektrometer nicht geht...
Dann erzählt der Typ in den oben von freezer verlinkten Videos (z.B. Video 3 in dem 3 Geräte vorgestellt werden mit denen es geht) ziemlichen Quatsch
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.