
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
RED Epic-X Monochrome vs RED Epic-X

Wie wäre es mit dem Bayer-Pattern auf dem Sensor? :)Paralkar hat geschrieben:oder gibts da ne technische Sache, die ich grad übersehe warum das nicht machbar wäre?
Hey Paralkar!Paralkar hat geschrieben:Wenn wunderts das die Auflösung höher ist, klar debayerd sind 5k gleich mal 3.5k oder drunter, bei der sinds wirklich 5k
Aber das würde doch ein lustig-gerastertes Bild liefern...? Die Pixel direkt nebeneinander sind, bei einer farbigen Fläche, ja nicht gleich hell...?Paralkar hat geschrieben:Ja es beeinträchtigt die Helligkeit, aber trotzdem müsst ich doch vom Bayer-pattern selbst jeden RGBG Wert als Lumawert weiterleiten können, ohne zu interpolieren?
Vielleicht stell ich mir das auch falsch vor
Ich hab gelesen, bei einem gewöhnlichem Bayerpattern hast eine reale Auflösung von 56-75% der angegebenen Auflösung (finde den Link leider nicht mehr). Dann wären 3,5K bei der Epic durchaus recht.Abercrombie hat geschrieben:Ich meine vor allem die Dimension: Von 5k auf 3,5k oder darunter bedeutet, dass durch 30% oder mehr der Information verloren gehen. Ich habe mich mit der Mathematik nicht auseinander gesetzt, aber damit würde ja jede 1-Chip-Kamera (ob Foto oder Video) einen beachtlichen Informationsverlust erleiden.
Ein Beispiel, warum ich skeptisch bin:
Die Sony F3 hat nur einen Chip mit zwei Millionen "photosites", entsprechend den 1920x1080 von HD. Slashcam sagt zu der F3: "Die gemessene Luminanzauflösung ist schlichtweg tadellos und liegt am theoretischen Maximum, das ein FullHD-Camcorder liefern kann." (Quelle: https://www.slashcam.de/artikel/Test/So ... ahmen.html)
Ohne es beweisen zu können (denn das seriöse Internet hält sich da bedeckt) behaupte ich, dass die Algorithmen besser sind und sie aus den Farben wieder Auflösung errechnen können. Mit all den möglichen Fehlern, die dadurch entstehen.
Quelle: http://www.digitalkamera.de/Testbericht ... /7757.aspxTheoretisch müsste eine Kamera (5d Mark 3) mit 5.760 Pixeln in der Breite des Kleinbildformats 80 Linienpaare pro Millimeter (Lp/mm) auflösen können. Voraussetzung dafür ist natürlich ein entsprechendes Objektiv. Das als Set-Objektiv mitgelieferte EF 24-105 mm 1: 4 L IS USM schaffte in unserem Testlabor immerhin fast 70 Lp/mm, ein ausgezeichneter Wert."
Bei dem debayerten Bild ist das ja auch schon interpoliert, auch der Luma-Kanal.Paralkar hat geschrieben: @ CameraRick
Ich hab grad ein Denkfehler, oder du :-D, wenn ich jedes Lumasignal dieser Fotozellen nehme, dann hät ich doch ein S/W Bild mit voller Sensorauflösung, klar könnte eine Farbfläche dann die gleichen Luma-Werte enthalten, aber es ist doch auch so, das bei 256 RGB (also 16,7 millionen) Farben auch nur 256 Graustufen rauskommen, sprich wenn ich eine Farbfläche aus einem debayerten Signal habe, und das in S/W umwandle dann wären das auch nur eine komplette Graustufe.
Bitte korrigier mich, falls ich das falsch verstehe, aber mit jeder Fotozelle könnt ich ein Lumawert erzeugen, der je nach Farbtiefe besser gerastert wird, aber trotzdem kommen bei 2 gleichen Farbtönen auch 2 gleiche SW-Werte raus
schau etwa mal hier: http://www.kenrockwell.com/tech/bayer.htmAbercrombie hat geschrieben:Ich glaube ebenfalls, dass eine optimierte Anordnung der Photosites und ihrer Filter einen Beitrag zur besseren Berechnung der Auflösung hergibt, aber ich gehe nicht von 30% Differenz aus. Immerhin werden seit über 10 Jahren Fotoaparate mit dem alten Bayer-Muster ausgeliefert und keiner der Großen (Nikon, Canon, etc) hat nennenswert etwas daran geändert. Foveon war ein interessanter Ansatz, hat sich aber (warum auch immer) nicht durchgesetzt.
Ich habe google durchsucht und keine Quelle gefunden, die von 30% spricht. Zeig mal bitte eine.
Was ich gefunden habe ist zum Beispiel das hier:Quelle: http://www.digitalkamera.de/Testbericht ... /7757.aspxTheoretisch müsste eine Kamera (5d Mark 3) mit 5.760 Pixeln in der Breite des Kleinbildformats 80 Linienpaare pro Millimeter (Lp/mm) auflösen können. Voraussetzung dafür ist natürlich ein entsprechendes Objektiv. Das als Set-Objektiv mitgelieferte EF 24-105 mm 1: 4 L IS USM schaffte in unserem Testlabor immerhin fast 70 Lp/mm, ein ausgezeichneter Wert."
Das würde einem Verlust durch das Debayering von 12,5% entsprechen. Ich nehme einfach mal an, dass 10-20% je nach Motiv realistisch sind. Damit hätte eine Epic bei 5k Aufzeichnung eine Auflösung zwischen 4 und 4,5k. Ist das nicht auch der Wert von dem Red spricht? Muss ich mal schauen.
Und warum ist die Red jetzt schlechter? Einfach so oder gibt es da ne Erklärung?CameraRick hat geschrieben:Nur weil die 5D Mark III das schafft, heißt es nicht, dass die RED das auch schafft. Und die Frage ist, welchen Debayer-Algorythmus Du nimmst, die sind auch nicht alle gleich.
RED spricht von 5K, und das macht es eben so traurig. Ich halte 30% Verlust schon für Realistisch; aber hey, musst Du nicht glauben. Aber schau Dir die Monochrom/Debayer Ergebnisse mal an, das schaut für mich nicht nach 10% aus.
Nyquist-Theorem? Das sollte man einhalten, wenn man ein 100%ige Abbildung des Originals haben will. Dass das nicht klappt ist mir klar. Das bei der Rekonstruktion Fehler entstehen ist mir auch klar. Aber es kommt eben auf den Inhalt an. Ohne eigene Messung oder eine Quelle würde ich allerdings nicht so einen Wert immer wieder Niederschreiben, als handele es sich um die Wahrheit.Paralkar hat geschrieben:Ich habs auch selbst nicht gemessen, ich gebe zu 3.5k, ob das genau zutrifft kann ich dir auch nicht sagen (ich würde sagen irgendwas um den Dreh), aber von einem bestimmten Theorem (ich hab leider den Namen vergessen) ausgegangen, braucht man die doppelte Auflösung um am Ende die Hälfte zu bekommen
Warum sollten sie denn besser sein? Und welcher Debayer-Algo wurde in dem Test beutzt?Abercrombie hat geschrieben: Und warum ist die Red jetzt schlechter? Einfach so oder gibt es da ne Erklärung?
Red spricht von 5k, so wie Canon bei der 5d Mark 3 von 22,3MP spricht. Ich halte es für nicht verwerflich, da der Abfall durch das Debayering vom Motiv und der Mathematik (und zusätzlich natürlich vom Filter, Objektiv, usw) abhängt. Die Angabe ist die Anzahl der Photosites. Die tatsächlich Auflösung ist bei jeder 1-Chip-Kamera geringer.
Was würdest du denn Canon, Nikon, Sony und Red raten, wie sie die Auflösung ihrer 1-Chip-Kameras beschreiben?
Ich finde Monochrom, das aus Farbe berechnet wird per se hässlich. Das Bild von "Oh Boy" hat mir nur mäßig gefallen. s/w-Fotografie insgesamt sieht seit der Digitalisierung ebenfalls eher nur mäßig aus. Ich mag den Look von Illford ;-)CameraRick hat geschrieben:Warum sollten sie denn besser sein? Und welcher Debayer-Algo wurde in dem Test beutzt?
Canon, Nikon, RED - wer passt nicht in die Reihe. Ich mache einen entschiedenen Unterschied zwischen Video- und Fotokamera. Sagen die Megapixel etwas übers Gesamtbild aus, sagt eine K-Zahl eher nur über die Breite. Die anderen Firmen propagieren dieses "wir sind so und so viel K" nicht so stark wie RED; bei einer F35 waren es 1080p. Eine Alexa ist eine super 2K Kamera (aber löst "eigentlich" 2,8K in RAW auf).
Hast Dir die Vergleiche angeschaut - Mono vs Colo? Findest Du das nicht arg viel matschiger?
Genau. Erst Schwarz, dann Weiß, dann Schwarz, dann Weiß, und so weiter.Tiefflieger hat geschrieben:Linienpaare werden immer bei maximalem Kontrast in schwarz/weiss gemessen (auch bei Farbkameras).
Abercrombie hat geschrieben:Genau. Erst Schwarz, dann Weiß, dann Schwarz, dann Weiß, und so weiter.Tiefflieger hat geschrieben:Linienpaare werden immer bei maximalem Kontrast in schwarz/weiss gemessen (auch bei Farbkameras).
Aber was möchtest du genau damit sagen?
Z.B. eine Kinokamera bei 1080 Linienpaaren in schwarz/weiss fällt die Farbauflösung auf 300 lp zurück.]Aber die maximale horizontale Pixelanzahl liegt bei 2304. Wenn davon 2160 Linien erkannt werden können entspricht das 93,75%. Nicht schlecht[
Ja, ich weiß nicht ganz wieso das Rauschen da stärker auftritt, aber es ist merklich. Beim Skalieren wird es ja quasi "wegreuziert" (verzeih das Wortspiel), sieht gleich viel angenehmer und (trotz Verlust des groben Rauschens) nicht unnatürlich aus.Tiefflieger hat geschrieben: @CameraRick
Was auffällt ist, dass bei Kameras mit 8K und 4K Sensoren die Bilder bei nativer Darstellung entsprechend verrauscht sind.
Bei niedriger Ausbelichtung von 8K->4K oder 4K->2K, dass Bild bei weniger rauschen stimmiger ist.
(Im übrigen gibt es auch im Consumerbereich Kameras die intern höher als FullHD auflösen sogar als DreiChip oder professionell Canon C300/C500 oder von JVC bis zu 4K UHD)
Gruss Tiefflieger
Auflösung sind eben keine Details :)Tiefflieger hat geschrieben: Dann spielt noch das Licht, die Optik und in Summe daraus der Kontrast hinein.
Zum glück weiss jeder was er an seinem Werkzeug hat.
Ich sehe einen Unterschied. Zwei Dinge führen dazu, dass ich die Bilder nur schwer bewerten kann: Erstens ärgere ich mich, dass man keine Festbrennweite und Stativ verwendet hat. Da die Bilder sogar rotieren, kann ich nur schwer vergleichen. Zweitens müsste man für den Auflösungsabfall auch das skalierte Bild sehen. Und es muss noch ein weiterer Parameter verändert worden sein, denn sonst könnte man nicht beide Bilder bei ISO 2000 (und gleicher Blende und Verschlusszeit) aufnehmen und gleich hell sein, denn die Farbfilter schlucken Licht.CameraRick hat geschrieben:Per se hässlich also.
...
Und Du hast mir die Frage nicht beantwortet, wiederholt. Findest Du, in diesem durchaus legitimen Beispiel, den Unterschied soooo gering?
Mir ist es klar, dass bei rot/blau-Testbilder die Auflösung deutlich drunter liegt. Habe ich auch nie anders behauptet. Es geht mir vor allem um die Behauptung von Paralkar, dass beim debayering per se 30 oder mehr Prozent verloren gehen. Und da behaupte ich, dass es in der Realität wohl um weniger handelt. Und wenn man so eine Behauptung aufstellt, dann doch bitte mit Fakten untermauert.Tiefflieger hat geschrieben:Kinokamera bei 1080 Linienpaaren in schwarz/weiss fällt die Farbauflösung auf 300 lp zurück.
Gute FullHD Kameras erreichen vielleicht 750 - 850 lp bei etwa 170-180 lp in Farbe.
Alles was an Farbe fehlt ist interpoliert und fehlt in der Zeichnung (Musterung).
Würde ich das auch so sehen, wäre ich bald arbeitslos ;o)Abercrombie hat geschrieben: Ja... ich mag es nicht. Und alles was du in der Post machst kann man auch durch Filter am Set erreichen. Da sehe ich keinen Nachteil.
RED Scarlet-XAbercrombie hat geschrieben: A pros pos Fakten: Hast du ne Quelle für die 300 Linienpaare?
Ich glaub das kam von mir mit den 30%, hm? :)Abercrombie hat geschrieben:Es geht mir vor allem um die Behauptung von Paralkar, dass beim debayering per se 30 oder mehr Prozent verloren gehen. Und da behaupte ich, dass es in der Realität wohl um weniger handelt. Und wenn man so eine Behauptung aufstellt, dann doch bitte mit Fakten untermauert.
A pros pos Fakten: Hast du ne Quelle für die 300 Linienpaare?
Total legitim. Ich muss auch dazu sagen, dass ich noch keine Arbeit von mir jemals in s/w abgegeben habe. Das Thema s/w ist (war müsste man eher sagen) immer ein privates.CameraRick hat geschrieben:Aber ich bin da auch vielleicht mehr Pragmatiker als Ästhet, und generell eher better safe then sorry.
Kein Problem. Ich surfe auch während der Arbeit und investiere auch gerne mal etwas Zeit rein, wenn ich etwas lernen kann. Daher bin ich auch immer mal wieder hier unterwegs. Und deshalb frage ich auch nach Quellen.CameraRick hat geschrieben:und für eine Diskussion in einem Internetforum bin ich auch nur bedingt bereit meine bezahlte Arbeit ruhen zu lassen um diese wieder zu finden. Ich surf hier nicht in meiner Freizeit, da hab ich besseres zu tun.
Also, ich will einräumen, dass ich mich durchaus irren kann, wäre ja menschlich. Ich such noch mal nach diesem Link, irgendwo muss er ja sein.
