Schon klar. Aber es sind eben 4 verschiedene *Lichtstrahlen*, die auf die Sensel fallen, wogegen bei 3 Chip ein Lichtstrahl *aufgespalten* wird. Die 3 Farben also eindeutig einem Bildpunkt zugeordnet werden können, ohne Interpolation.srone hat geschrieben:wenn ich aber 4 sensel habe (4k-sensor), um ein (full-hd) pixel zu errechnen, entspricht dies einer 4-chip kamera. anstatt des prismas habe ich die farbfilter vor jedem sensel.
ich halte das ehrlich gestanden für keine so gute darstellung.Starshine Pictures hat geschrieben:The C100/C300 sensor is unique for single sensor cameras in that it takes a 1080p image from a 4k sensor with each color sample coming froma single unaveraged R, G,or B detector so that it acts like 3 chip camera where there are separate unique channels for each RGB point, no averaging to bring information into points that are lacking it.
da zitier ich mich mal selbst.srone hat geschrieben:man sollte, in diesem kontext, sich mal vor augen halten, was schaffen wir an bildprocessing in echtzeit mit einer octa-core workstation im verbund mit einer teraflops-gpu bei einen leistungsbedarf von min 1kw und was soll eine kamera mit, sicherlich hochspezialisierten asics, bei einem avisierten smartphone stromverbrauch, da leisten können?
in dem moment besteht der full-hd pixel aus 4 4k senseln, ich habe also die 4-fache auflösung die ich eigentlich benötige, dieser marginale sensel-shift bleibt also ohne nennenswerte auflösungsverluste in bezug auf full-hd.dienstag_01 hat geschrieben:Schon klar. Aber es sind eben 4 verschiedene *Lichtstrahlen*, die auf die Sensel fallen, wogegen bei 3 Chip ein Lichtstrahl *aufgespalten* wird. Die 3 Farben also eindeutig einem Bildpunkt zugeordnet werden können, ohne Interpolation.srone hat geschrieben:wenn ich aber 4 sensel habe (4k-sensor), um ein (full-hd) pixel zu errechnen, entspricht dies einer 4-chip kamera. anstatt des prismas habe ich die farbfilter vor jedem sensel.
Unverständlich ausgedrückt?
Erklär doch mal, wie er funktioniert, damit wir uns anhand des GH4 Beispiels ein Bild machen können und zum Vergleich heranziehen.spätestens dann, wenn die grenzen der verfügbaren rechenkapazität technische notlösungen und vereinfachungen bedingen, kann es auch gänzlich kontraproduktiv ausfallen. der unbefriedigende interne gh4 1080p modus ist ein wunderbares beispiel dafür.
das stimmt nur, solange du es nicht besseren lösungen vergleichst.srone hat geschrieben:...dieser marginale sensel-shift bleibt also ohne nennenswerte auflösungsverluste in bezug auf full-hd.
das getrau ich mich nicht zu beantworten! -- sorry!srone hat geschrieben:wenn wir den faktor "pixelquality" einbringen würden, in anbetracht der verfügbaren rechenleistung "in cam", welche verfahren wären dann am zielführendsten?
wird mir nicht ganz klar, ich setze ein full-hd raster auf einem 4k chip, habe also 4 sensel pro hd-pixel, wenn ich selbige hd-pixelintern verechne, welche farbverschiebung soll auftreten?mash_gh4 hat geschrieben:das stimmt nur, solange du es nicht besseren lösungen vergleichst.srone hat geschrieben:...dieser marginale sensel-shift bleibt also ohne nennenswerte auflösungsverluste in bezug auf full-hd.
im bezug auf die farbverfälschungen an den kanten stimmt es leider nicht.
das ist aber hier, immer wieder das thema, kein vorwurf gegen dich, ich kann das ab einem gewissen punkt auch nur "abschätzen", versuche allerdings so viele relevante punkte wie möglich mit einzubeziehen und komme für mich dann zu dem schluss, uns wird herstellerseitig viel erzählt, was zur zeit gar nicht wirklich leistbar ist oder eben nur bruchstückhaft, via etlicher tricks und das befriedigt einen auf der suche nach dem reinen bild wohl kaum. ;-)mash_gh4 hat geschrieben:das getrau ich mich nicht zu beantworten! -- sorry!srone hat geschrieben:wenn wir den faktor "pixelquality" einbringen würden, in anbetracht der verfügbaren rechenleistung "in cam", welche verfahren wären dann am zielführendsten?
ich bin froh, wenn ich ein bisserl was von dem begreife, was da hinter der oberfläche in den guten lösungen gegenwärtig genutzt wird, aber auch diese einblicke beruhen gewöhnlich auf sehr spärlich gestreuten herstellerangeben und indirekten nachvollzug, die auf die anwendung bekannter techniken schließen lassen. die ganze geschichte ist in wahrheit deutlich komplizierter, als dass man hier irgendeine ganz einfache lösung aus dem ärmel schütteln könnte. ich halte es bei solchen fragen oft für besser, wenn man das problem zwar grob umreißt und ein paar stichworte und anhaltspunkte zur orientierung austauscht, es aber letztlich doch jedem selbst überlässt, sich ein eigenes differenziertes bild dazu zu machen.
wirf einfach einen kurzen blick auf den oben schon angebebenen link und die dortigen 3x3 vergrößerungen:srone hat geschrieben:...welche farbverschiebung soll auftreten?
ja -- dass ist auch der grund, warum nur das pixel binning beispiel oben in der ersten liste kleiner ist als die anderen!srone hat geschrieben:sämtliche von dir verlinkte debayering algorithmen setzen auf dem nativen pixelraster (gedacht 4k bzw uhd) auf, das ist nicht mein obig beschriebener ansatz - ein full-hd pixel besteht aus 4 subpixeln (senseln) ohne direkten kontakt zum nachbar, sprich ausserhalb des 2x2 sensel-patterns, das einen full-hd pixel umschreibt, der skalierungsfaktor spielt hier imho eine entscheidende rolle.
also was gängige meinung ist, das ist zwar immer wieder amüsant, aber du weist selbst das die gängige meinung meistens sehr wenig mit der realität zu tuen hat. dazu kommt, das das was wowu schreibt ja in diesem fall oft sehr schlecht nachzuprüfen ist, weil eine kamera entweder hd oder uhd filmt, wenn es aber eine uhd kamera ist, und du drehst "nur" in hd dann ist die bildqualität immer deutlich schlechter als wenn du in uhd drehst und es runter scalierst. das ist eine beobachtung die die meisten gemacht haben, und die ist auch richtig, aber das ist nicht was wowu gesagt hat. er vergleicht einen sensor mit kleinen pixeln und hoher pixeldichte mit einem sensor mit grossen pixeln und geringerer auflösung. also eine "echte" hd kamera mit einer uhd kamera. bei einer uhd kamera nur jeden 4ten pixel auszulesen fürhrt natürlich nicht zu besseren ergebnissen.wolfgang hat geschrieben:Also das widerspricht der gängigen Meinung. Meist hört man dass das Filmen in HD eine schlechtere Qualität liefert als wenn man in UHD Auflösung filmt und dann (hochertig) zu HD runterskaliert.
naja, also hier hast du was die kadrierung angeht natürlich recht. klar in 4k kannst du auch einen weniger talentierten kameraman buchen weil du in der post alles nochmal neu kadrieren kannst. die frage ist nur, willst du so einen kameraman? ich hab gerade letzte woche wieder einen film gepostet der in 6k red gedreht worden ist, dabei habe ich genau ein einziges bild neu kadriert, das war ein schuss aus einem fahrenden auto wo ich was wackeln von einem shot auf einen anderen übertragen habe um zwischen den beiden eine blende zu machen. sonst hab ich jedes einzelne bild genau so genommen wie es der kameramann kadriert hat. du hast also recht, aber das ist ja schon die ausnahme die du beschreibst, aber gut.wolfgang hat geschrieben: Abgesehen von den zusätzlichen Vorteilen dieses Weges (Bessere Ausschnittswahl, gesteigertes Farbsampling, Zukunftssicherheit den Schnitt auch in UHD zu haben).
Was "gängige Meinung" ist, und was man davon halten kann, hat Thorsten schon gesagt, aber definier doch einfach mal "hochwertig", denn das ist auch so ein Populärbegriff, der absolut nichts aussagt, denn Downscalierung ist nichts Anderes als UNTERABTASTUNG und damit wären wir bereis beim "gesteigerten Farbsampling", was eben ein solches Märchen aus der "gängigen Meinung" ist.wolfgang hat geschrieben:Also das widerspricht der gängigen Meinung. Meist hört man dass das Filmen in HD eine schlechtere Qualität liefert als wenn man in UHD Auflösung filmt und dann (hochertig) zu HD runterskaliert. Abgesehen von den zusätzlichen Vorteilen dieses Weges (Bessere Ausschnittswahl, gesteigertes Farbsampling, Zukunftssicherheit den Schnitt auch in UHD zu haben).
das ist schon aber schon eine sehr wohlwollende deutung von WoWus worten. ;)Peppermintpost hat geschrieben:...das ist nicht was wowu gesagt hat. er vergleicht einen sensor mit kleinen pixeln und hoher pixeldichte mit einem sensor mit grossen pixeln und geringerer auflösung. also eine "echte" hd kamera mit einer uhd kamera. bei einer uhd kamera nur jeden 4ten pixel auszulesen fürhrt natürlich nicht zu besseren ergebnissen.
Immer das gleiche. Ich gehe mittlerweile fest davon aus, dass du dir damit immer ein Spaß daraus machst, absurde Dinge in den Raum zu werfen, um andere das Gegenteil beweisen zu lassen.WoWu hat geschrieben:Du must Dir nur Deine Bilder richtig anschauen.
Ansonsten mach mal den kacheltest ... dann siehst Du auch die spatiale Auflösung.
Mach einfach mal .... Du bist doch der, der an 4K glaubt ... zeig doch mal her.
dito wowu, dito...WoWu hat geschrieben:Na ja, es war ja nicht anders zu erwarten ...
Ausser Polemik kommt von Dir ja nichts.
Hätte mich auch gewundert.
Ihr widersprecht Euch doch gar nicht, sondern seid einfach auf verschiedenen Baustellen unterwegs. Ja, einerseits stimmt, dass das System Sensor+Objektiv am besten auf die Zielauflösung optimiert ist, wenn man sich Optik und Signalverarbeitung ansieht. (So macht das ja z.B. eine Arri Alexa.) Andererseits stimmt, dass Consumerkameras wegen ihrer schwachbrüstigen Codecs und Signalverarbeitung (die keine Verschwörung gegen die Nutzer sind, sondern ihre Gründe in Produktionskosten + Miniaturisierung-/Kühlung haben) bessere Resultate durch Aufnehmen in der höheren Auflösung und Herunterskalieren liefern.Angry_C hat geschrieben: Einem LX100 mit auf den Weg zu geben, er sollle anstatt der sehr guten UHD Auslesung lieber den HD Modus nehmen, der vor Aliasing nur so strotzt, ist schon arg fies.
Doch wir widersprechen uns. Und eine Alexa macht auch ein 2.5k Downscaling, damit nahezu HD Auflösung erreicht wird. Ein nativer FullHD Sensor kann bei gutem Debayering maximal 3/4 FullHD Detailauflösung erreichen.cantsin hat geschrieben:Ihr widersprecht Euch doch gar nicht, sondern seid einfach auf verschiedenen Baustellen unterwegs. Ja, einerseits stimmt, dass das System Sensor+Objektiv am besten auf die Zielauflösung optimiert ist, wenn man sich Optik und Signalverarbeitung ansieht. (So macht das ja z.B. eine Arri Alexa.) Andererseits stimmt, dass Consumerkameras wegen ihrer schwachbrüstigen Codecs und Signalverarbeitung (die keine Verschwörung gegen die Nutzer sind, sondern ihre Gründe in Produktionskosten + Miniaturisierung-/Kühlung haben) bessere Resultate durch Aufnehmen in der höheren Auflösung und Herunterskalieren liefern.Angry_C hat geschrieben: Einem LX100 mit auf den Weg zu geben, er sollle anstatt der sehr guten UHD Auslesung lieber den HD Modus nehmen, der vor Aliasing nur so strotzt, ist schon arg fies.
Anno dazumal haben wir auch mit vorgeblichen HD-Kameras gefilmt, die heute auflösungstechnisch allenfalls für 720p taugen. Ähnlich wird es mit den heute als "4k" gelabelten Kameras sein. Wenn in ein paar Jahren Hinz und Kunz 4k-Monitore haben und es dann 8k (oder mehr) Kameras gibt, die überdies höhere Farbtiefe und weiß-der-Kuckuck was noch für Qualitätsmerkmale haben, werden wir feststellen, dass das UHD eigentlich schon immer besseres HD war.scrooge hat geschrieben:Nach den letzten Antworten bin ich nicht unbedingt schlauer geworden. Aber das kann auch an mir liegen. :-)
Ich habe mich aber entschieden, mit meiner LX100 definitiv weiter in UHD zu drehen.
LG
Hartmut
Alles richtig, allerdings wird hier immer wieder von unserem Videoexperten die Verbesserung der Detailauflösung von 4K gegenüber FullHD bestritten.Axel hat geschrieben:Anno dazumal haben wir auch mit vorgeblichen HD-Kameras gefilmt, die heute auflösungstechnisch allenfalls für 720p taugen. Ähnlich wird es mit den heute als "4k" gelabelten Kameras sein. Wenn in ein paar Jahren Hinz und Kunz 4k-Monitore haben und es dann 8k (oder mehr) Kameras gibt, die überdies höhere Farbtiefe und weiß-der-Kuckuck was noch für Qualitätsmerkmale haben, werden wir feststellen, dass das UHD eigentlich schon immer besseres HD war.scrooge hat geschrieben:Nach den letzten Antworten bin ich nicht unbedingt schlauer geworden. Aber das kann auch an mir liegen. :-)
Ich habe mich aber entschieden, mit meiner LX100 definitiv weiter in UHD zu drehen.
LG
Hartmut
Es hätte allerdings auch damals niemandem was gebracht, deshalb in SD-Auflösung zu filmen. Deshalb: richtige Entscheidung.
da steht doch garnichts von detail auflösung. er sagt nur das grosse pixel einen anderen look haben als kleine pixel. das ist zweifelsfrei richtig.WoWu hat geschrieben:4K generiert Dir beim Downscaling eine hohe Anzahl an Kontrastkanten, aber kein zusätzliches Bilddetail.
Magst Du also harte Kontraste, sieht das Bild scheinbar besser aus, hat aber den typischen Videolook.
Natürlichere Bildwiedergabe erreichst Du eher mit einer HD Aufmahme, bei gleicher Sensorgrösse aber dafür größeren Pixels.
Wer jemals auch nur ein einzelnes Foto in einem RAW Converter nachbearbeitet hat und sich bewusst macht, dass alle Veränderungen/Verbesserungen immer auf der gleichen *Detailauflösung* basieren, dürfte verstehen, dass der durchaus erkennbare *Unterschied* nichts, aber auch gar nichts mit der *Detailauflösung* zu tun hat.Angry_C hat geschrieben:Alles richtig, allerdings wird hier immer wieder von unserem Videoexperten die Verbesserung der Detailauflösung von 4K gegenüber FullHD bestritten.
Es sind sich glaube ich alle einig, dass die jeweilige Nennauflösung nie zu 100% erreicht wird. Es geht allein um den sichtbaren Unterschied, der hier vehement und gebetsmühlenartig bestritten wird.