Logo Logo
/// 

Mehr Bildschärfe durch künstliche Intelligenz - Super-Resolution



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Wir hatten die Diskussion ja schon ansatzweise öfter bei uns im Forum: Nämlich inwieweit künstliche Intelligenz in Zukunft mittels tiefschichtiger Neuronaler Netze die Bi...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Mehr Bildschärfe durch künstliche Intelligenz - Super-Resolution




Antwort von Frank B.:

Hmmm. Das heißt also, dass der Algorithmus Dinge errechnet, die da sein könnten aber nicht sein müssen, um das Bild schärfer zu bekommen?



Antwort von Rudolf Max:

Hier ein spannender und sehr informativer Bericht über dieses Thema...

http://www.filmkorn.org/zwischen-den-ze ... ilm-sehen/





Antwort von KallePeng:

Ich sehe in Eurem Beispiel vor allem, dass aus einem hochkomprimierten Jpeg die Klötzchenartefakte herausgerechnet worden sind.
Das könnte ein toller Weg sein, z.B. Haare in Jpegs freizustellen, was ja bei RAW Material weniger ein Problem darstellt.
Wenn man also ein Jpeg auf dem Wege vor dem Freistellen künstlich Schärfen kann, dann hätte man ja quasi ein Bild, das einem RAW zumindest physikalisch in nichts nachsteht.
Problematisch wird es nur, wenn man für die KI die Renderfarm oder Cloud eines Anbieters nutzen muß.
Wenn ein solcher Algorhytmus also einmal in Photoshop oder After effekts oder Premiere Einzug hält, dann müsste man sein Rohmaterial erst hochladen, bearbeiten lassen und dann zurückladen.
Neben dem Traffic sehe ich da vor allem das Problem des Copyrights, wem gehören die geschärften Bilder?
Stand heute ist ja, dass sich alle öffentlichen Clouddienste wie YouTube oder Facebook die Rechte am Material im Kleingedruckten übertragen lassen.
Ich glaube nicht, dass mein kleiner i7-Quadcore mit 8TB Raid genügend Power hat um solch einen Algorhytmus auszuführen :-(



Antwort von Axel:

Hier ein spannender und sehr informativer Bericht über dieses Thema...

http://www.filmkorn.org/zwischen-den-ze ... ilm-sehen/

Dieses SR-Verfahren hat offenbar Schwierigkeiten mit Unschärfe. Ironischerweise braucht ein gutes Bokeh ja eher Hyper-Resolution, während notfalls ein paar Ministeck-Klötzchen ganz glaubhaft eine geschwungene Wimper darstellen können.

Beeindruckend vor allem, wie gut das Verfahren offenbar darin ist, bereits vorhandene Moirés zu erkennen und zu entfernen. Fast schade, dass die DSLR/Mirrorless-Hersteller inzwischen schon selbst ziemlich gut darin sind, es zu vermeiden ...



Antwort von WoWu:

Bokeh kommt zukünftig auch aus der "Dose" und die Bezeichnung Bilddetail wird auch neu zu definieren sein, denn die Algorithmen können zwar eine Linie "logisch" über Subpixel fortsetzen, das Ganze passiert aber erst quasi in der Rekonstruktion.
Befindet sich auf der nachgefühlten Linie ein zusätzliches Bilddetail, das das Objektiv nicht aufgelöst hat, wird es auch im hochaufgelösten Bild nicht stattfinden.
Man gewinnt also keine zusätzliche Bildauflösung, also keine besser aufgelösten Szenenbilder sondern lediglich Bildschärfe unter Verlust des Bokehs.
Bis zum Horizont sind also alle Baumwipfel messerscharf, obwohl das Objektiv und auch das Auge, das auf den zentralen Gegenstand fokussiert war, sie so gar nicht wahrgenommen haben.
Wir sind damit bei der Bildästhetik von Vodeospielen angekommen.

Das heißt ... nein.
Denn die brechen Kanten bereits wieder und kommen der Realität wieder näher.
Also ist Video jetzt bei der Gameästetik der 90er/2000er Jahre angekommen.

Und vorhandenes Moire wird auch nicht entdeckt und entfernt, sondern mit ähnlich aussehenden Elementen, entweder aud demselben Bild, oder aus einer Datenbank, überdeckt.
Details innerhalb der Moirefläche werden damit aber ebenso zugeschmiert und gehen verloren.
Es geht also nur um Verdeckung, nicht um die Reparatur einer natürlichen Szene.



Antwort von nic:

Bokeh kommt zukünftig auch aus der "Dose" und die Bezeichnung Bilddetail wird auch neu zu definieren sein, denn die Algorithmen können zwar eine Linie "logisch" über Subpixel fortsetzen, das Ganze passiert aber erst quasi in der Rekonstruktion.
Befindet sich auf der nachgefühlten Linie ein zusätzliches Bilddetail, das das Objektiv nicht aufgelöst hat, wird es auch im hochaufgelösten Bild nicht stattfinden.
Man gewinnt also keine zusätzliche Bildauflösung, also keine besser aufgelösten Szenenbilder sondern lediglich Bildschärfe unter Verlust des Bokehs.
Bis zum Horizont sind also alle Baumwipfel messerscharf, obwohl das Objektiv und auch das Auge, das auf den zentralen Gegenstand fokussiert war, sie so gar nicht wahrgenommen haben.
Wir sind damit bei der Bildästhetik von Vodeospielen angekommen.

Das heißt ... nein.
Denn die brechen Kanten bereits wieder und kommen der Realität wieder näher.
Also ist Video jetzt bei der Gameästetik der 90er/2000er Jahre angekommen.

Und vorhandenes Moire wird auch nicht entdeckt und entfernt, sondern mit ähnlich aussehenden Elementen, entweder aud demselben Bild, oder aus einer Datenbank, überdeckt.
Details innerhalb der Moirefläche werden damit aber ebenso zugeschmiert und gehen verloren.
Es geht also nur um Verdeckung, nicht um die Reparatur einer natürlichen Szene.

Also die Motivation deines Feldzuges kann ich beim besten Willen nicht nachvollziehen... Dein gebetsmühlenartig beschwörtes Horrorszenario ist sowas von an der Haaren herbeigezogen, dass ich bezweifle, dass du dich mit dem Thema ernsthaft in eine Diskussion begeben möchtest, oder einfach nur imaginäre Windmühlen... lassen wir das besser...



Antwort von Jott:

Man gewinnt also keine zusätzliche Bildauflösung, also keine besser aufgelösten Szenenbilder sondern lediglich Bildschärfe unter Verlust des Bokehs.

Bis zum Horizont sind also alle Baumwipfel messerscharf, obwohl das Objektiv und auch das Auge, das auf den zentralen Gegenstand fokussiert war, sie so gar nicht wahrgenommen haben.

Wie schon öfters von mir angemerkt: das simple Anschalten und Anschauen des Bildes, das eine beliebige Feindbild-4K-Kamera liefert, führt diese Behauptung ad absurdum. Egal wieviel K, das Bokeh ist da! Auch bei Handies, einfach mal auf etwas im Vordergrund fokussieren.



Antwort von WoWu:

Bokeh kommt zukünftig auch aus der "Dose" und die Bezeichnung Bilddetail wird auch neu zu definieren sein, denn die Algorithmen können zwar eine Linie "logisch" über Subpixel fortsetzen, das Ganze passiert aber erst quasi in der Rekonstruktion.
Befindet sich auf der nachgefühlten Linie ein zusätzliches Bilddetail, das das Objektiv nicht aufgelöst hat, wird es auch im hochaufgelösten Bild nicht stattfinden.
Man gewinnt also keine zusätzliche Bildauflösung, also keine besser aufgelösten Szenenbilder sondern lediglich Bildschärfe unter Verlust des Bokehs.
Bis zum Horizont sind also alle Baumwipfel messerscharf, obwohl das Objektiv und auch das Auge, das auf den zentralen Gegenstand fokussiert war, sie so gar nicht wahrgenommen haben.
Wir sind damit bei der Bildästhetik von Vodeospielen angekommen.

Das heißt ... nein.
Denn die brechen Kanten bereits wieder und kommen der Realität wieder näher.
Also ist Video jetzt bei der Gameästetik der 90er/2000er Jahre angekommen.

Und vorhandenes Moire wird auch nicht entdeckt und entfernt, sondern mit ähnlich aussehenden Elementen, entweder aud demselben Bild, oder aus einer Datenbank, überdeckt.
Details innerhalb der Moirefläche werden damit aber ebenso zugeschmiert und gehen verloren.
Es geht also nur um Verdeckung, nicht um die Reparatur einer natürlichen Szene.

Also die Motivation deines Feldzuges kann ich beim besten Willen nicht nachvollziehen... Dein gebetsmühlenartig beschwörtes Horrorszenario ist sowas von an der Haaren herbeigezogen, dass ich bezweifle, dass du dich mit dem Thema ernsthaft in eine Diskussion begeben möchtest, oder einfach nur imaginäre Windmühlen... lassen wir das besser...

Das ist mir schon klar, dass so Mancher aus seiner "4K Wolke" fällt aber es ist doch ganz einfach nachzuprüfen .... zeig mir doch einfach mal die 2x2cm die aus rd. 100m Entfernung noch aufgelöst sind, denn das entspricht 4K, wie Du leicht nachrechnen kannst.
Aber wahrscheinlich stimmen dann auch Mathematik und Physik nicht mehr in Deinem Weltbild.
Diskussion also gern, aber nur auf Faktenbasis und nicht auf polemischen Einlassungen.
Und schliesslich sagst Du doch :"es geht", als zeig doch mal...



Antwort von nic:

Bokeh kommt zukünftig auch aus der "Dose" und die Bezeichnung Bilddetail wird auch neu zu definieren sein, denn die Algorithmen können zwar eine Linie "logisch" über Subpixel fortsetzen, das Ganze passiert aber erst quasi in der Rekonstruktion.
Befindet sich auf der nachgefühlten Linie ein zusätzliches Bilddetail, das das Objektiv nicht aufgelöst hat, wird es auch im hochaufgelösten Bild nicht stattfinden.
Man gewinnt also keine zusätzliche Bildauflösung, also keine besser aufgelösten Szenenbilder sondern lediglich Bildschärfe unter Verlust des Bokehs.
Bis zum Horizont sind also alle Baumwipfel messerscharf, obwohl das Objektiv und auch das Auge, das auf den zentralen Gegenstand fokussiert war, sie so gar nicht wahrgenommen haben.
Wir sind damit bei der Bildästhetik von Vodeospielen angekommen.

Das heißt ... nein.
Denn die brechen Kanten bereits wieder und kommen der Realität wieder näher.
Also ist Video jetzt bei der Gameästetik der 90er/2000er Jahre angekommen.

Und vorhandenes Moire wird auch nicht entdeckt und entfernt, sondern mit ähnlich aussehenden Elementen, entweder aud demselben Bild, oder aus einer Datenbank, überdeckt.
Details innerhalb der Moirefläche werden damit aber ebenso zugeschmiert und gehen verloren.
Es geht also nur um Verdeckung, nicht um die Reparatur einer natürlichen Szene.

Also die Motivation deines Feldzuges kann ich beim besten Willen nicht nachvollziehen... Dein gebetsmühlenartig beschwörtes Horrorszenario ist sowas von an der Haaren herbeigezogen, dass ich bezweifle, dass du dich mit dem Thema ernsthaft in eine Diskussion begeben möchtest, oder einfach nur imaginäre Windmühlen... lassen wir das besser...

Das ist mir schon klar, dass so Mancher aus seiner "4K Wolke" fällt aber es ist doch ganz einfach nachzuprüfen .... zeig mir doch einfach mal die 2x2cm die aus rd. 100m Entfernung noch aufgelöst sind, denn das entspricht 4K, wie Du leicht nachrechnen kannst.
Aber wahrscheinlich stimmen dann auch Mathematik und Physik nicht mehr in Deinem Weltbild.
Diskussion also gern, aber nur auf Faktenbasis und nicht auf polemischen Einlassungen.
Und schliesslich sagst Du doch :"es geht", als zeig doch mal...
Ich behaupte hier gar nichts. Nur, dass dein Getrolle unglaublich nervt. Und, dass 2x2cm auf 100m überhaupt nichts mit 4K zu tun hat. Erst recht nicht, wenn du dazu keine BrennweiteBrennweite im Glossar erklärt und Sensorgröße angibst...
Nebenbei antwortest du scheinbar auch der falschen Person im falschen Thread...



Antwort von WoWu:

Du erzählst mir nicht Neues, die 100m Angabe war auch nur eine circa Angabe. Nur der Bildwinkel und damit die Entfernung wird bei den derzeit üblichen Sensoren und Normalobjektiven in dem Bereich liegen.
Und wenn Du sagst, eine Objektgrösse hätte damit nichts zu tun, dann deutendes darauf hin, dass Du Dich vielleicht nocheinmal etwas intensiver mit dem Thema beschäftigen solltest, bevor Du hie unsubstantielle Polemik verbreitest.
Komm mit Fakten und schaff die Grundlage für eine Diskussion statt hier zu trollen.
Und wenn Dich solche Threads nerven, dann lies sie doch einfach nicht.
Dass Du nicht konstruktiv daran teilnimmst spricht sowieso nicht für einen großen Verlust, wenn Du sie einfach skips.



Antwort von nic:

Du erzählst mir nicht Neues, die 100m Angabe war auch nur eine circa Angabe. Nur der Bildwinkel und damit die Entfernung wird bei den derzeit üblichen Sensoren und Normalobjektiven in dem Bereich liegen.
Und wenn Du sagst, eine Objektgrösse hätte damit nichts zu tun, dann deutendes darauf hin, dass Du Dich vielleicht nocheinmal etwas intensiver mit dem Thema beschäftigen solltest, bevor Du hie unsubstantielle Polemik verbreitest.
Komm mit Fakten und schaff die Grundlage für eine Diskussion statt hier zu trollen.
Und wenn Dich solche Threads nerven, dann lies sie doch einfach nicht.
Dass Du nicht konstruktiv daran teilnimmst spricht sowieso nicht für einen großen Verlust, wenn Du sie einfach skips.

Soll ich mich jetzt auf dich einlassen? Na gut, so lange es Spass macht...

Also, es geht dir darum, dass du meinst, wenn sich eine Kamera 4K schimpft, dass sie dann auch für jeden aufgezeichneten PixelPixel im Glossar erklärt den exakten Farbwert des in 4.096 x 2.160 Ausschnitten quantisierten Motivs abbilden muss?



Antwort von WoWu:

Von Farbe würde ich nicht mal ausgehen, aber mindestens die entsprechenden Luminanzwerte ... aber egal wie, ein yobjekt der Grösse muss mindestens erkannt werden, weil es sonst einfach keine 4K Bilddetails sind.
Genau das, was die EBU in ihren Tests auch nachschaut.
Denn die interessiert auch nicht, wieviele Pixels benutzt werden, um 4K Bilddetails im Bild zu generieren.
Die Anforderung ist also durchaus praxisorientierte.
Bei Farbwerten müsstest Du an der Stelle statt des 2x2 Objektes 4 unterschiedliche Farbobjekte dieser Größe anordnen, aber das geht sowieso schief, weil schon aufgrund des Shiftes im Debayering da nix bei herauskommt.



Antwort von nic:

Dann stelle ich doch einfach frech eine Gegenthese auf:

Das Motiv ist irrelevant. Einzig die Fähigkeit des Sensors das auf ihn eintreffende, also das projizierte Bild zu quantizieren, definiert dessen Auflösung. Und das ist nunmal durch die Anzahl der Sensel bestimmt. Ein 4K-Bayer-Sensor ist dadurch nunmal ein 4K-Sensor - mit all seinen Eigenheiten, etwa bei der Chroma-Auflösung. Dass danach nicht jeder einzelne PixelPixel im Glossar erklärt im Bild genau den Chroma- und Luminanzwert hat, den du gerne hättest, liegt an vielen Faktoren: Am Objektiv, daran, dass auf Senselebene sowieso nie absolut trennscharfe Übergänge entstehen, am Debayering, an der Komprimierung, usw...

Aber was sagt uns das jetzt? Nichts. Der Sensor ist ein 4K-Sensor. Die tatsächliche Auflösung der Details im finalen Bild wird variieren, von Motiv zu Motiv. Trotz allem wird man von 4K sprechen und die entsprechende Pixelzahl wird man auch aufzeichnen und weitervearbeiten, denn das ist der maximalmögliche "Inhalt". Und jedem, der mit 4K täglich zu tu hat, dem ist das auch bewusst...



Antwort von WoWu:

Na prima, dann sollte es für Dich ja ein Leichtes sein, das 2cm Objekt in dem Anstand darzustellen. Vom Chromathema wollen wir mal ganz absehen. Das klappt schon bei 2K nur unbefriedigend.

Ich entnehme aber Deiner Einlassung, dass es Dir gar nicht darauf ankommt, wieviele Bildpunkte das Bild hat, also nicht auf das Ergebnis.
Da unterscheidest Du Dich dann offenbar von dem, was die Broadcaster (EBU) voraussetzen, denn deren Tests interessieren ausschliesslich das, was als Produkt "hinten raus kommt".
So erklärt sich dann auch, dass Du ein Bild, das mit einem 4K Sensor gefertigt hast, für ein 4K Bild hältst, obwohl nur HD aufgelöst werden, wie der EBU Test der RED gezeigt hat.
Wir unterscheiden uns also lediglich in der Auflösungsanforderung des Bildes.
Dir kommt es nicht darauf an, wieviele Bildpunkte als Ergebins dabei herauskommen sondern mit wieviel PixelPixel im Glossar erklärt ein Bild aufgenommen wurde, egal, welche Auflösung als Ergebis entsteht.
Aber wenn Du das gleich setzt, sollte es ja möglich sein, mal eben die 2x2 cm in (rd.) 100m aufzulösen und eine kurze Sequenz hier einzustellen.



Antwort von nic:

Natürlich kommt es mir darauf an, was am Ende "raus kommt". Nur stelle ich keine unmöglichen Anforderungen an ein Kamerasystem. Die Bezeichnung 4K bezieht sich auf den Sensor und auf die aufgezeichneten Pixel. Und mehr nicht. Kein 4K-Sensor schafft das von dir geforderte Ergebnis in jeder Situation. Also erwarte ich das auch nicht. Deshalb drehen wir momentan auf einer 8K Kamera um zukünftig in 4K zu mastern...



Antwort von cantsin:

Die Bezeichnung 4K bezieht sich auf den Sensor und auf die aufgezeichneten Pixel. Und mehr nicht.
Nein, das bezieht sich auf die Wiedergabe. Erst die Kamerahersteller haben das aus Marketinggründen auf die Sensorpixel umgebogen.

EDIT: Ist ja der gleiche faule Marketingzauber wie lange Zeit bei Kameradisplays und -EVFs, wo dann 640x480 zu 921.600 Bildpunkten wurden, weil man die RGB-Subpixel statt der vollen PixelPixel im Glossar erklärt gezählt hat.



Antwort von Jott:

obwohl nur HD aufgelöst werden, wie der EBU Test der RED gezeigt hat.

Der Ordnung halber: hat er nicht. Ohne Windowing, was sowieso niemand macht, hat der testende Herr folgendes festgestellt:

"The image-content resolution limits are now about 3400x1900. The level of aliasing appears to be lower, because the optical low-pass filter and lens are not passing so much of the unwanted frequencies to the sensor. This mode is acceptable for 4K shooting."

Nicht ganz UHD (was auch der nicht näher genannten verwendeten Optik geschuldet sein könnte), aber fast, und auf jeden Fall gaaaanz weit über HD.

Die EBU-Definition von UHD Tier 1: 3840x2160 pro Farbkanal. Wenn diese Latte überhaupt von irgend einer existierenden Kamera gerissen werden kann, dann theoretisch vielleicht von der Ikegami (3xCMOS via Prisma, jeweils mit nativer UHD-Auflösung, also kein Bayersensor).

Das nur am Rande.

Und was ist jetzt mit dem nicht mehr vorhandenen Bokeh, weil die Auflösung angeblich nur künstlich errechnet wird und die Algorithmen mit partieller Unschärfe nichts am Hut haben?



Antwort von WoWu:

Es ist vermutlich Deiner Aufmerksamkeit entgangen, dass der Tester das, von Dir erwähnte Zitat zum 6K Modus erwähnt hat, nicht aber zum 4K Modus.

Diese Auflösungseinstellung 6K würde die EBU gerade noch für den 4K Anspruch im Tier2, also "Mainstream" Aufnahmen UHD akzeptieren.

Es hat nie jemand behauptet, dass es mit entsprechend großen und den drastisch höheren Pixelmengen, nicht auch möglich ist, 4K herzustellen.

Hier reden wir aber über Kameras mit 4K Sensoren, die vorgeben, 4K optisch aufzulösen .... und das ist eben (auch in dem erwähnten Testfall) nicht so.
Im 4 K Modus werden lediglich HD Anforderungen erfüllt.

Ich will ja nicht annehmen, dass Du die Mitleser hier absichtlich täuschen wolltest, aber einwenig genaueres Studium solcher Tests wären zur Vermeidung von "Missverständnissen" schon hilfreich.

Und ob Kameras nun die volle UHD/4K Auflösung überhaupt erreichen, ist ja mein Reden ... darum geht es ja gerade.
Schön, dass Du auch langsam auf den Dampfer kommst, dass viele der jetzigen "4K" Kameras nur HD auflösen.

"Guten Morgen"

@7nic

Dein Denkfehler besteht darin, dass Du das projizierte Bild auf dem Sensor als homogene Projektion ansiehst, die es nicht ist, denn mit zunehmenden Ortsfrequenzen nimmt die Darstellung des Kontrastes (durch die Rasterung) drastisch ab (MTF) so dass der Sensor bei hohen Ortsfrequenzen u.U. gar nichts mehr aufzeichnen kann. Danzig kommen noch diverse andere Effekte (z.B. die Punktbilder der Objektive), die die Auflösung zusätzlich verringern. Ohnehin müssen Objektive, für 4K auf den heute üblichen kleinen Sensoren immense optische Auflösungen bringen, was sie fast unerschwinglich machen.
Das Alles trägt in de Summe dazu bei, dass es in dem Segment kaum/keine 4K Ergebnisse gibt.
Und das war ja genau der Kritikpunkt.



Antwort von Jott:

Du erzählst ständig, die RED könne nur HD. Das ist Täuschung. Ich habe genau geschrieben: ohne Windowing. Denn niemand dreht mit der Kamera im stark gecroppten 4K-Mode, es sei denn, es geht um extreme Slomos.

Aber klar, dein 4K-Verteufelungs-Kreuzzug muss Bestand haben. Der geneigte Mitleser kann ja selber nachlesen, das pdf ist leicht zu ergooglen.

Irgend eine Anmerkung zu der Bokeh-Geschichte? Den 7nic interessiert das sicher auch brennend, hat er doch seit kurzem eine - kreisch! - 8K-Kamera! Da lohnt sich das Draufhauen mal richtig!

Schön, dass Du auch langsam auf den Dampfer kommst, dass viele der jetzigen "4K" Kameras nur HD auflösen.

Lass gut sein, es ist einfach zu albern.



Antwort von WoWu:

Vielleicht hast Du ja mein Posting wieder nicht verstanden.
Die RED ist im 4 K Modus nicht in der Lage, 4K zu generieren.

(auch wenn Du das in Deinen verkürzt dargestellten Zitat so darstellen wolltest).

Alles Andere entspringt Deiner Phantasie, von der Du ja offenbar reichlich hast.
Aber ich merke schon, Dir schwimmen langsam die Fälle davon und Du flüchtest Dich in irgendwelche Hirngespinste.

Wenn Du Dinge falsch verstehst, musst Du den Fehler nicht bei Andern suchen.



Antwort von Jott:

Bokeh?



Antwort von nic:

Die Bezeichnung 4K bezieht sich auf den Sensor und auf die aufgezeichneten Pixel. Und mehr nicht.
Nein, das bezieht sich auf die Wiedergabe. Erst die Kamerahersteller haben das aus Marketinggründen auf die Sensorpixel umgebogen.

EDIT: Ist ja der gleiche faule Marketingzauber wie lange Zeit bei Kameradisplays und -EVFs, wo dann 640x480 zu 921.600 Bildpunkten wurden, weil man die RGB-Subpixel statt der vollen PixelPixel im Glossar erklärt gezählt hat.

Wie würdest du einen 4K-Bayer-Sensor bezeichnen? 4K ist naheliegend und jeder, der sich eine Kamera in dieser Klasse mieten oder kaufen möchte, weiß was das bedeutet...



Antwort von nic:

Vielleicht hast Du ja mein Posting wieder nicht verstanden.
Die RED ist im 4 K Modus nicht in der Lage, 4K zu generieren.

(auch wenn Du das in Deinen verkürzt dargestellten Zitat so darstellen wolltest).

Alles Andere entspringt Deiner Phantasie, von der Du ja offenbar reichlich hast.
Aber ich merke schon, Dir schwimmen langsam die Fälle davon und Du flüchtest Dich in irgendwelche Hirngespinste.

Wenn Du Dinge falsch verstehst, musst Du den Fehler nicht bei Andern suchen.

Eine 4K-Bayer-Kamera löst keine 4K RGBRGB im Glossar erklärt an Details auf. Das hat JEDER seit der RED ONE spätestens verstanden. Das hat auch nie irgendjemand behauptet. Hör auf darauf herumzureiten... Das meine ich mit trollen...



Antwort von WoWu:

Bokeh?
Lass Dir von Srone nochmal den Link zu den Googel Bildern geben und dann kannst Du in Ruhe nach Bokeh suchen.



Antwort von cantsin:


Wie würdest du einen 4K-Bayer-Sensor bezeichnen? 4K ist naheliegend und jeder, der sich eine Kamera in dieser Klasse mieten oder kaufen möchte, weiß was das bedeutet...
Ich würde ihn als 12MP-Sensor bezeichnen, der sauberes 2K und interpoliertes Pseudo-4K aufzeichnet.



Antwort von Jott:

Lass Dir von Srone nochmal den Link zu den Googel Bildern geben und dann kannst Du in Ruhe nach Bokeh suchen.

Ich schmeiß mich weg - du bleibst also wirklich bei der Behauptung, dass bei 4K-Kameras alles von hinten bis vorne scharf ist? Grotesk. Aber auch lustig.



Antwort von nic:


Wie würdest du einen 4K-Bayer-Sensor bezeichnen? 4K ist naheliegend und jeder, der sich eine Kamera in dieser Klasse mieten oder kaufen möchte, weiß was das bedeutet...
Ich würde ihn als 12MP-Sensor bezeichnen, der sauberes 2K und interpoliertes Pseudo-4K aufzeichnet.

Das sei dir gegönnt... aber dann musst du differenzieren, er löst weit mehr als FHD auf, aber was genau erreicht wird, hängt vom debayering-Algorithmus und dem jeweiligen Motiv ab...

Oder du gibst die Senselzahl an und das RGB-Pattern... wäre naheliegend... und wird auch so gemacht.



Antwort von WoWu:

Vielleicht hast Du ja mein Posting wieder nicht verstanden.
Die RED ist im 4 K Modus nicht in der Lage, 4K zu generieren.

(auch wenn Du das in Deinen verkürzt dargestellten Zitat so darstellen wolltest).

Alles Andere entspringt Deiner Phantasie, von der Du ja offenbar reichlich hast.
Aber ich merke schon, Dir schwimmen langsam die Fälle davon und Du flüchtest Dich in irgendwelche Hirngespinste.

Wenn Du Dinge falsch verstehst, musst Du den Fehler nicht bei Andern suchen.

Eine 4K-Bayer-Kamera löst keine 4K RGBRGB im Glossar erklärt an Details auf. Das hat JEDER seit der RED ONE spätestens verstanden. Das hat auch nie irgendjemand behauptet. Hör auf darauf herumzureiten... Das meine ich mit trollen...

Das klang aber oben noch ganz anders .... aber egal, dann sind wir ja nun schon zwei, die an das 4K Märchen nicht mehr glauben.
Und wenn Du das schon seit der RED ONE weißt, hättest Du ja auch mal was sagen können oder ist Kritik bei Dir mit TROLL gleichzusetzen.
Lies doch einfach solche Threads nicht mehr oder überspring einfach meine Postings .... aber solange es noch genügend 4K Gläubige gibt, wird es mit mir immer die kritische Auseinandersetzung geben.
Ansonsten musst Du im RED Forum bleiben, da gibt es keine Kritik.



Antwort von WoWu:

Lass Dir von Srone nochmal den Link zu den Googel Bildern geben und dann kannst Du in Ruhe nach Bokeh suchen.

Ich schmeiß mich weg - du bleibst also wirklich bei der Behauptung, dass bei 4K-Kameras alles von hinten bis vorne scharf ist? Grotesk. Aber auch lustig.

Ich sehe, Du bist weit entfernt von der hier geführten Diskussion (siehe Überschrift).
Und sag mir bitte nicht, 'wobei ich bleibe', sag mir lieber, was Du von dem verstanden hast, was ich gesagt habe, denn allzuviel kann das nicht gewesen sein, sonst würdest Du noch soviel phantasieren müssen.

Ich schmeiß mich weg
super Idee.



Antwort von iasi:

Vielleicht hast Du ja mein Posting wieder nicht verstanden.
Die RED ist im 4 K Modus nicht in der Lage, 4K zu generieren.

(auch wenn Du das in Deinen verkürzt dargestellten Zitat so darstellen wolltest).

Alles Andere entspringt Deiner Phantasie, von der Du ja offenbar reichlich hast.
Aber ich merke schon, Dir schwimmen langsam die Fälle davon und Du flüchtest Dich in irgendwelche Hirngespinste.

Wenn Du Dinge falsch verstehst, musst Du den Fehler nicht bei Andern suchen.

Eine 4K-Bayer-Kamera löst keine 4K RGBRGB im Glossar erklärt an Details auf. Das hat JEDER seit der RED ONE spätestens verstanden. Das hat auch nie irgendjemand behauptet. Hör auf darauf herumzureiten... Das meine ich mit trollen...

Das klang aber oben noch ganz anders .... aber egal, dann sind wir ja nun schon zwei, die an das 4K Märchen nicht mehr glauben.
Und wenn Du das schon seit der RED ONE weißt, hättest Du ja auch mal was sagen können oder ist Kritik bei Dir mit TROLL gleichzusetzen.
Lies doch einfach solche Threads nicht mehr oder überspring einfach meine Postings .... aber solange es noch genügend 4K Gläubige gibt, wird es mit mir immer die kritische Auseinandersetzung geben.
Ansonsten musst Du im RED Forum bleiben, da gibt es keine Kritik.

na ja - eine Alexa65 liefert auch nicht 6k - warum hängst du dich denn immer so an den 4k auf?

Es ist doch auch nichts Red-spezifisches, dass bei Bayer-Raw am Ende nicht die RGB-Auflösung rauskommt, die als Raw-Auflösung angegeben ist.

Warum sollte es denn eine Mogelpackung sein, wenn ein Hersteller die Pixelzahl des Sensors angibt?
Da ist es schon eher eine Mogelpackung, wenn aus einem 3,4k-Sensor plötzlich 4k-ProRes werden.

Eine Red Dragon liefert 6k-Raw - das reicht selbst beim EBU-Test für knapp 4k-RGB.
Helium und VV dürften mit ihren 8k-Raw allemal für 4k-RGB ausreichen.

Dass man aus 4k-Raw nicht 4k-RGB oder aus 1080p-Raw nicht 1080p-RGB bekommt, ist nicht neu.
Neu ist eben, dass nun die Rechenpower und Speicherkapazitäten zur Verfügung stehen, dass man Auflösungen verarbeiten und wegspeichern kann, die am Ende für 4k-RGB ausreichen.

Warum sollten eigentlich bessere Algorithmen nicht in der Lage sein durch das mehr an Rechenpower auch noch mehr aus 4k herauszuholen? Mehr Rechenleistung kann auch dem DeBayer zugute kommen.



Antwort von Jott:

"Bis zum Horizont sind also alle Baumwipfel messerscharf".

Das nenne ich Fantasie. Schau mal, sehr viele Mitleser haben im Gegensatz zu dir irgend eine 4K-Kamera, vom Handy über einen Camcorder bis hin zu RED und Konsorten - und alle wissen daher, dass du Quark redest. Also ich würde mich schämen an deiner Stelle, hat was von Flatearthler.



Antwort von WoWu:

@Iasi

Es ist gar nicht auf RED begrenzt. Mogelpackungen sind nun mal alle Packungen, wo andere Auflösungen rauskommen, als vorgegeben.
Und, vielleicht hab ich das ja übersehen, dass RED die Kamera als HD (Mainstream tauglich) angeboten hat, als sie 4K draufgeschmierten haben.

In diesem Thread geht es aber auch darum, wie künstliche Schärfung in Bildern erzeugt wird und dies nichts mit Auflöung zu tun hat.
Dabei ist es völlig egal, welche Firmen dies zur Aufhübschung ihrer Produkte vornehmen.
Allerdings liegt ein grosser Teil auch auf der Seite der Anwender, die lange Zeit Bildauflösung mit Pixelmengen des Sensors verwechselt haben.
Ich bin übrigens durchaus davon überzeugt, dass man mit entsprechend großen. Sensoren und den passenden Objektiven auch ohne Nachschärfung an die 4K (optisch) kommt.
Nicht umsonst gehen Firmen auf Mittelformate nur dass einige im Amateurbereich glauben, ihre Knipse macht das genauso gut, wird lange noch zweifelhaft bleiben.
Aber wenn man ansehnliche Bilder mit optisch HD erreicht, ist das ja auch ein gutes Ergebnis, aber eben HD und nicht 4K.
Und wenn Aliasingeffekte aus Hd weggerechnet werden, ist das ein weiterer Vorzug solcher Algorithmen. Wenn sie Patches dann aber weiter verkleinert werden und keine neuen Bilddetails generieren sondern nur noch die Reproduktion derselben Bildinhalte, hat das nichts mehr mit Bildauflösung zu tun.
Und das schließt an Deine Frage an, warum Algorithmen nicht mehr Bilddetails "rausholen" sollten .... ganz einfach, weil Algorithmen nicht hellsehen, es sei denn, sie bekommen ganze Teile der Bilder aus dem Google Archiv und setzen nur noch die Schauspieler ein.
Insofern kann man das also heute schon, heißt dann nur anders.



Antwort von iasi:

@Iasi

Es ist gar nicht auf RED begrenzt. Mogelpackungen sind nun mal alle Packungen, wo andere Auflösungen rauskommen, als vorgegeben.
Und, vielleicht hab ich das ja übersehen, dass RED die Kamera als HD (Mainstream tauglich) angeboten hat, als sie 4K draufgeschmierten haben.

Sie schreiben die Sensorauflösung drauf.
Was ist daran denn eine Mogelpackung?
Jede Fotokamera wird mit ihrer Sensorauflösung angepriesen.
Was ist denn daran falsch wenn Red z.B. dies angibt:
EFFECTIVE PIXELS 8192 × 4320
und dann sagt, es sei eine 8k-Kamera?

Sigma jammert auch immer über die Auflösungsangaben bei Bayer-Sensoren anderer Hersteller, da dann die eigenen Foveon-Sensoren im Vergleich schlecht dastehen.
Nur: Die Auflösung der Foveon-Sensoren ist nun mal sichtbar geringer als bei Bayer-Sensoren - und dies hat eben auch mit den DeBayer-Berechnungen zu tun.
Du kannst da keine klare Trennlinie zwischen "Reproduktion derselben Bildinhalte" und errechneten Bildinhalten ziehen - auch deine Mittelformatkameras kommen um Berechnungen nicht herum.

Schon ein Kodakchrome 25 konnte es mit so manchem 120er-Film aufnehmen.



Antwort von WoWu:

Und warum spricht dann jeder von 4K Bildern oder 8K Bildern u d setzt das gleich mit UHD1 oder UHD2 ?
Die sind nämlich mit 4K bzw. 8K Bildauflösung definiert und nicht mit irgendwelchen Pixelmengen, die dann erst durch Binning o.ä. auf 1/4 runtergedampft werden.

Nach Deiner Rechnung wäre die alte Canon MKII mit ihrem 5616 x 3.744 dann also auch eine 5K Kamera, nur dass Canon damals noch angegeben hat, es sei eine HD Kamera, also die Auflösung des Bildinhalts.
Also keine Mogelpackung.



Antwort von iasi:

Und warum spricht dann jeder von 4K Bildern oder 8K Bildern u d setzt das gleich mit UHD1 oder UHD2 ?
Die sind nämlich mit 4K bzw. 8K Bildauflösung definiert und nicht mit irgendwelchen Pixelmengen, die dann erst durch Binning o.ä. auf 1/4 runtergedampft werden.

Bildauflösung?
Na das ist auch so ein Größe, die mal genauer betrachtet werden muss.
Vor allem auch im Hinblick darauf, von welchen Faktoren sie abhängt.
Mit einem Mittelformatobjektiv holst du z.B. an einer 4/3-Kamera nicht die Auflösung heraus, die möglich wäre.

Aber letztlich kommt es doch darauf an, wie viele Details ein Bild bietet.
Wenn eine Software die Gesichtszüge einer weit entfernten Person nachzeichnen kann, so dass diese Person besser zu erkennen ist, dann ist das ein Fortschritt, im Vergleich zu einem Haufen grober Bildpunkte.

Auch bei deinen digitalen Mittelformataufnahmen ist Software mit im Spiel und du bekommst nur berechnete Bilddetails.



Antwort von nic:

Vielleicht hast Du ja mein Posting wieder nicht verstanden.
Die RED ist im 4 K Modus nicht in der Lage, 4K zu generieren.

(auch wenn Du das in Deinen verkürzt dargestellten Zitat so darstellen wolltest).

Alles Andere entspringt Deiner Phantasie, von der Du ja offenbar reichlich hast.
Aber ich merke schon, Dir schwimmen langsam die Fälle davon und Du flüchtest Dich in irgendwelche Hirngespinste.

Wenn Du Dinge falsch verstehst, musst Du den Fehler nicht bei Andern suchen.

Eine 4K-Bayer-Kamera löst keine 4K RGBRGB im Glossar erklärt an Details auf. Das hat JEDER seit der RED ONE spätestens verstanden. Das hat auch nie irgendjemand behauptet. Hör auf darauf herumzureiten... Das meine ich mit trollen...

Das klang aber oben noch ganz anders .... aber egal, dann sind wir ja nun schon zwei, die an das 4K Märchen nicht mehr glauben.
Und wenn Du das schon seit der RED ONE weißt, hättest Du ja auch mal was sagen können oder ist Kritik bei Dir mit TROLL gleichzusetzen.
Lies doch einfach solche Threads nicht mehr oder überspring einfach meine Postings .... aber solange es noch genügend 4K Gläubige gibt, wird es mit mir immer die kritische Auseinandersetzung geben.
Ansonsten musst Du im RED Forum bleiben, da gibt es keine Kritik.

Das klang noch nie anders. Es ist als würde man sich darüber streiten, ob ein vom Hersteller sogenanntes Drei-Liter Auto unter allen Umständen immer 3 Liter verbraucht... es ist "common sense", dass dem nicht so ist. Wieso sollte man das 5 mal am Tag erwähnen?

Und genauso macht es eben trotzdem Sinn ein 4K-Bayer-Pattern in 4K RGBRGB im Glossar erklärt Bildauflösung zu debayern, weil du so am wenigsten Detailauflösung verschenkst. Ob es denn das eine mal 2.7K oder 3.4K sind, ist doch letztlich egal.

Auch ein 3-Chipper löst dein 2x2 Quadrat sehr wahrscheinlich nicht auf, sondern platziert es zwischen 4 Pixeln - oder die Komprimierung verschluckt es. Oder die Rauschunterdrückung... Oder ein Partikel in der Luft. ... dessen sind wir uns doch alle bewusst.

Wir versuchen letztlich das bestmögliche Bild für einen bestimmten Zweck zu finden: die Detailauflösung ist natürlich ein Punkt, den man beachtet. Aber es gibt weitaus wichtigere Faktoren...



Antwort von iasi:

Was wäre denn falsch und schlecht daran, wenn bei einer Rückfahrt die Software aus den Aufnahmen der nahen Einstellung auch für die Totale die Gesichtszüge einer Person errechnet - nur mal so als Beispiel.

Ein exakte 1:1 Wiedergabe der realen Welt hat man ja sowieso nie.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
DJI Zenmuse Z30 -- noch mehr Zoom für Inspektionsflüge uä.
iPhone 7 Plus - Tiefenschärfe Effekt analysiert
Künstliche Intelligenz berechnet Super-Zeitlupen
Super-Resolution Filter für Vdub/Premiere
Sony FS7 - Schärfe ziehen mit der Zoomwippe
Entrauschen, virtuelle Blende und Super Resolution per Algorithmus // Siggr
Aputure DEC LensRegain - Focal Reducer mit Funkschärfe bald in D lief
Adobe Premiere Elements 15 -- mehr Hilfe für Anfänger
TV-Sendung auf DVD brennen - steige nicht mehr durch das Formatgewimmel durch
Noch mehr zum Thema Kolorierung mit Künstlicher Intelligenz
Lichtstärkere Bildsensoren durch transparente Farbfilter
Gütesiegel für 4K/60Hz-fähige HDMI Kabel
Nvidia GTX 1080 Ti für 9. März angekündigt - 11,5 TFlops und
Kalifornien schränkt Drohnenflüge über Privatgrund stark ein
Ausgewählte Kickstarter-Produkte über Amazon verfügbar
Farbraum und VFX Workflow - ich sehe nicht mehr durch...
Was wären echte VR-Filme -- und wären es überhaupt Filme?
Magix Video Pro X - Juni 2019 Update - Mehr Geschwindigkeit durch INFUSION Engine
Schärfentiefe und mehr: Optikwissen anschaulich vermittelt
ARRI SUP 4.0 für Alexa Mini mit RAW Recording, 4:3 Readout, Super 16 C
Analog is back -- Kodak Ektachrome für Super 8 kommt wieder // CES 201
Magix Video deluxe Update mit mehr 360° Fähigkeiten, Lookabgleich
Update: Final Cut Pro X 10.3.2 mit mehr Responsivität bei großen
VR: was sich für Filmemacher ändert
110 Tipps für Kameramänner
Flir Vue Pro: die Wärmebildkamera für Drohnen

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-20. August / Oestrich-Winkel
Kurzfilmfestival Shorts at Moonlight
11-15. September / Eckernförde
Green Screen - Internationales Naturfilmfestival
11-15. September / Oldenburg
Internationales Filmfestival Oldenburg
18-22. September / Münster
Filmfestival Münster
alle Termine und Einreichfristen