Laut klassischer Physik kann ein Objekt mit geringer Energie auch nicht über eine Barriere mit höherer Energie in der Spitze gelangen, oder einfach gesagt ein Auto benötigt eine höhere Bewegungsenergie um über den Berg zu kommen als die Energie auf der Spitze des Berges. In der üblichen Physik ist das richtig, in der Quantenmechanik falsch. Da hat sich selbst Albert Einstein geirrt. Kann man unter dem Tunneleffekt nachlesen, womit wir wieder bei den beiden Physikern wären.
Mir ist klar, dass ich Dir WoWu ganz sicher keine physikalischen Vorträge halten darf, dazu ist mein Wissen zu gering. Aber es gibt sogar Dinge, die selbst Einstein nicht geglaubt hat. Klar befinden wir uns hier in der üblichen Physik und nicht in der Quantenmechanik der kleinen Atome. Aber teilweise wissen wir nicht, was die hier beschriebenen Firmen wirklich intern machen. Dazu fehlen halt leider der genauen Beschreibungen, sonst verzetteln wir uns möglicherweise, nur weil wir etwas voraussetzen, was die Firmen vielleicht so gar nicht fabrizieren.
klusterdegenerierung hat geschrieben:Vielleicht darf man das ganze auch nicht zu technisch sehen und sich lieber mal ein schönes Ergebnis ansehen sollte, bei dem zumindest wenn man die 7-14er pancake weggelassen hätte (wegen der Schärfe), es doch glatt eine Blackmagic hätte sein können :-)
Schaut sehr gut aus, schon beeindruckend, was der Videoprozessor der GH4 aus dem VGA Signal (höchstens) macht;-) Super Resolution + Bildrekonstruktion sei es gedankt.
@ Jan,
früher hat man auch geglaubt, die Erde sei eine Scheibe ....
Aber dafür, dass jede zweite Firma heute Super-Resolution Algorithmen einsetzt und das Thema mittlerweile zum Dauerbrenner bei Handys geworden ist, muss man nicht die Quantenphysik bemühen, um davor die Augen zu verschliessen.
Das also nicht alle Foto-und Videogeräte allein mehr auf optischen Lösungen basieren, sollte auch (gerade) Dir nicht entgangen sein. -Thema Handy mit 1,4 µ Pixels-
Und wenn tatsächlich jemand den Quantensprung in der Wellenoptik gefunden hat, dann haben ihm das aber viele Firmen, schnell nachgemacht. So ein Quantensprung kann es dann also gar nicht gewesen sein.
Schade auch, dass ARRI davon nichts mitbekommen hat, sonst hätten sie sich eine neue, grosse Kamerentwicklung auf optischer Grundlage glatt sparen können.
Jan, Du denkst zu kompliziert, wenn Du tief in die Wissenschaft hinein argumentierst.
Es ist viel trivialer.
Wir müssen uns einfach daran gewöhnen, das die Chips in den Kameras mittlerweile powervoll genug geworden sind, um Algorithmen abzurechnen, die lange Grossrechnern vorbehalten waren.
Und da brauchen wir gar nicht in die Abgründe der Physik hinabsteigen.
Es gibt nur eben immer die, die sich nicht damit abfinden können, das Paradigmen wechseln.
In diesem Fall von der optischen Verarbeitung, hin zur virtuellen Verarbeitung.
Ist ja nicht schlimm, nur haben wir eben keine optischen Reproduktionen mehr. damit allerdings auch nickt die Nachteile. Dafür sind 8K oder mehr dann aber auch kein Problem mehr. -Schöne scharfe Videowelt-.
Die Frage, die sich nur stellt ist die, wann diese Algorithmen in den PCs landen und wir ausser einer Pocket, die unscharfe Bilder macht, keine andere Kamera mehr brauchen und die 4 oder 8K kommen aus dem NLE, denn das kann dann genau dasselbe machen, was heute noch die Kamera veranstaltet.
Ich gebe Dir also Recht ... Fortschritt ist nicht aufzuhalten.
-Mein Reden seit langer Zeit.-
Frage eben nur, wo findet er statt, in der Quantenphysik, - dann haben das aber sehr viele Kamerhersteller, sehr schnell gelernt- obwohl es sich doch gar nicht rumgesprochen hat- oder im Rechenprozess der Chips, in denen nun, seit fast 15 Jahren bekannte Algorithmen gerechnet werden können.
Was meinst Du ?
Müssen nun alle Optiker neu lernen, weil Licht sich plötzlich anders verhält ?
Und auch das Zitat von Binnig war so gemeint, dass er sich vor den Gesetzmässigkeiten nicht "gefürchtet" hat und trotzdem geforscht hat. _Er hat das Wort "beeindrucken" (im Sinne von Ehrfurcht) benutzt.
Ganz im Gegenteil. Seine Forschung setzt auf den physikalischen Gesetzmäßigkeiten auf, ohne die er seine Forschung gar nicht hätte führen können.
Er sagt an keiner Stelle, dass die Gesetze nicht mehr gestimmt haben.
Ein Zitat ist manchmal irreführend, wenn man den Kontext vorenthält.
WoWu hat geschrieben:
Und auch das Zitat von Binning war so gemeint, dass er sich vor den Gesetzmässigkeiten nicht "gefürchtet" hat und trotzdem geforscht hat. _Er hat das Wort "beeindrucken" (im Sinne von Ehrfurcht) benutzt.
Weil Software dafür noch nicht schnell genug ist und sie in den Kameras derzeit in DSPs läuft, also eingedampft auf einen sehr schnellen Hardware-Kern.
Das wird es irgendwann als Grafikkarte für die NLEs auch geben.
Vor zwei Jahren konnten einige Rechner (bzw. die NLEs) noch nicht mal mit AVC umgehen. (Einige NLEs können das ja heute noch nicht mal). ;-)
Auf -non realtime- Basis wird es das wohl irgendwann auch geben.
Mit entsprechenden Host-Programmen kann man heute mit den Algorithmen schon arbeiten, aber das hat im Augenblick noch mehr experimentellen Charakter. (Ich hatte Tiefflieger vor einiger Zeit mal den Link zu solchen Programmen gepostet)
Aber das kommt ganz sicher.
Wie gesagt, das ist ja nichts Neues, was da erfunden worden ist sondern wird (in der Industrie bzw. im Sicherheitsbereich) schon seit 15 Jahren eingesetzt.
Und nun hat es den Weg in die Handys und Camcorder gefunden.
In ein, zwei Jahren werden wir uns fragen, wozu wir eigentlich solche Kameras gebraucht haben.
Wenn ja, ist es ja wirklich erstaunlich wie in so kleiner (billiger) Elektronik, z.B. Handykameras solche komplexe Aufgaben in Echtzeit gelöst werden können
Im Prinzip: ja, nur dass das MATLAB Beispiel auf einer Bibliothek beruht. das wird in der Videokamera vermutlich nicht der Fall sein sondern die Samples werden aus den dynamischen Bildern gewonnen.
Mir sind im Moment 7 Methoden bekannt, nach denen SR durchgeführt werden kann.
Und was die Grösse des DSPs betrifft ... das sind auch nur 2 Mill Transistoren, nicht grösser als ein "Fliegenschiss" auf der Platine.
Und wenn man bedenkt, dass in einer Videokamera pro Pixel 1.600 einzelne, unabhängige Berechnungsschritte pro Bild durchgeführt werden müssen, also Menge der Pixels x 1.600 x 50 Bilder/sec,(das sind 320.000.000.000 Berechnungen in der Sekunde), dann bekommt man ein Gefühl dafür, dass so ein dezidierter kleiner Rechner damit nicht so viele Probleme haben wird.
Man muss bei diesen neuartigen Camcordern allerdings tierisch aufpassen. Einmal den Rekonstruktionregler zu empfindlich gestellt, könnte man ganz schnell in Schwierigkeiten kommen.
Z.B. wenn man seiner Frau z.B. schnell die letzten Urlaubsclips direkt ab Speicherkarte zeigen möchte und plötzlich hat man da eine Blondine im Arm, die in Wirklichkeit nicht da war, oder man wird beim Rauchen erwischt, obwohl man noch nie ne Fluppe angefasst hat. Oder wowu läuft in einem Kolumbianischen Nudistencamp im Bikini durch die Gegend, obwohl er ausschließlich sein HDTV/HDV & AVCHD 800 Seiten Kompendium bei sich trug.
Alles Situation, die man sich nicht unbedingt wünscht, aber eben doch so oder in ähnlicher Form immer wieder auf der Speicherkarte landen.
...weil die Technik eben doch noch nicht so weit ist....
Tja, das ist wohl alles mehr DEINE Welt.
Da fühlst Du Dich zuhause.
Schon interessant, deine Assoziationen zu dem Thema.
Wahrscheinlich stösst Jott gleich auch nochmal dazu.
In solchen Themen ist er ja sattelfest, dann könnt Ihr das unter "Kennern" mal ordentlich ausphantasieren.
Lohnt nicht, es ist alles gesagt. Diese Themen existieren in deiner Phantasiewelt aber nicht in einer GH4, um das ganze mal wieder zurück zum Thema zu führen.
Was mich an den Bildvergleichen einwenig irritiert ist, dass das Korn auf den 2K Bildern nicht scharf ist.
Korn ist kein optischer Bestandteil und müsste daher, egal ob 4K oder 2 K immer gleich scharf sein und ggf durch die geringere Photonenmenge etwas weniger, aber auf jeden Fall immer gleich schaf.
Was also passiert im Processing mit dem 2K Bild, das das 4K Bild nicht durchläuft ?
Denn inhaltlich sind beide Bilder Identisch, (es gibt als keine weiteren Bilddetails) nur die Schärfe ist unterschiedlich.
Hast Du dafür eine Erklärung ?
@Chrompower
War das Setting zwischen 2 und 4K identisch, gibt es noch irgend etwas auszuschalten ?
Z.B. eine Rauschminderung, die ggf. bei 2K im Bildprozessing wirksam war ?
ne hatte ich ja oben auch geschrieben, das ich da etwas verwundert bin, schau dir mal das Bild an wo ich das Gamma hoch gezogen habe, da siehst du ja auch sehr deutlich die heftigen kompressions Artefakte, ich denke auch das das Grain da einfach tot komprimiert wird, deswegen hatte ich ja auch die Frage gestellt, ob das evtl ein Felher ist, der sich bei der Wandlung zum jpg eingeschlichen hat. Aber chrome sagt ja, es kommt so aus der Kamera.
Also darf man die GH4 offensichtlich in 2k nicht benutzen weil sie da sogar schlechter ist als eine GH1. Erstaunlich.
Na ja, ich wage mal eine andere These ... wenn man das 2K Bild ebenso processed, wie das 4K Bild, sähe es genauso aus, denn bei aller Akribie kann ich keine optischen Unterschiede -in Form von zusätzlichen -optischen- Bilddetails- zwischen den Bildern erkennen.
Lediglich, dass in der 2K Ausführung Texturen besser dargestellt werden, die in der 4K Version "platt" sind.
Das könnten nun optische Unterschiede sein, dazu müsste man aber wissen, wie die Textur in der Szene wirklich beschaffen war.
Was die Kompression betrifft, würde ich die Artefakte eher in 4K erwarten, als in 2K, weil einfach der Stress für den Kompressor deutlich grösser ist.
Und -überhaupt- bei so einem Stilleben spielt der Codec eigentlich gar keine wirklich signifikante Rolle mehr.
Was den Vergleich angeht, hatte ich zunächst mal versucht, mich an den beiden "Originalen" zu orientieren, also so dicht wie möglich an der Kamera zu bleibem.
Du hattest dann ja den Download nochmals mit anderer Software bearbeitet, was aber eben eine Kopie eines Ergebnisses war, wohingegen das 2K aus der Kamera ein direktes Processing vom Sensor, zum Ausgang darstellt.
Und da hätte ich wenigstens erwartet, dass das Grain des Sensors dargestellt wird ... ist aber irgendwie nicht so - und das ist äusserst merkwürdig.
Denn, wie gesagt- würde das Bild genau denselben Prozess durchlaufen, wäre es mal interessant zu sehen, wie gross dann noch der Unterschied ist -und, vor allen Dingen, worin er besteht-.
Habs herausgefunden, lag an den Flash-Player Einstellungen. Ohne Hardwarebeschleunigung funktioniert alles sehr gut. Vielleicht muss ich mal bei allen PCs den Grafikkartentreiber aktualisieren. Die fehlerhafte Darstellung ist übrigens immer genau in den ersten 5 Sekunden von jedem Video (gewesen).
otaku hat geschrieben:
Also darf man die GH4 offensichtlich in 2k nicht benutzen weil sie da sogar schlechter ist als eine GH1. Erstaunlich.
Kenne die Gh1 jetzt nicht.
Aber ich finde das beide Modi vor und Nachteile haben.
Auch der 2K Modus der Gh4 ist sehr gut. Ich habe schon mehrere Projekte damit gemacht und musste mich nie beschweren.
Meine vorherige Kamera war eine 7D. Mal jetzt vom funktionsumfang abgesehen, finde ich das die gh4 das Bild um längen schlägt.
Wenn man jetzt bedenkt wieviele Filme dort draußen mit Canon Kameras rumgeistern und von allen gemocht werden, sollte das Bild der Gh4 ja wohl locker klar gehen.
Ich habe gerade ein Projekt wo ich 4K Material (besstes Bild) mit 1080 96fps (schlechtestes Bild) der Gh4 mischen muss. Und ja, es funktioniert.
Man muss zwar hier und da ein klein wenig in der Post fummeln, aber das geht alles voll in Ordnung.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.