Musste ja kommen, ich hab‘s schon vermisst. Das ist Post Production, nicht live (60x pro Sekunde), und das Motiv hat keine Schärfestaffelung. Andere Baustelle.
Dass Handies übrigens bei Fotos ziemlich rumrechnen, merkt man daran, dass es dauern kann vom Klick bis zum Bild auf dem Display. Wir reden hier aber von Video ohne Chance für Denkpausen.
Spricht übrigens für dich, das du weißt, dass das nicht geht mit der künstlichen Komplettschärfe. Vielleicht spricht sich‘s ja rum.
Ach bitte. Den hatte dein Mentor damals vor sechs Jahren (!) auch schon jubelnd ausgegraben. Sony nutzte den Begriff hier als Marketingblabla für was anderes.
Tja, und hier wird behauptet (in einem Artikel von 2015), dass genau diese Sony-Technik bereits Deep Learning-basierte Objektrekonstruktion verwendet:
"What actually lies powers Clear Image Zoom technology is as surprising as it is impressive. There is a database of common objects held in the camera, and the processor uses this data to recognise objects in the scene, and to help it to zoom more accurately.
Let’s say that the camera recognises that the object in a scene is a bicycle and not, for example, a fish. It therefore knows that the two round objects are wheels with spokes. Knowing this, it can recreate the scene, based on what it thinks it is, more accurately, at a higher level of zoom.
You probably realise that none of this is trivially easy. In fact, to do this, you need elements of artificial intelligence and machine vision. It’s not the sort of thing you’d expect to find in a camera."
Ich frage mich nur, wer sich noch (in dem Segment) Kameras kauft, wenn es identische Bildoutputs für 734€ gibt .... und man damit dann auch noch telefonieren kann.
Das selektive/verfälschende Zitieren ist doch eigentlich wowus Spezialität? À la „Red kann nur HD“? Richtig gelesen in dem Red Shark-Artikel:
„It allows you to enlarge the image with close to the original image quality when shooting still images.“
Von Video ist nicht die Rede. Und es ist Spekulation und Hörensagen. Am Ende:
„I just wanted to say that all of this is based on snatched conversations with Sony employees. I can’t be sure that I’ve got it completely right.“
wowu würde sagen: wer seine Informationen aus Blogs bezieht, dem ist nicht zu helfen. Das Internet hilft nur dem, der alles glaubt.
Bei 60 fps ist keine Zeit für so was, selbst wenn es diese „Datenbank“ in kleinen Kameras gäbe. Und das Enhancing (oh, ein Fahrrad! Speichen nachmalen!) würde nicht von Frame zu Frame exakt gleich funktionieren, das gäbe Artefakte in der Bewegung ohne Ende.
Beim digitalen Reinzoomen wird lediglich nach punktuell starken Kontrasten gesucht, und diese werden auf gut Glück selektiv ein wenig verstärkt. Das macht Sony für Digitalzoom auch bei Videos quick and dirty schon länger, das ist aber ein „doofer“ Algorithmus, nix Deep Learning-Bla Bla. Digitales Reinzoomen macht obendrein keiner ernsthaft, das ist das erste, was man nach dem Kauf im Menü abschaltet. Und mit 4K, dem Haßobjekt, hat das schon mal gar nichts zu tun.
Aber lassen wir das: wenn euch googeln nach dem Begriff „Super Resolution“ und solche Treffer reichen zum Glück und zur Untermauerung eurer Wunschtheorien, dann ist das doch schön. Aber dann bitte nicht das Mäntelchen „Wissenschaft“ umhängen.
Was die „Wissenschaft“ tut, war das Eingangsthema dieses Threads. Versuche mit wackeligen Ergebnissen trotz langer Rechenzeiten und geballter Weißkittelpower. Dass Techniken, die im Forschungslabor schon an Standbildern mit 50x50 Pixeln scheitern, längst in Consumer-Camcordern für die künstliche Erzeugung von 4K-Clips zuständig seien, ist nur eine Gute-Nacht-Geschichte. Das sollte eigentlich jedem klar sein.
Jott hat geschrieben: ↑Do 26 Apr, 2018 05:31
Das selektive/verfälschende Zitieren ist doch eigentlich wowus Spezialität? À la „Red kann nur HD“? Richtig gelesen in dem Red Shark-Artikel:
„It allows you to enlarge the image with close to the original image quality when shooting still images.“
Von Video ist nicht die Rede. Und es ist Spekulation und Hörensagen.
Das ist ein Zitat aus einem Sony-Text, der sich in der Tat auf eine Fotokamera bezog. Zugleich baut Sony eine Technologie mit selbigen Namen in Videokameras.
Aber wenn Du genau gelesen hättest, wäre Dir aufgefallen, dass ich den RedShark-Artikel als pure Behauptung/Spekulation zitiert habe.
Es gibt Leute hier im Forum, die schon seit Jahren die technische Entwicklung verschlafen.
Warum sollte man sie jetzt aufwecken?
Das führt nur zu den bekannten Schockzuständen.
Zwei beliebige Forschungspapiere ohne Praxis- und Videobezug (via Google gefunden, weil "Super Resolution" und "De-Mosaicing" drin vorkommen). Da finden sich sicher noch ein paar Hundert mehr.
Und Sony nannte das Auslesen ihres F65-Sensors mit dem speziellen diagonalen Pattern "Super Resolution", weil ihnen wohl nicht besseres eingefallen ist. Klingt halt gut. Will nur meinen, besseres De-Bayering mit subjektiv höherer Auflösung (obwohl es nur ein 20 MP-Sensor war) durch die ungewöhnliche 45Grad-Anordnung des Patterns. Und besseres Downsampling zu 4K und drunter. Kann man nachlesen. War ein erster früher, durchaus umstrittener, bereits überholter Versuch, heute gibt es ja schon Broadcast-Kameras mit drei richtigen 8K-Sensoren via Prisma (soviel zum Thema Entwicklungen verschlafen), wodurch überhaupt nicht mehr rumgebayert werden muss.
Und so weiter.
Aber bitte, es wird schon jemand dran glauben, dass ausgerechnet die billigsten Kameras wahre High Tech-Boliden sind und Dinge können, die nicht mal im Ansatz im Labor funktionieren (Eingangsthema). So sei es.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.