Hat aber den Vorteil, dass man kein gutes Objektiv mehr braucht und Referenzbilder aus Google Earth nimmt. ;-)cantsin hat geschrieben: ↑So 22 Apr, 2018 19:49 Das Vergleichstool auf der Seite der ETH ist schon ein Hammer. Nicht nur, dass die Deep Learning/Neuronale Netze-basierte Kompression noch ein ansehnliches Bild zeigt, wo bei allen klassischen komprimierten Bildformaten nur noch Pixelbrei übrigbleibt. Sondern auch: Im Vergleich des künstlich-intelligent komprimierten Bilds mit dem Original stimmt bis auf den Gesamteindruck eigentlich nichts mehr - das Auto, die Architektur des Gebäudes, die Pflanzen am Straßenrand etc.
Wir kriegen dann wirklich "alternative Fakten", "post-truth" und "fake news" als Datenkompressionsverfahren...
Wobei die ETH-Deep Learning-Beispiele noch viel weiter gehen als SuperResolution, weil da ja die Bildinformation aus externen Daten bzw. Trainingssets rekonstruiert wird und nicht mehr als den kombinierten Informationen der aufgenommenen Bilder. Für letztere hat Nvidia gute Beispiele (im Vergleich "Ours" und "Ground Truth")WoWu hat geschrieben: ↑Mo 23 Apr, 2018 00:44 Nur Einige können solche Entwicklungen eben immer noch nicht einordnen und glauben immer noch daran, dass das, was sie sehen, das war, was sie aufgenommen haben, obwohl SR nun schon an zahlreichen Beispielen gezeigt hat, dass die Bilder gar nicht mehr real sondern nur noch "scharf" sind.
wirf vielleicht einfach einen kurzen blick auf diese kleine fingerübung und die dortigen komentare bzgl. 'transfer learning':
Ja, wenn man dann aber mit etwas besseren Bilddaten arbeitet und alle Tricks anwendet, die heute in der "computational photography" (bzw. im algorithmischen Hochrechnen von Bildern) auf Smartphone-Hardware möglich sind, kommt sowas heraus:Frank Glencairn hat geschrieben: ↑Di 24 Apr, 2018 02:24 Das ganze ist ne nette Fingerübung, die zeigt, daß man mit ner groß genugen Datenbank von Bildern, ein unscharfes Bild mit ner zusammen geklebten Collage so halbwegs glaubwürdig irgendwie nachstellen kann - nette Idee, aber zu nix zu gebrauchen.
Eben nicht ... denn solche Beispiele zeigen selbst dem Blindesten auf, wie solche Algorithmen funktionieren und welche Auswirkungen dies auf Bildinhalte hat, in denen Bilddetails nämlich einfach weggelassen werden und durch (entweder) irgendwas aus der Library ersetzt werden, oder einfach ganz zugespixelt.Frank Glencairn hat geschrieben: ↑Di 24 Apr, 2018 02:24 Das ganze ist ne nette Fingerübung, die zeigt, daß man mit ner groß genugen Datenbank von Bildern, ein unscharfes Bild mit ner zusammen geklebten Collage so halbwegs glaubwürdig irgendwie nachstellen kann - nette Idee, aber zu nix zu gebrauchen.
Macht er natürlich nicht, wenn er nicht das neue Huawei-Smartphone ist. (Heute früh ein Plakat an der Straßenbahnhalte gesehen, das dessen "künstliche Intelligenz-Kamera" bewirbt.) Was der 4K-Camcorder aber sehr wohl tut, ist softwareseitige Geometriekorrektur (was es erst in Amateur-Videokameras gab, bevor es in Fotokameras hinüberschwappte), Nachschärfung und vor allem Superresolution.Jott hat geschrieben: ↑Mi 25 Apr, 2018 10:57 Ich möchte gern mal hören, wie ein kleiner, so unschuldig aussehender 4K-Camcorder (oder ein Dröhnchen) das macht mit dem Ersetzen von Bildmaterial durch eine Library. 60 mal pro Sekunde und zuweilen noch schneller. Und er hat alles Bildmaterial von Google an Bord, der Camcorder. Viele Petabyte. Denn man kann ja auch außerhalb von hyperschnellen WLAN-Netzen filmen, nicht wahr? Echt cool! Vor allem die brachiale Rechenleistung! :-)
Genauso gut könnte man fragen ... wer braucht überhaupt noch Datenkompression.muellerbild hat geschrieben: ↑Mi 25 Apr, 2018 17:16 Wer braucht eigentlich hoch komprimierte Dateien von Stills?
Ja, aber das ist was völlig anderes als ein neues Bild aus einer riesen Datenbank zusammen zu puzzlen, das dann so ähnlich sein soll, wie das, was man eigentlich aufgenommen hat.
Hat ja auch keiner behauptet. Jott hängt sich da an WoWu auf, weil der von "Rekonstruktionsalgorithmen" spricht. Dieser Terminus bezieht sich aber auch - und erst einmal - nur auf SR. (Selbst temporales Denoising ist schon ein Rekonstruktionsalgorithmus.)Frank Glencairn hat geschrieben: ↑Mi 25 Apr, 2018 18:10Ja, aber das ist was völlig anderes als ein neues Bild aus einer riesen Datenbank zusammen zu puzzlen, das dann so ähnlich sein soll, wie das, was man eigentlich aufgenommen hat.
Nachschärfung schon (kann man meistens abschalten), aber „Super Resolution“? Nope. Begründung siehe oben. Leicht unscharf stellen bleibt leicht unscharf. Absichtlich leicht unscharfe Bildbereiche bleiben leicht unscharf.
Das Problem sind auch weniger die Sensoren, sondern die Optiken, die die Auflösungen nicht schaffen - sowohl die Superzooms in Consumer-Camcordern, als auch die Linsen auf Smartphones.Frank Glencairn hat geschrieben: ↑Mi 25 Apr, 2018 18:10 Der ganze Sinn dieser Collagen erschließt sich mir im Zeitalter von Megapixel Sensoren sowieso nicht.
Selbst mit nem mittelprächtigen Handy kann man beim besten Willen keine so verpixelten Fotos mehr machen.
I.d.R. sieht man es nicht. Ich hatte mal zwei Studenten, die sich eine Woche lang den Spaß gemacht haben, die computational imaging-Algorithmen eines aktuellen Google Pixel-Smartphones auszutricksen. (Kann die Fotos hier leider nicht teilen.) In bestimmten Situationen versagen die, und dann sieht man, dass die Kameras intern Bilderreihen aufnehmen und zu besser aussehenden Einzelbildern (durch HDR-Belichtungsreihentricks, temporal denoising etc.) zusammenrechnen - weil es Stitching- und andere Artefakte gibt. Das heisst aber auch, dass man nicht mehr sicher weiss, ob ein Foto wirklich einen genauen Moment abbildet oder ob da aus der Zeitspanne von ungefähr einer Sekunde Teilbilder aus verschiedenen Frames kombiniert werden.Frank Glencairn hat geschrieben: ↑Mi 25 Apr, 2018 18:40 Also das Huawei Mate 10 macht trotz "Deep Learning/AI TPU/NPU - blah-blah" Engine, ganz normale Fotos und Clips, die sich von denen meines alten Mate 9 nicht wirklich unterscheiden. ich glaub das ist nur Marketing Bullshit Bingo.
Mit besserer Elektronik bzw. AI-Algorithmen könnte sie aber erkennen, ob sie z.B. einen Grashalm, die Oberfläche eines Steins oder Haut nachschärft und da jeweils verschiedene Verfahren einsetzen, einschließlich der Rekonstruktion/des Hinzufügens nicht mehr aufgelöster Texturdetails. Dafür ist ja keine gigantische Datenbank nötig, sondern nur jeweils relativ allgemeine Texturmodelle für Haut, Blätter, Holz, Stein etc. Bin mir ziemlich sicher, dass wir solche Techniken bald in Kameras haben, wenn sie nicht schon in den Smartphones stecken."Frank Glencairn hat geschrieben: ↑Mi 25 Apr, 2018 19:12 Davon sprech ich ja nicht, sondern von diesen Collagen.
Die Panasonic, greift ja nicht bei jedem Bild auf eine gigantische Datenbank zurück, und klebt sich aus Versatzstücken ein eigenes Foto zusammen, weil die Optik nicht gut genug ist.
Ach bitte. Den hatte dein Mentor damals vor sechs Jahren (!) auch schon jubelnd ausgegraben. Sony nutzte den Begriff hier als Marketingblabla für was anderes.cantsin hat geschrieben: ↑Mi 25 Apr, 2018 18:41https://www.pcworld.com/article/247485/ ... rders.html
Mir geht es nicht um Super Resolution im Sinne von "Alles scharf vom Vorder- bis Hintergrund" (was gar nicht geht, wenn der Hintergrund wirklich unscharf ist - dann kann auch ein Algorithmus da nicht mehr viel rausholen), sondern um Beispiele wie dieses hier, das ich schon öfter mal hier gepostet habe:Jott hat geschrieben: ↑Mi 25 Apr, 2018 20:34 Versuch: 4K-Camcorder - AX53 oder AX100 oder so was auf‘s Stativ (damit die „Super Resolution“ gar nicht erst auf die Idee kommt, aus mehreren leicht verschiedenen Bildern etwas hochzurechnen). An ein Blümchen heranzoomen. Je mehr Tele, desto mehr Tiefenunschärfe. Was ja nicht sein darf laut wowu, ist aber trotzdem so. Geschenkt. Jetzt gaaaanz langsam zoomen. Macht es irgendwo „flupp“, eine Stelle, wo die „Super Resolution“ einsetzt und plötzlich etwas scharf wird? Nö. Wieder ranzoomen, am Fokusring drehen. Macht es irgendwann „flupp“? Nein, natürlich nicht. Noch besser: langsam schwenken! Das Einsetzen eines Algorithmus müsste man sehen!