Newsmeldung von slashCAM:Und schon wieder einmal ein höchst interessantes Paper aus dem Bereich der künstlichen Intelligenz, an dem unter anderem auch das Adobe Research Team beteiligt war. Wer P...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neuronale Netze zur Bildergänzung
Antwort von camworks:
Bei PatchMatch sind die Augen besser, die weißen Streifen sind korrekt eingefügt.
Antwort von StanleyK2:
Sorry, das sieht leicht bescheiden aus. Nicht ohne Grund (?) hat man das vollständige Original weggelassen. Und wie (d) sieht keine Raubkatze aus, jedenfalls keine, die ich (im Zoo oder Film) gesehen habe ... (und täglich grüßt das NN Murmeltier)
Antwort von WoWu:
Das Problem bei solchen Verdeckungsmethoden ist weniger, wie gut es Verdeckt wird, als vielmehr das Weglassen der Realität, denn wenn der Leopard unter dem Weißen Fleck das Einschussloch hat, das ihn getötet hat, wird die Bildaussahe völlig verkehrt und das Foto oder der Film erfüllt nicht mehr den eigentlichen Ansatz.
All diese Methoden sind nämlich nur so gut, wie die optische Wiedergabe und können diese nicht ersetzen. Es entstehen wohl messerscharfe Bilder, aber mit jedem Patch eine zunehmende Entfernung zur Realität.
Interessant wäre wirklich einmal, das Originalbild gewesen und hätte das eigentliche Problem verdeutlichen können.
Aber es geht ja offenbar gar nicht um die Rekonstruktion von realen Wirklichkeiten, also dem eigentlichen Sinn der Fotografie, sondern darum, einer neuen Bildästetik zu dienen, bei der die reale Szene nur noch eine nachgeordnete Rolle spielt.
Antwort von StanleyK2:
Neue Ästhetik? Im vorliegenden Beispiel wohl kaum. Das ist einfach nur Käse und ist weder ästhetisch noch realistisch. Die Nasenpartie fehlt völlig, und die ist für ein (Groß)Katzengesicht essentiell:
Antwort von WoWu:
Das war auch weniger auf diese Flickschusterei gemünzt, als vielmehr auf die Super Resolution Aufbereitung, denn auch da ist das, was das Objektiv nicht aufzeichnet, einfach nur mit Patches übertüncht und keine Wiedergabe der Realität mehr.
Die Google Algorithmen zaubern an Strände sogar Menschen, die man in der Vergrösserung dann erahnen kann, obwohl in der Aufnahmeszene gar keine Menschen an dem Strand waren.
Es wird dann eine Frage, was von wem in solche Patch Bibliotheken eingepflegt wird, aber mit Fotografie hat das dann nur noch begrenzt zu tun.
Antwort von legolax:
Sorry, das sieht leicht bescheiden aus. Nicht ohne Grund (?) hat man das vollständige Original weggelassen. Und wie (d) sieht keine Raubkatze aus, jedenfalls keine, die ich (im Zoo oder Film) gesehen habe ... (und täglich grüßt das NN Murmeltier)
Aber das Ziel des Algorithmus ist es doch nur, besser als bisherige andere Verfahren fehlende Teile eines Bildes (z.B. weil diese entfernt wurden in der Postproduktion) durch etwas möglichst passendes zu ersetzen, das sagt der Autor doch deutlich: "Aber gerade wenn es in Zukunft darum geht, störende Objekte aus einem (Bewegt-)Bild zu entfernen, dürften Neuronale Netze mit Sicherheit bald die Hauptrolle spielen."
Je näher das Ergebnis an der Realität ist, um so besser - aber der Algorithmus muss doch nur die weißen Flecken im bild möglichst so zu füllen, dass es möglichst nicht auffällt - und das kann er anscheinend besser als bisherige Verfahren - aber natürlich nicht so gut als wenn ein Mensch (allerdings deutlich aufwändiger) das Bild per Hand retuschiert - und grade bei Videos ist das händische korrigieren aufgrund der Vielzahl der Bilder doch keine Alternative - da braucht"s das beste algorithmische (automatisierte) Rechen-Verfahren, um die Aufgabe zu lösen.
Lego
Antwort von Rudolf Max:
Die Idee an sich ist ja sicher nicht schlecht...
Mag ja für ein Stück blauen Himmel oder solche Sachen sehr hilfreich sein, aber für so komplexe Sachen wie ein grosses Katzengesicht ist es völlig unbrauchbar...
Ich warte mal solange, bis man mit dieser pseudo künstlichen Intelligenz ganze Filme automatisch drehen kann, dann muss ich nicht extra noch selber etwas drehen...
Im Moment ist es mehr künstlich als intelligent...
Antwort von WoWu:
Sorry, das sieht leicht bescheiden aus. Nicht ohne Grund (?) hat man das vollständige Original weggelassen. Und wie (d) sieht keine Raubkatze aus, jedenfalls keine, die ich (im Zoo oder Film) gesehen habe ... (und täglich grüßt das NN Murmeltier)
Aber das Ziel des Algorithmus ist es doch nur, besser als bisherige andere Verfahren fehlende Teile eines Bildes (z.B. weil diese entfernt wurden in der Postproduktion) durch etwas möglichst passendes zu ersetzen, das sagt der Autor doch deutlich: "Aber gerade wenn es in Zukunft darum geht, störende Objekte aus einem (Bewegt-)Bild zu entfernen, dürften Neuronale Netze mit Sicherheit bald die Hauptrolle spielen."
Je näher das Ergebnis an der Realität ist, um so besser - aber der Algorithmus muss doch nur die weißen Flecken im bild möglichst so zu füllen, dass es möglichst nicht auffällt - und das kann er anscheinend besser als bisherige Verfahren - aber natürlich nicht so gut als wenn ein Mensch (allerdings deutlich aufwändiger) das Bild per Hand retuschiert - und grade bei Videos ist das händische korrigieren aufgrund der Vielzahl der Bilder doch keine Alternative - da braucht"s das beste algorithmische (automatisierte) Rechen-Verfahren, um die Aufgabe zu lösen.
Lego
Leider ist das nicht die einzige Anwendung .... Solche Algorithmen werkeln auch heute schon in den meisten 4K Handys und rechnen die Bilder.
Hauptsache scharf und Inhalt reicht so ungefähr.
Insofern hat man das leider nicht mehr in der Hand, welche Stellen. des Bildes gepatched werden, weil es dann auch ausreicht, nur noch mit geringer Auflösung abzutasten.
Antwort von Jott:
Tolle Handys, die 30x pro Sekunde neuronalnetzgespeiste Fakebilder hinkriegen, ohne dass man's sieht. Du kannst deine Story sicher belegen, nicht wahr?
Antwort von WoWu:
Klar, nur dazu gehört aber auch jemand, der es versteht.
Antwort von Jott:
Billige Ausflucht mit üblicher Beleidigung. wowu pur. Gilt aber nicht: Links bitte! Mach mal. Oder ist die Story alleine auf deinem Mist gewachsen? So wie die angebliche Super Resolution 4K-Aufnahmen von hinten bis vorne scharf rechnet? Schon das ist einfach zu widerlegen, man muss dazu nur eine anschalten, was du wohl noch nie getan hast. Jetzt also neuronale Netze beim Handyfilmen. Komm, beleg mal.
Antwort von WoWu:
Ja ja, alles klar, leg Dich wieder hin.
Aber ich hab"hier was auf Deinem Level gefunden.
Antwort von Jommnn:
Aber ich dachte, Magic Pony macht da im Moment noch eher Forschungsarbeit, und dann auch eher für die Nachbereitung, deren Technologie wird tatsächlich aktuell in Handys verbaut?
Antwort von WoWu:
Probier es aus, denn wenn Du 4K auflöst, müsstest Du einen Gegenstand von 2x2 cm im Abstamd von rd 100 m gefilmt, in der 4K Wiedergabe noch als einzelnes Objekt erkennen.
Übrigens wird an dem Thema schon seit den 70er Jahren geforscht und im Bildzusammemhang rd. 10 Jahre.
Und im Gamingbereich sind Echtzeitapplikationen mittlerweile ein alter Hut und mit z.Tl. deutlich höheren Auflösungen.
Aber das ist ja ein allgemeines Entwicklungsthema, an dem alle möglichen Firmen, jeweils in ihren Bereichen arbeiten.
Antwort von Jommnn:
Meine Frage bezog sich eher auf Magic Pony, weißt du, ob deren Technologie schon konkret verbaut wird?
Antwort von Jott:
In
Kameras? Anwendung neuronaler Netze zur Bildverbesserung
in realtime, ohne jede Verzögerung? wowu weiß das ganz sicher, aber er will halt nicht verraten, welche Handies oder Kameras das können sollen. Und vor allem wie. Eine Frage des Niveaus?
Solche Algorithmen werkeln auch heute schon in den meisten 4K Handys
Antwort von Jommnn:
In
Kameras? Anwendung neuronaler Netze zur Bildverbesserung
in realtime, ohne jede Verzögerung? wowu weiß das ganz sicher, aber er will halt nicht verraten, welche Handies oder Kameras das können sollen. Und vor allem wie. Eine Frage des Niveaus?
Solche Algorithmen werkeln auch heute schon in den meisten 4K Handys
Ja eben, das hat mich jetzt verwirrt, Magic Pony in Zusammenhang mit Hardware zu lesen, dann war Wowus Link einfach irreführend.