Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Neuronale Netze zur Bildergänzung



Newsmeldung von slashCAM:


Und schon wieder einmal ein höchst interessantes Paper aus dem Bereich der künstlichen Intelligenz, an dem unter anderem auch das Adobe Research Team beteiligt war. Wer P...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neuronale Netze zur Bildergänzung


Space


Antwort von camworks:

Bei PatchMatch sind die Augen besser, die weißen Streifen sind korrekt eingefügt.

Space


Antwort von StanleyK2:

Sorry, das sieht leicht bescheiden aus. Nicht ohne Grund (?) hat man das vollständige Original weggelassen. Und wie (d) sieht keine Raubkatze aus, jedenfalls keine, die ich (im Zoo oder Film) gesehen habe ... (und täglich grüßt das NN Murmeltier)

Space


Antwort von WoWu:

Das Problem bei solchen Verdeckungsmethoden ist weniger, wie gut es Verdeckt wird, als vielmehr das Weglassen der Realität, denn wenn der Leopard unter dem Weißen Fleck das Einschussloch hat, das ihn getötet hat, wird die Bildaussahe völlig verkehrt und das Foto oder der Film erfüllt nicht mehr den eigentlichen Ansatz.

All diese Methoden sind nämlich nur so gut, wie die optische Wiedergabe und können diese nicht ersetzen. Es entstehen wohl messerscharfe Bilder, aber mit jedem Patch eine zunehmende Entfernung zur Realität.
Interessant wäre wirklich einmal, das Originalbild gewesen und hätte das eigentliche Problem verdeutlichen können.

Aber es geht ja offenbar gar nicht um die Rekonstruktion von realen Wirklichkeiten, also dem eigentlichen Sinn der Fotografie, sondern darum, einer neuen Bildästetik zu dienen, bei der die reale Szene nur noch eine nachgeordnete Rolle spielt.

Space


Antwort von StanleyK2:

Neue Ästhetik? Im vorliegenden Beispiel wohl kaum. Das ist einfach nur Käse und ist weder ästhetisch noch realistisch. Die Nasenpartie fehlt völlig, und die ist für ein (Groß)Katzengesicht essentiell:

Space


Antwort von WoWu:

Das war auch weniger auf diese Flickschusterei gemünzt, als vielmehr auf die Super Resolution Aufbereitung, denn auch da ist das, was das Objektiv nicht aufzeichnet, einfach nur mit Patches übertüncht und keine Wiedergabe der Realität mehr.
Die Google Algorithmen zaubern an Strände sogar Menschen, die man in der Vergrösserung dann erahnen kann, obwohl in der Aufnahmeszene gar keine Menschen an dem Strand waren.
Es wird dann eine Frage, was von wem in solche Patch Bibliotheken eingepflegt wird, aber mit Fotografie hat das dann nur noch begrenzt zu tun.

Space


Antwort von legolax:

Sorry, das sieht leicht bescheiden aus. Nicht ohne Grund (?) hat man das vollständige Original weggelassen. Und wie (d) sieht keine Raubkatze aus, jedenfalls keine, die ich (im Zoo oder Film) gesehen habe ... (und täglich grüßt das NN Murmeltier) Aber das Ziel des Algorithmus ist es doch nur, besser als bisherige andere Verfahren fehlende Teile eines Bildes (z.B. weil diese entfernt wurden in der Postproduktion) durch etwas möglichst passendes zu ersetzen, das sagt der Autor doch deutlich: "Aber gerade wenn es in Zukunft darum geht, störende Objekte aus einem (Bewegt-)Bild zu entfernen, dürften Neuronale Netze mit Sicherheit bald die Hauptrolle spielen."

Je näher das Ergebnis an der Realität ist, um so besser - aber der Algorithmus muss doch nur die weißen Flecken im bild möglichst so zu füllen, dass es möglichst nicht auffällt - und das kann er anscheinend besser als bisherige Verfahren - aber natürlich nicht so gut als wenn ein Mensch (allerdings deutlich aufwändiger) das Bild per Hand retuschiert - und grade bei Videos ist das händische korrigieren aufgrund der Vielzahl der Bilder doch keine Alternative - da braucht"s das beste algorithmische (automatisierte) Rechen-Verfahren, um die Aufgabe zu lösen.

Lego

Space


Antwort von Rudolf Max:

Die Idee an sich ist ja sicher nicht schlecht...

Mag ja für ein Stück blauen Himmel oder solche Sachen sehr hilfreich sein, aber für so komplexe Sachen wie ein grosses Katzengesicht ist es völlig unbrauchbar...

Ich warte mal solange, bis man mit dieser pseudo künstlichen Intelligenz ganze Filme automatisch drehen kann, dann muss ich nicht extra noch selber etwas drehen...

Im Moment ist es mehr künstlich als intelligent...

Space


Antwort von WoWu:

Sorry, das sieht leicht bescheiden aus. Nicht ohne Grund (?) hat man das vollständige Original weggelassen. Und wie (d) sieht keine Raubkatze aus, jedenfalls keine, die ich (im Zoo oder Film) gesehen habe ... (und täglich grüßt das NN Murmeltier) Aber das Ziel des Algorithmus ist es doch nur, besser als bisherige andere Verfahren fehlende Teile eines Bildes (z.B. weil diese entfernt wurden in der Postproduktion) durch etwas möglichst passendes zu ersetzen, das sagt der Autor doch deutlich: "Aber gerade wenn es in Zukunft darum geht, störende Objekte aus einem (Bewegt-)Bild zu entfernen, dürften Neuronale Netze mit Sicherheit bald die Hauptrolle spielen."

Je näher das Ergebnis an der Realität ist, um so besser - aber der Algorithmus muss doch nur die weißen Flecken im bild möglichst so zu füllen, dass es möglichst nicht auffällt - und das kann er anscheinend besser als bisherige Verfahren - aber natürlich nicht so gut als wenn ein Mensch (allerdings deutlich aufwändiger) das Bild per Hand retuschiert - und grade bei Videos ist das händische korrigieren aufgrund der Vielzahl der Bilder doch keine Alternative - da braucht"s das beste algorithmische (automatisierte) Rechen-Verfahren, um die Aufgabe zu lösen.

Lego Leider ist das nicht die einzige Anwendung .... Solche Algorithmen werkeln auch heute schon in den meisten 4K Handys und rechnen die Bilder.
Hauptsache scharf und Inhalt reicht so ungefähr.

Insofern hat man das leider nicht mehr in der Hand, welche Stellen. des Bildes gepatched werden, weil es dann auch ausreicht, nur noch mit geringer Auflösung abzutasten.

Space



Space


Antwort von Jott:

Tolle Handys, die 30x pro Sekunde neuronalnetzgespeiste Fakebilder hinkriegen, ohne dass man's sieht. Du kannst deine Story sicher belegen, nicht wahr?

Space


Antwort von WoWu:

Klar, nur dazu gehört aber auch jemand, der es versteht.

Space


Antwort von Jott:

Billige Ausflucht mit üblicher Beleidigung. wowu pur. Gilt aber nicht: Links bitte! Mach mal. Oder ist die Story alleine auf deinem Mist gewachsen? So wie die angebliche Super Resolution 4K-Aufnahmen von hinten bis vorne scharf rechnet? Schon das ist einfach zu widerlegen, man muss dazu nur eine anschalten, was du wohl noch nie getan hast. Jetzt also neuronale Netze beim Handyfilmen. Komm, beleg mal.

Space


Antwort von WoWu:

Ja ja, alles klar, leg Dich wieder hin.

Aber ich hab"hier was auf Deinem Level gefunden.



Space


Antwort von Jommnn:

Aber ich dachte, Magic Pony macht da im Moment noch eher Forschungsarbeit, und dann auch eher für die Nachbereitung, deren Technologie wird tatsächlich aktuell in Handys verbaut?

Space


Antwort von WoWu:

Probier es aus, denn wenn Du 4K auflöst, müsstest Du einen Gegenstand von 2x2 cm im Abstamd von rd 100 m gefilmt, in der 4K Wiedergabe noch als einzelnes Objekt erkennen.
Übrigens wird an dem Thema schon seit den 70er Jahren geforscht und im Bildzusammemhang rd. 10 Jahre.
Und im Gamingbereich sind Echtzeitapplikationen mittlerweile ein alter Hut und mit z.Tl. deutlich höheren Auflösungen.
Aber das ist ja ein allgemeines Entwicklungsthema, an dem alle möglichen Firmen, jeweils in ihren Bereichen arbeiten.

Space


Antwort von Jommnn:

Meine Frage bezog sich eher auf Magic Pony, weißt du, ob deren Technologie schon konkret verbaut wird?

Space


Antwort von Jott:

In Kameras? Anwendung neuronaler Netze zur Bildverbesserung in realtime, ohne jede Verzögerung? wowu weiß das ganz sicher, aber er will halt nicht verraten, welche Handies oder Kameras das können sollen. Und vor allem wie. Eine Frage des Niveaus?
Solche Algorithmen werkeln auch heute schon in den meisten 4K Handys

Space


Antwort von Jommnn:

In Kameras? Anwendung neuronaler Netze zur Bildverbesserung in realtime, ohne jede Verzögerung? wowu weiß das ganz sicher, aber er will halt nicht verraten, welche Handies oder Kameras das können sollen. Und vor allem wie. Eine Frage des Niveaus?
Solche Algorithmen werkeln auch heute schon in den meisten 4K Handys Ja eben, das hat mich jetzt verwirrt, Magic Pony in Zusammenhang mit Hardware zu lesen, dann war Wowus Link einfach irreführend.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Neuronale Kompression zum Ausprobieren HiFiC- High-Fidelity Generative Image Compression
Alternative zur Sony Alpha 7iii - zurück zur Canon?
Zählt bei einem Kabel der Stecker mit zur Länge?
Empfehlenswerte VST Audio Plugins zur Musik & Videoproduktion (Freeware/Freebies)
Fragen zur Restaurierung alter Schellackaufnahmen...
PRUSA: Von der Idee bis zur Renderfarm
Mevo Start Livestreaming Kamera wird per neuer App zur Webcam
Grass Valley: Neue Infos zur IP-Kamera LDX 100
Unreal Build: Kostenloses Online Event zur virtuellen Filmproduktion
Canon Online Event mit Q&A zur EOS C70
Frage zur S5 + Sigma ART
KI ersetzt den Himmel in Videos und macht den Tag zur Nacht
Fragen zur Website Vimeo.com...
Von der Sony FS5II zur FX6 wechseln?
Premiere Pro: Frage zur Slideshow-Auflösung + Bearbeitung von Textanimation
USB-C Stick zur Aufnahme mit Pocket 4k
4k-Crop bei Lumix G91 / Vergleich zur Lumix G9




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash