Bei der Abbildungsgrösse wie offenbar in der Samsung-Werbung gezeigt bewegt sich der Mond in 2 Minuten vermutlich so weit, dass dabei kein scharfes Bild entstehen kann - aber KI löst das Problem ja.MK hat geschrieben: ↑Mo 13 Mär, 2023 13:45 Lustig in diesem Zusammenhang auch dieser Werbetext mit Tipps von Samsung bezüglich Mondfotos:
...
• Spiele mit der Belichtungszeit deiner Kamera. Aber Achtung: Für extra lange Belichtungszeiten, zum Beispiel 2 Minuten, solltest du deine Kamera auf einem Stativ befestigen.
...
Ich meine gelesen zu haben dass die Kamera-Software auch für Sternenaufnahmen die Erdrotation berücksichtigt... oder eben die KI :D
Und genau da beißt sich die Katze in den ***,Was natürlich problematisch bleibt, ist Computational Photography im dokumentarischen Einsatz. Hier sollte eine "reale Abbildung" immer gewährleistet sein.
'Nackte Kameras' haben doch nicht einfach nur die 'Aufgabe' das mit den Augen gesehene auf ein Bild zu bannen.Frank Glencairn hat geschrieben: ↑Mo 13 Mär, 2023 14:34
Im Prinzip hilft die AI eigentlich dabei, das mit den Augen gesehene viel realistischer auf eine Bild zu bannen, als es eine nackte Kamera es jemals könnte.
Realistische Fotos sind sowieso ne Hippie-Idee.
Aus einer rein mechanistisch-technokratischen Sichtweiser heraus mag das wohl wahr sein.
Hab ich nichts dagegen, doch gewöhnlich meldet derjenige, der seine "Idee" transportiert sieht den Schutz der Rechte an derselben an. Wer wäre das hier? Müssen wir uns an dieser Stelle Sorgen machen, dass da Überraschendes nachkommt?Frank Glencairn hat geschrieben: ↑Mo 13 Mär, 2023 16:02Aus einer rein mechanistisch-technokratischen Sichtweiser heraus mag das wohl wahr sein.
Wenn man eine Abbildung jedoch als Idee, Allegorie oder sogar manifestiertes Gefühl - wenn du so willst - betrachtet, spielt das alles keine Rolle, und die AI hilft sogar den (gewünschten) Inhalt besser zu transportieren.
Ich sehe aber vor allem. daß Kontrollverlust Ängste und Unsicherheit bei vielen erst mal zur pauschalen Ablehnung (bis hin zu Machinensturm-Phantasien) führt, statt die Technik für sich selbst und die Eigene Arbeit zu nutzen.
Oder die Dokumente die damals mit Xerox-Geräten gescannt und dabei verändert wurden.
Da widerspreche ich gar nicht.Frank Glencairn hat geschrieben: ↑Mo 13 Mär, 2023 16:02 (...) die AI hilft sogar den (gewünschten) Inhalt besser zu transportieren.
Da bin ich völlig bei dir, hab aber so meine Zweifel ob dieser fromme Wunsch jemals irgendwann in der Geschichte Realität war.
Das hier ist von nem Spaziergang vom 1. März (nix halluziniert, nix nachbearbeitet):Frank Glencairn hat geschrieben: ↑So 12 Mär, 2023 16:23 Ich bin ziemlich sicher mein Huawai halluziniert auch die ein oder andre Textur/Struktur herbei, aber hey - es sieht gut aus, warum also nicht? Ich hab bei Handyschnappschüsen ja keine 100%igen Wahrheits/Dokumentationsanspruch, sondern will nur ein möglichst gutes Bild.
Ich denke wenn es ne Funktion gäbe, die einem die Wahl lassen würde zwischen dem was die Kamera wirklich hergibt, und der AI-gepimpten Version, würde ich wahrscheinlich immer letztere bevorzugen.
Das hier ist von nem Spaziergang heute Nachmittag - hab ich trotz AI nochmal bearbeitet.
Objektive Realität ist so eine Sache, die gibt es überhaupt nicht, sobald man sich aus einer wissenschaftlichen Perspektive entfernt. Bereits der Standpunkt der Kamera verändert massiv die Emotionalität einer Situation, ich vermute jeder hier kennt das legendäre Foto der Erschließung eines Vietcong Angehörigen in 1968. Aus nächster Nähe hat die Welt einen gefesselten, jungen Mann gesehen, der von einem anderen kaltblütig erschossen wurde. Das Bild wäre sicher weniger intensiv, wenn die Szene aus 30 Metern Entfernung aufgenommen worden wäre. Später wurde dann der (evtl. erfundene) Kontext dazugegeben, der aus Lynchjustiz eine Vergeltung gemacht hat. Zusätzlich wurde in der Zeitung, die das Bild veröffentlicht hat, ein Foto eines von den Vietcong getöteten Kindes zum Kontrast veröffentlicht. Das alles verändert das Narrativ und man muss sich fragen, was denn nun die Realität ist.
Was Du hier beschreibst, ist aber genau das Prinzip von machine learning-KI (sowohl von computational photography-Superresolution, als auch von Bildgeneratoren wie Dall-E, Midjourney und Stable Diffusion; ChatGPT funktioniert auch nicht anders, nur eben auf der Grundlage von "Stock-Texten" statt Stock-Fotos).muellerbild hat geschrieben: ↑Di 14 Mär, 2023 08:01 Bei den Mondfotos geht es doch gar nicht um KI:
Es wird einfach die Aufnahme gegen ein Stock-Foto ausgetauscht und dem Knipser als eigenes Werk präsentiert.
Ist das so? Dann ist das doch ok. Es sollte nur auch offen erklärt werden, was offenbar nicht der Fall war?Schwermetall hat geschrieben: ↑Di 14 Mär, 2023 13:13 Was für eine Aufregung um nichts.
Das schöne beim Samsung Smartphone ist, das der allererste Punkt in den Einstellungen, die sogenannte "Szenenoptimierung", sich einfach abschalten lässt.
So einfach ist das.
Das dürfte schwer zu finden sein, da alle Androids und iPhones mit computational photography arbeiten. Diese Video gibt eine gute Erklärung der Hintergründe:
Die Kommentare unter dem von Dir verlinkten Youtube-Video zeigen ja schon, wie ahnungslos die Kritiker sind was Perspektive betrifft.Frank Glencairn hat geschrieben: ↑Mo 13 Mär, 2023 17:44
Und das Schlimme ist, die haben seit dem absolut nichts dazu gelernt.