Logo Logo
/// 

Auflösungsrekord: Sony Sensor für Smartphones mit 48 Megapixeln



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Einen neuen Auflösungsrekord von 48 Megapixeln für Smartphone-Bildsensoren stellt Sony mit dem neuen IMX586 CMOS Sensor auf, mit einer Pixelgröße von nur 0.8 μm. Dam...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Auflösungsrekord: Sony Sensor für Smartphones mit 48 Megapixeln




Antwort von rush:

Schon spannend die Entwicklung in diesen Minimiii-Bereich...

Mein China-Smartphone ist nun etwas über 2 Jahre alt.. kostete mit Zoll und Versand schlappe 127€ und überzeugt mich bis heute noch fast durchgehend da es einfach funktioniert.

Einzig das Kameramodul ist eher so "lala" - outdoor passt alles ganz gut auch dank HDR-Modus - aber bei Schwachlicht isses aus und vorbei, da sieht es sprichwörtlich kein Licht am Ende des Tunnels.

Wenn ich also in ein paar Jahren über ein neues Smartphone nachdenken würde/müsste, käme mir solch ein potenter Kamera-Sensor durchaus gelegen... die Hälfte der PixelPixel im Glossar erklärt für nochmals besseres LowLight wären aber auch spannend.



Antwort von Jott:

Schöne Steilvorlage für Auflösungs-Bedenkenträger. Sanftes Schnuppern an der Zukunft ...





Antwort von Darth Schneider:

Ich staune eigentlich schon wenn ich die Fotos von dem iPhone 7 von meiner Ehefrau anschaue. Bei genug Licht sehen die Bilder schon toll aus. Auch wenn ich das Gefühl habe das jedes einzelne schon bei der Aufnahme schon heftig bearbeitet, und was die Skintones betrifft retuschiert aussieht.
Auch die Videos sehen toll aus, aber da hat dann meine alte Rx10 immer noch die Nase eindeutig vorne. Bei den Fotos, sehe ich nur noch einen grossen Unterschied wenn ich rein zoome.
Das dürfte wohl am grösseren Sensor liegen und an der besseren grösseren Linse.
Aber bei 48 Megapixeln dürfte das dann schon ganz anders aussehen.
Sterben die Low und Medium Budget Kameras langsam wirklich aus ?
Wenn dann noch Red kommt mit dem ausbaubaren 3D Hologramm Cinemakamera Smartphone, dem Red Hydrogen One ?
Es ist ziemlich ruhig bei Red was dieses Teil betrifft.
Haben die von Red kalte Füsse gekriegt, wegen der angekündigten neuen Pocket 4K Kamera ?
Vieleicht sind dort die Köpfe heftig am qualmen und sie änderen noch einiges im letzten Moment.....was denkt Ihr ?
Gruss Boris



Antwort von muellerbild:

Durch diese "Lins-chen" passen keine 48 Megapixel.
Nikon und Canon mussten für diese Auflösung fast alle Objektive neu konstruieren, obwohl Linsen und Sensoren um ein vielfaches größer und somit die technischen Hürden einfacher zu überwinden sind als bei Handys.



Antwort von Darth Schneider:

Ich weiss nicht ob das mit den technischen Hürden bei den grossen Linsen einfacher ist.
Ganz sicher sind die grossen Linsen ja viel, viel teurer und auch viel besser, als die kleine Smartphone Linsen. Egal für welche Sensoren und Auflösung sie geeignet sind. Also dürfte logischerweise, die Konstruktion ja auch viel schwieriger sein.
Bei den Smartphones werden die Bilder doch nicht wirklich von der Linse und vom Sensor gemacht.....so vieles geht heute problemlos nur mit Software, was früher nur mit Hardware ging. Aber spätestens wenn man ein wenig rein zoomt, nur schon auf m IPad, dann sieht man den Unterschied.....zu den grösseren.
Gruss Boris



Antwort von r.p.television:

Man redet ja selbst bei Fullframe über Sinn und Unsinn von mehr als 40 Megapixeln, weil hier einfach die Grenzen der Sensorgröße erreicht sind bzw was Linsen im Stande sind auf die Targetfläche sauber abzubilden.
Über so ne kleine Popellinse auf nen winzigen Sensor soll dann 48 Megapixel weggedampft werden? Werden die Details von KI erzeugt? Oder wie soll das funktionieren?



Antwort von Funless:


Man redet ja selbst bei Fullframe über Sinn und Unsinn von mehr als 40 Megapixeln, weil hier einfach die Grenzen der Sensorgröße erreicht sind bzw was Linsen im Stande sind auf die Targetfläche sauber abzubilden.
Über so ne kleine Popellinse auf nen winzigen Sensor soll dann 48 Megapixel weggedampft werden? Werden die Details von KI erzeugt? Oder wie soll das funktionieren?

Frag mal Jott, der kann dir sagen wie das funktioniert. Weil das ist nämlich die Zukunft und so und der jute Jott ist da von Anfang an dabei. Hat schon vor 20 Jahren an 8K Ü-Wagen jeschnuppert.

Ach ... eigentlich wollte ich mich aus der Diskussion raushalten ... *seufz**



Antwort von r.p.television:



Man redet ja selbst bei Fullframe über Sinn und Unsinn von mehr als 40 Megapixeln, weil hier einfach die Grenzen der Sensorgröße erreicht sind bzw was Linsen im Stande sind auf die Targetfläche sauber abzubilden.
Über so ne kleine Popellinse auf nen winzigen Sensor soll dann 48 Megapixel weggedampft werden? Werden die Details von KI erzeugt? Oder wie soll das funktionieren?

Frag mal Jott, der kann dir sagen wie das funktioniert. Weil das ist nämlich die Zukunft und so und der jute Jott ist da von Anfang an dabei. Hat schon vor 20 Jahren an 8K Ü-Wagen jeschnuppert.

Ach ... eigentlich wollte ich mich aus der Diskussion raushalten ... *seufz**

Meine Frage war nicht gänzlich ironisch gemeint. Also rein physikalisch geht das nicht. Punkt. Aber beim Processing passieren mittlerweile soviele Tricks mit glattgerechneten, hochskalierten Texturen etc. dass man solche Bilder Laien tatsächlich als 48 Megapixel verkaufen kann. Vergleicht man dann die Bilder mit Kameras die tatsächlich 48 Megapixel "können" wird man wohl feststellen dass die Bilder in der Tat nicht unschärfer sind und auf den ersten Blick sogar die selbe Detaildichte suggerien ohne überschärft zu wirken, aber die Abbildung ist dank des Processings nicht korrekt. Das Processing mit teils künstlicher Intelligenz wird in Zukunft einiges verändern. Aber es wird auch komische Effekte geben.



Antwort von WoWu:

48 MPix bedeutet ja nicht 48MBildpunkte.
Es heißt nur, dass jedes PixelPixel im Glossar erklärt nur eben 0,7 Mikrometer groß ist, damit die gesamte Linse nur wenige mm groß sein kann und möglichst wenig Glas beinhaltet.
Kleine Linsen, ohne viel Glas, lösen aber bekanntlich höher auf, als große Linsen mit viel Glas.
Aber Auflösung hat nun wieder nichts mit Bildqualität zu tun, dafür aber mit "Schärfe". Wer also auf "scharfe und bunte" Bilder aus ist und es ihm nicht so auf die Bildqualität ankommt, ist mit sowas prima bedient ... noch dazu, weil es billig ist und dann das ganze Teil nicht mehr kostet als die Kameratasche einer richtigen Kamera.
Und telefonieren kann man mit dem Teil auch noch.
Wer braucht da noch gute Bilder?
Und überhaupt ... ist die Frage nach guten Bildern nicht völlig antiquiert ?
Schärfe ist gefragt und zwar vom Objektivrand bis zum Horizont.



Antwort von Skeptiker:


.. Aber Auflösung hat nun wieder nichts mit Bildqualität zu tun, dafür aber mit "Schärfe" ...

Also doch ! ;-)
Habe ich das nicht schon ganz anders gelesen vom Autor ??

Der Sensor ist ja ein 1/2-Zoll Sensor, also eigentlich nichts Ungewöhnliches.
Mit 48 Millionen Pixeln je 0.8 Mikrometer Kantenlänge (rechnerisch) allerdings schon.

Für gleiche Betrachtungs-Bildgrösse (diagonal) müsste man das Bild des Mini-Sensors gegenüber einem FF-Sensor mit ebenfalls 48 Megapixeln also 2.7/0.5 = 5.4x stärker nachvergrössern - da hilft die hohe Sensorauflösung, wenn die Optik sie mit einem passenden Bild unterstützt.

Als Ergänzung zum slashCAM-Artikel kann man sich den auf dpreview vom 23. Juli noch zu Gemüte führen, der 3 mögliche Auslese- bzw. Verarbeitungsvarianten des Sensors anführt:

Sony IMX586 smartphone sensor comes with 48MP and Quad Bayer desig
n
https://www.dpreview.com/news/024978115 ... yer-design



Antwort von Jott:

Sony wird schon zeigen, wie das geht. Deren Ingenieure sind mit Sicherheit viiiel schlauer als wir alle hier.

Jede Kamera, die ihr heute benutzt, basiert auf Technologien, die früher belächelt oder als technisch völlig unmöglich verworfen wurden. Immer dran denken! :-)



Antwort von WoWu:



.. Aber Auflösung hat nun wieder nichts mit Bildqualität zu tun, dafür aber mit "Schärfe" ...

Also doch ! ;-)
Habe ich das nicht schon ganz anders gelesen vom Autor ??

Vielleicht anders verstanden, bestimmt aber nicht anders gelesen denn die Bildqualität pro PixelPixel im Glossar erklärt wird nicht besser, je kleiner das PixelPixel im Glossar erklärt wird, wohl aber die Kosten für Sensor und vorgelagertem Objektiv.
Wenn das anschließend durch Software berechnet und kompensiert wird, ist das ein anderes Problem, mit anderen Fehlern. Man tauscht also einen Fehler, gegen den andern ein.

Außerdem schränkst Du das selbst ein, indem Du sagst ...
"wenn die Optik sie mit einem passenden Bild unterstützt".

Aber die Unterteilung des eingentlichen Bins von 4 Pixels, also von 12 MPix in 48 Mpix hat den einzigen Zweck darin, Nachschärfungen etwas geringer halten zu können. Die qualirative Problematik von 1,6 y Pixels gegenüber 6-8 y Pixels bleibt erhalten.
Nicht umsonst werden qualitativ hochwertige Kameras im Mittelformat entworfen.
Frage ist eben immer nur, wo der eigene Qualitätsanspruch liegt.
Wer nur scharfe und bunte Bilder braucht und seine Urlaubsvideos damit macht, braucht keine Mittelformatkamera und keine teuren Objektive.

Auch der Ansatz von Phase One, Hasselblad und Mamiya Leaf mit ihren 50 bzw. 80/100 MPix Mittelformat Sensoren haben lediglich den Zweck, die Schärfeberechnung per Software herunter zu bringen. Die Kameras lösen auch keine 8 oder 10k auf.
Schärfe und Auflösung sind zwei völlig unterschiedliche Dinge und Pixelmengen zu erhöhen zielt lediglich auf Bildschärfe ab, hat aber mit Auflösung nichts zu tun.

Die eigentliche Revolution bei diesem Sensor liegt aber nicht in der Anzahl der Pixels sondern in der "Schicht" Technologie des Sensors, der quasi hinter jedem PixelPixel im Glossar erklärt seinen eigenen Mikroprozessor hat und dadurch so gut wie alle (bisher) analogen Bestandteile der Videotechnik durch Software zu ersetzt.
Angefangen beim ND Filter, bis hin zur objekterkennung und der pixelgenaues handhabung solcher Objekte.
Jedes PixelPixel im Glossar erklärt hat nicht nur seine eigene BlendeBlende im Glossar erklärt sondern Objekte haben so auch ihre eigenen Belichtungen ... ich könnte die Reihe der Beispirle hier beliebig fortsetzen.
Den Sensor also auf die Pixelmemge zu reduzieren heißt ... weit am Ziel vorbei zu schießen.



Antwort von muellerbild:


Ich weiss nicht ob das mit den technischen Hürden bei den grossen Linsen einfacher ist.
Ganz sicher sind die grossen Linsen ja viel, viel teurer und auch viel besser, als die kleine Smartphone Linsen. Egal für welche Sensoren und Auflösung sie geeignet sind. Also dürfte logischerweise, die Konstruktion ja auch viel schwieriger sein.
Bei den Smartphones werden die Bilder doch nicht wirklich von der Linse und vom Sensor gemacht.....so vieles geht heute problemlos nur mit Software, was früher nur mit Hardware ging. Aber spätestens wenn man ein wenig rein zoomt, nur schon auf m IPad, dann sieht man den Unterschied.....zu den grösseren.
Gruss Boris

Einverstanden, so kann man es auch ausdrücken. Interessant die Aussage, dass bei Smartphones die Bilder doch nicht wirklich von Linse und Sensor gemacht werden. So drastisch habe ich das bisher noch nicht gesehen. Leuchtet mir aber ein.
Ich wollte ja auch nur sagen, dass für diese Pixelmengen nur große Linsen den erforderlichen "Photonendurchfluss" innerhalb des Bruchteils einer Sekunde für ein optisch erzeugtes Bild ermöglichen.
(Entschuldigung, aber ich bin jetzt zu müde um bei Wikipedia die korrekten physikalischen Begriffe zu kopieren.)



Antwort von WoWu:

Das ist ja der Grund, warum sie bei wenig Licht die Auflösung einfach auf 1/4 herunter bringen. 4 Pixels werden zu einem PixelPixel im Glossar erklärt gebinnt.
Aber das allein macht auch noch nicht den Vorteil denn durch den eigenständigen Prozessor hinter jedem PixelPixel im Glossar erklärt ist natürlich Tür und Tor geöffnet, alles mögliche mit der Software zu veranstalten. Dazu könnte man auch die Rauschunterdrückung pro PixelPixel im Glossar erklärt zählen oder eine für dunkle Bereiche angepasste GammaGamma im Glossar erklärt Korrektur.
Die Stärke des Sensors liegt eben nicht in der Pixelmenge sondern in der Prozessorleistung von 48 Millionen Nanoprozessoren. Damit lässt sich so gut wie alles machen, wozu man heute noch, z.Tl. analoge Hardware benötigt.
Künftige Bilder brauchen nur noch eine verschwommene Information über das, was vor der Linse passiert. Der Rest kommt aus der Konserve, egal ob das ND Filter, WeißabgleichWeißabgleich im Glossar erklärt, Hautfarbe, Anti Aliasing oder was auch immer ist.
Alles nur noch Software .
Da werden sich die NLE Produzenten auch erst mal dran gewöhnen müssen, dass das Meiste dann in der Kamera, noch vor der Aufzeichnung geschieht.



Antwort von Darth Schneider:

Guten Morgen
Hm, Sieht fast danach aus, das spätestens wenn solche Technologien dann in den meisten Kameras eingebaut sein werden, dann hol ich dann meine alten Super 8 Kisten und die verstaubte Ae1 runter vom Dachstock. Ich stehe eigentlich schon mehr auf echte Film/Video/Foto Bilder, die Vorallem durch die Beleuchtung, WeissabgleichWeissabgleich im Glossar erklärt, BlendeBlende im Glossar erklärt und VerschlusszeitVerschlusszeit im Glossar erklärt, Schärfe, Farbe und Dynamik kriegen.
Ich weiss das tönt altmodisch.
Wenn doch alles nur noch von Software schon bei der Aufnahme gesteuert wird, dann geht die Kreativität und der Spass daran dann flöten. Die Aufnahmen sind dann nur noch zu 50% vom Kameramann gemacht.
Dann verliert sich der Reiz.
Selfieknipser brauchen keine 48 Megapixel. Sonst explodieren die sozialen Netzwerke und Platformen, wegen einem riesigen globalen Datenstau.
Was ja eigentlich gar nicht so schlimm wäre.........eher befreiend.
Gruss Boris



Antwort von Skeptiker:


Guten Morgen
Hm, Sieht fast danach aus, das spätestens wenn solche Technologien dann in den meisten Kameras eingebaut sein werden, dann hol ich dann meine alten Super 8 Kisten und die verstaubte Ae1 runter vom Dachstock. Ich stehe eigentlich schon mehr auf echte Film/Video/Foto Bilder, die Vorallem durch die Beleuchtung, WeissabgleichWeissabgleich im Glossar erklärt, BlendeBlende im Glossar erklärt und VerschlusszeitVerschlusszeit im Glossar erklärt, Schärfe, Farbe und Dynamik kriegen.
Ich weiss das tönt altmodisch.
Wenn doch alles nur noch von Software schon bei der Aufnahme gesteuert wird, dann geht die Kreativität und der Spass daran dann flöten. Die Aufnahmen sind dann nur noch zu 50% vom Kameramann gemacht.
Dann verliert sich der Reiz.
Selfieknipser brauchen keine 48 Megapixel. Sonst explodieren die sozialen Netzwerke und Platformen, wegen einem riesigen globalen Datenstau.
Was ja eigentlich gar nicht so schlimm wäre.........eher befreiend.
Gruss Boris

Ich sehe es nicht ganz so dramatisch:

Die Grundidee an der ganzen Sache scheint zu sein, dass man eigentlich einen Sensor mit 12-Megapixel-Lichtstärke hat, der aber bei Bedarf das Bild mit 48 Megapixeln "feinrastern kann", um z. B. einen grösseren digitalen Zoombereich zu haben und höhere Bildschärfe/Auflösung (durch Oversampling) zu generieren. Und WoWu erwähnte ja bereits Sonys neue Multi-Layer-Sensor-Technik (übrigens auch in Sonys RX100 V und VI).
Das Bild kommt nach wie vor durch die (hier wohl besonders scharfe) Optik herein; ich glaube kaum, dass es von A-Z durch den Bildchip "erfunden" wird (so weit sind wir noch nicht), sondern höchstens aufgefrischt. Das ist bei den jetzigen Smartphones ja nicht anders: Sobald man ins Bild zoomt (bzw. in 1:1-Ansicht betrachtet) und dann Pixelgruppen oder aufgeweichte Flächen sieht, zeigen sich nach wie vor die Qualitäts-Unterschiede zu einer echten Photokamera mit vergleichsweeise gemässigter Bildflickerei. Aber die Unterschiede werden kleiner, der verlockende Massenmarkt zieht Innovationen an (in Software wie Hardware), die "Photo Phones" holen auf!



Antwort von iasi:


Das ist ja der Grund, warum sie bei wenig Licht die Auflösung einfach auf 1/4 herunter bringen. 4 Pixels werden zu einem PixelPixel im Glossar erklärt gebinnt.
Aber das allein macht auch noch nicht den Vorteil denn durch den eigenständigen Prozessor hinter jedem PixelPixel im Glossar erklärt ist natürlich Tür und Tor geöffnet, alles mögliche mit der Software zu veranstalten. Dazu könnte man auch die Rauschunterdrückung pro PixelPixel im Glossar erklärt zählen oder eine für dunkle Bereiche angepasste GammaGamma im Glossar erklärt Korrektur.
Die Stärke des Sensors liegt eben nicht in der Pixelmenge sondern in der Prozessorleistung von 48 Millionen Nanoprozessoren. Damit lässt sich so gut wie alles machen, wozu man heute noch, z.Tl. analoge Hardware benötigt.
Künftige Bilder brauchen nur noch eine verschwommene Information über das, was vor der Linse passiert. Der Rest kommt aus der Konserve, egal ob das ND Filter, WeißabgleichWeißabgleich im Glossar erklärt, Hautfarbe, Anti Aliasing oder was auch immer ist.
Alles nur noch Software .
Da werden sich die NLE Produzenten auch erst mal dran gewöhnen müssen, dass das Meiste dann in der Kamera, noch vor der Aufzeichnung geschieht.

Dann kommen wir ja dem menschlichen Sehen endlich wieder etwas näher.



Antwort von maiurb:

Über den (Un-)sinn von Fotohandys: Huawei P20 Pro

https://www.youtube.com/watch?v=uR45mG8Nkoc



Antwort von iasi:


Über den (Un-)sinn von Fotohandys: Huawei P20 Pro

https://www.youtube.com/watch?v=uR45mG8Nkoc

Über den (Un)sinn von Youtube-Schwafeleien :)



Antwort von tom:

UPDATE:
Das Sony Xperia XZ3 wird das erste Smartphone mit dem neuen 48MP-Sensor sei und soll schon Ende August August vorgestellt werden.
laut slashGEAR



Antwort von srone:


Über den (Un-)sinn von Fotohandys: Huawei P20 Pro

https://www.youtube.com/watch?v=uR45mG8Nkoc

na, mit der bildgestaltung bei video hat er es wohl nicht so ganz...;-)

oder ist ihm sein t-shirt aufdruck wichtiger?

lg

srone



Antwort von srone:



.. Aber Auflösung hat nun wieder nichts mit Bildqualität zu tun, dafür aber mit "Schärfe" ...

Also doch ! ;-)
Habe ich das nicht schon ganz anders gelesen vom Autor ??

ist vielleicht missverständlich an dieser stelle von auflösung zu sprechen, aber hier ist klar die sensorauflösung gemeint und eben nicht die finale bildauflösung, welche selbverständlich, die bildqualität weit nach vorne bringen würde...;-)

lg

srone



Antwort von WoWu:

Ich muss auch mal sagen, dass ich sowohl diese Entwicklung erwartet habe, als auch, dass sie uns einiges Kopfzerbrechen auf der analogen Seite abnimmt; denn wie sehr haben wir uns mit Filtern und Einstellungen rumgequält.
Mit Objektivschwächen und Abgleichen.
Das dürfte alles der Vergangenheit angehören. Selbst alte Objektive dürften deutlich an Qualität gewinnen, wenn man sie in ihren individuellen Parametern korrigieren kann und das File bei Gebrauch nur abruft.

Weil das alles auf Pixelebene geschieht, dürfte man selbst der Beugung zuliebe rücken können, sodass kleinere Blenden verfügbar werden, ohne dass die Beugung zuschlägt und durch Objekterkennung geht ein ganzer Raum an zusätzlichen Möglichkeiten auf.

Das Gute an dieser Entwicklung ist, dass man alle Änderungen schon vor der Aufnahme sehen kann und dass alle Parameter in das RAW Signal einfließen.
Damit dürfte sich die Qualität des Bildes ganz außerordentlich verbessern lassen.
Nur im Augenblick kriegen sie mal gerade 2 Helligkeitsstufen hin und der Umstand, dass (in diesem Fall) 48 Millionen Nanoprozessoren miteinander "reden" müssen, dürfte auch noch ein Stück Arbeit sein, das noch lange nicht erledigt ist. Aber in ein paar Jahren, wird das funktionieren.

Das, was ich immer favorisiert habe, nämlich bessere Qualität pro PixelPixel im Glossar erklärt, wird mit der Technologie wohl machbar sein und weil sich eine Technologie nicht auf mikroskopische Pixels beschränkt, wohl demnächst auch auf ordentlichen Sensorgrössen.

Ich denke, Sony wird mit dem Massenmarkt-Handy- erst einmal Kohle verdienen wollen. Für die Videoindustrie kann das nur Recht sein, denn dann sitzen die ganzen Kinderkrankheiten in den Handys und nicht hinterher in den Kameras.
Ich finde das jedenfalls eine der derzeit vielversprechenden Entwicklungen. Dass es eines Tages kommen würde, war seit CMOS Abtastungen eigentlich klar. Nur dass man den Prozessor direkt ins PixelPixel im Glossar erklärt legt ist doch neu, aber sogar noch besser.
Einen kürzeren Weg gibt es dann wohl nicht mehr für das Signal.



Antwort von maiurb:

Komisch, dass es viele solcher Schwafler gibt, die zum gleichen Ergebnis kommen.

https://youtu.be/8qJnWvbVIMI



Antwort von WoWu:

Da werden doch zwei völlig andere Geräte miteinander verglichen ....
Wobei sogar das Handy noch über unterschiedliche Abtastungen arbeitet.
Insofern verstehe ich die Anmerkung nicht.
Aber das scheint überhaupt Teil des Problems zu sein, dass man mit beliebigen Geräten, wo irgendwie dieselbe Nummer draufsteht, den Vergleich anstellt und damit fast immer Äpfel mit Birnen vergleicht.

Aber das ist eben der Reklametrick... man schreibt 8K oder jetzt 48MP drauf und alle fallen drauf rein.
Und davon, dass viele Schwafler zum gleichen Ergebnis kommen, sagt noch nichts über die Richtigkeit aus.
Ich halte mich da lieber an Ergebnisse, wie denen der BBCoder des IRT.
Da kommen dann zwar nicht so butterweiche Videos bei raus, dafür aber harte Fakten.



Antwort von maiurb:


Aber das scheint überhaupt Teil des Problems zu sein, dass man mit beliebigen Geräten, wo irgendwie dieselbe Nummer draufsteht, den Vergleich anstellt und damit fast immer Äpfel mit Birnen vergleicht.

Aber das ist eben der Reklametrick... man schreibt 8K oder jetzt 48MP drauf und alle fallen drauf rein.

Genau das ist das Problem. Jetzt meinen viele, man könne mit dem 48mpx Handy die gleiche Bildqualität wie mit einer guten Fotokamera erreichen, nur weil hier mit 48mpx geworben wird.



Antwort von muellerbild:

Ich habe jetzt mit einem iPhone SE einen interessanten Test gemacht:
Einmal mit einer 100% sauberen Linse und dann mit fetten (Nivea-Creme) Fingerabdrücken auf der Linse. Denn ich habe noch keinen Handy-Knipser gesehen, der die Linse sauber hält.
Ergebnis: alle Aufnahmen sind bei 100% side by side betrachtet gleich!
Jeder kann sich nun seinen eigenen Reim darauf machen...



Antwort von WoWu:

Kannst Du die beiden Bilder mal posten ?



Antwort von Jott:

Ui, da bahnt sich das nächste Sommerlochthema an. Künstliche Intelligenz rechnet Fettschicht auf der Smartphone-Linse weg!

Grütze. Natürlich kriegt man mit Fettfingerspuren auf der Linse einen "Hamilton", kann nun wirklich jeder sofort ausprobieren. Deswegen achtet sehr wohl jeder Nichtdepp auf die Sauberkeit der Optikabdeckung.

Aber gerne die Beweisfotos posten! :-)



Antwort von muellerbild:


Kannst Du die beiden Bilder mal posten ?

Hier der Vergleich. Entspricht keineswegs einer wissenschaftlichen Versuchsanordnung, denn es kommt mir so vor, als wäre die schmutzige Linse besser.Linsenvergleich 02.jpg
Ich bin im Urlaub, später werde ich dem Phänomen noch mal genauer auf den Grund gehen.



Antwort von motiongroup:

Nö.. rechts unten links oben sehe ich nen Schleier



Antwort von Jott:

Mal ins Gegenlicht fotografieren, Sonne, Reflexe, Glühbirne etc. im Bild, dann mit und ohne Fettschicht vergleichen. Dann ist alles gut.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Samsung produziert ersten 1TB Speicher für Smartphones - mit 1.000 MB/s
Netzwerkkamera mit 35mm-Sensor -- Sony SNC-VB770
Kleine Sony RX100 V mit neuem 1-Zoll-Sensor
Olfi - Gyro-stabilisierte 4K-Actioncam mit Sony-Sensor
Neue Raspberry Pi Kamera mit 8 MP Sensor von Sony
Sony kündigt 4K-Netzwerkkamera mit Vollformat-Sensor an
Quibi: Neue Streaming Plattform mit vertikalem Filmmodus speziell für Smartphones
Sony stellt Alpha 9 (A9) vor - 24 MP Stacked Sensor mit 6K Downsampling auf 4K
iXM 100MP: Drohnenkamera mit 100 Megapixel Sony BSI Sensor
Neues Sony Flaggschiff Xperia 1 Mark II mit 5G und größerem Sensor
Sony bringt 8K-MFT Sensor IMX492 - für Panasonic GH6 oder Sharp 8K?
Interessantes Gerücht über neuen Sony APS-C-Sensor - 4K mit Global Shutter
Sony PXW-FX9 - Konzept der FS7 jetzt mit Vollformat Sensor // IBC 2019
FullHD mit bis zu 1000 fps: Neuer Sony 3-Layer Stacked DRAM CMOS Sensor f&u
Sony 85mm F1.4 G Master an 35mm Sensor Sony FS5/FS7
Z CAM E2-S6 - Super35-Sensor mit 6K-Auflösung für 4000 Dollar // NAB2019
1.55x Anamorphic Aufsatzlinse für Smartphones
Samsung entwickelt echtes holographisches Display für Smartphones
Sennheiser Memory Mic: Drahtloses Mikrophon für Smartphones
Beastgrip kündigt 1.55x anamorphotische Optik für Smartphones an
Radioaktivität mit dem Kamerasensor eines Smartphones messen
Samsung Galaxy S9+ und S9 -- Smartphones mit Super-Zeitlupen
Sony a7III - Sensor ruckeln - Steadyshot kaputt?
Neue Google Smartphones: Pixel 2 (XL) mit bemerkenswerter Kamera vorgestellt
Anamorphotische Optik für Smartphones auf Kickstarter findet reißenden Absatz
Hat Sony den Foveon Sensor neu erfunden?

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom