Nein IASI, das bedeutet es eben nicht.
Ich hatte oben einmal die Berechnung der Deffraktion gezeigt und auch, bis zu welcher physikalischen Pixelgrösse sich die Wellenlängen des Lichtes überschneiden. Geschieht das, werden zwei Punkte des Lichtes als nur noch ein punkt wahrgenommen.
Die Kamera macht damit nur noch die halbe Auflösung.
Und dass man an diesen physikalischen Gesetzmässigkeiten (ausser in Stuttgart) nicht vorbei kommt zeigt, dass die Hersteller dazu übergehen, die hochfrequenten Anteile des Bildes anders herzustellen, weil sie optisch nicht mehr darstellbar sind.
Deshalb gibt es nur diese beiden Wege ... Sensorfläche (genauer gesagt pixels) soweit vergrössern, dass optisch solche Limits noch fassbar sind ... so versucht es RED gerade mit grossen Sensoren und grossen Pixels, aber mit welchem zukünftigen Bildkreis ?
Und die andern sind bereits auf dem Softwareweg, auf dem die Mikroskopie schon ein paar Jahre ist.
Aber denkst du wirklich, dass die in der Amira/Alexa schon stecken?
Ja, das glaube ich ganz sicher denn schon allein das Aliasing lässt sich vernünftig in den Grössenordnungen und hohen Ortsfrequenzen gar nicht anders beseitigen. Jedenfalls nicht mit den immer aberwitziger werdenden Filtermethoden.
Schon das allein ist ein guter Grund, solche Algorithmen auch in HD einzusetzen ... und dann ist der Schritt zur höheren Auflösung nur noch ein "Patch".
Schau Di mal an, wie die Mikroskopie auflöst (links maximale optische Auflösung rechts gerechnet)
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.