Newsmeldung von slashCAM:Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten
Antwort von -paleface-:
Auch für Video?
Das fänd ich schon irgendwie krass.
Mal gespannt wie das funktioniert.
Kommt das Bild aus der Kamera erstmal komplett scharf raus?
Weil es geht ja auch nicht nur darum das es unscharf wird.
Nen vernünftiges Bokeh ist genauso wichtig und sorgt für Stimmige Bilder.
Antwort von pilskopf:
Awesome wenn das klappt.
Antwort von PythonF:
Heißt das, dass man aus den Tiefendaten mit ein wenig CGI auch 3D Drehen/Fotografieren könnte?
Antwort von LarsProgressiv:
Heißt das, dass man aus den Tiefendaten mit ein wenig CGI auch 3D Drehen/Fotografieren könnte?
Nein.
Grüße
Lars
Antwort von WoWu:
Das Ende der großen Sensoren
Da wäre ich mir aber nicht so sicher, denn das Verfahren setzt auf eine neue Sensorentwicklung auf, deren Pixel auf 0,7µ reduziert sind und das, für das Verfahren erforderliche Linsenarray, pro Linse 16x16 Sensorzellen "bestrahlt".
Rechnet man jetzt die 16x0,7µ aus, ergibt das einen Bildpunkt von 11,2µ .... und das hochgerechnet auf 1920 ergibt wieder den Riesensensor ... und damit auch das Problem der Aliasingeffekte ... mal ganz abgesehen davon, dass die Linsenmatrix zusätzliche Effekte gibt und pro Schärfeebene kaum noch Licht bleibt, denn anders, als bei einem Pixelbinning, werden hier Ladungen verworfen (bzw. im Bild nicht genutzt) und was sich beim Binning positiv für den Lichtausbeute auswirkt, zeigt hier seine negativen Seiten.
An dem Verfahren bauen die unterschiedlichen Firmen schon seit ein paar Jahren, u.a. auch Adobe, die aber wieder Abstand genommen haben.
Antwort von joe11:
Die Überschrift "Das Ende der großen Sensoren" ist nicht korrekt. Im Grunde ist es der Beginn der krassen Selektivschärfe in jeder, wirklich jeder Situation.
10-Minuten-One-Shot-Blende-1.2-Ganznahaufnahmen-eines-Kapuzineräffchens-auf-der-Schulter-eines-Breakdancers-wobei-der Kameramann-auf-Inlineskates-auf-einer-Wendeltreppe-auf-einem-Kreuzfahrtschiff-bei-Windstärke-10-nebenher-fährt
.....mit Lichtfeld-Kameras kein Thema. Ohne den geringsten Fehlfokus natürlich, das ist klar.
Antwort von WoWu:
Na ja, wir laufen nur in all die physikalischen Probleme verschärft rein, gegen die wir jetzt auch schon zu kämpfen haben.
Da finde ich den Ansatz der "Game-Leute" vielversprechender, die das aus bestehendem Content rausrechnen. Da kannst Du dann sogar die Kantendurchsichtigkeit bestimmen, die den Haupteindruck der Tiefe ergeben. So lassen sich dann "Tiefenebenen" so komisch das auch klingen mag, viel realistischer darstellen als mit diesen mikroskopischen Linsenarrays, die beliebige Ungenauigkeit (gemessen an den Grössenverhältnissen) haben.
Das ist wieder so ein Ding, wie der gekrümmte Sensor. Schlagzeile und dann nix mehr.
Antwort von pete1234:
Hab das Prinzip jetzt auch verstanden.
Klingt verdammt abgefahren.
http://www.golem.de/0803/58531.html
Antwort von WoWu:
Nur der Golem Artikel stimmt nachher nicht mehr so ganz, denn bei der erwähnten höheren Auflösung geht der Schärfeeffekt natürlich verloren ... beides gibt es nicht ... entweder ... oder. Und was die Grösse des Sensors angeht ... wie oben berechnet ... sie werden nicht kleiner, sondern eher grösser und unter 0,7µ wird man noch eine Weile nicht kommen ... und selbst wenn. Die Bilder werden davon nicht besser, betrachtet man mal die Ausmasse eines einzelnen Lichtstrahls. Da kann man hinten miniaturisieren, soviel man will. Irgendwann wird der Strahl dann zum Laser.
Antwort von Harald_123:
... sie werden nicht kleiner, sondern eher grösser
Was ja auch durch die mittelformatige Contax ausgedrückt wird, die als Prototyp einer Lichtfeldkamera in der Dissertation des CEOs von Lytro auftaucht.
Antwort von WoWu:
Hast Du dazu einen Link, Harald, die würde mich interessieren.
Antwort von Harald_123:
Bitte:
http://www.lytro.com/renng-thesis.pdf
Antwort von WoWu:
Prächtig, vielen Dank, endlich mal was g'scheites.
Antwort von Sylvestercut:
Spannende Entwicklung, doch halte ich es für den Profibereich für nutzlos.
Canon, Nikon und Co. könnten aber Interesse haben für ihre Consumer Cams.
Ich denke hier geht es um was ganz anderes! Es geht um Überwachungskameras und die bessere Unterstützung für Gesichtserkenner vom BKA etc - Überwachungsstaat sie kommen :(
Na denn - tolle Aussichten ...
Antwort von tommyb:
Gesichtserkennung... mit einer variablen Schärfeebene?
Welchen Vorteil siehst Du dabei?
Antwort von Sylvestercut:
Gesichtserkennung... mit einer variablen Schärfeebene?
Welchen Vorteil siehst Du dabei?
Ganz einfach: Überwachungskameras mit diesem Sensor lassen Fahnders Herz höher schlagen, können sie doch jetzt richtig immens nachschärfen und in der Menge stöbern und darauf die Gesichtserkennung laufen lassen :D shit
Antwort von Sylvestercut:
23
Antwort von rusty:
Wird von Canon, Sony oder Nikon aufgekauft, das kleine Unternehmen, und dann hört man so lange nix mehr davon, bis diese Firmen ihre bisherigen Produktzyklen so lange durchgenudelt und dabei abkassiert haben, bis sie meinen, es als nächste Kuh vermarkten zu können....
Antwort von casamento:
Dann bleibt zu hoffen, dass wenigstens bei der Aufnahme die Schärfeneinstellung gespeichert wird, die der Kameramann zur Zeit der Aufnahme eingestellt hatte. Denn nachträglich nochmals alles neu einstellen ist zwar eine tolle Sache, aber auch viel Arbeit. Darauf hätte ich nämlich keine Lust.
Antwort von ighor:
Dann bleibt zu hoffen, dass wenigstens bei der Aufnahme die Schärfeneinstellung gespeichert wird, die der Kameramann zur Zeit der Aufnahme eingestellt hatte. Denn nachträglich nochmals alles neu einstellen ist zwar eine tolle Sache, aber auch viel Arbeit. Darauf hätte ich nämlich keine Lust.
Deshalb wird voraussichtlich auch niemand gezwungen werden, diese Möglichkeiten zu nutzen. Event- und Bühnenfotografen werden aus dem Stand Dutzende von handgreiflichen Vorteilen aus den neun Möglichkeiten ziehen.
Antwort von joe11:
Dann bleibt zu hoffen, dass wenigstens bei der Aufnahme die Schärfeneinstellung gespeichert wird, die der Kameramann zur Zeit der Aufnahme eingestellt hatte. Denn nachträglich nochmals alles neu einstellen ist zwar eine tolle Sache, aber auch viel Arbeit. Darauf hätte ich nämlich keine Lust.
Wieso sollte man vor der Aufnahme die Schärfe einstellen? Das ist Zeitverschwendung...
Antwort von WoWu:
Macht auch keinen Sinn, weil der Schärfebereich eine Konstante zwischen Objektiv und Linsenmatrix ist. Woher sollte sonst eine nachgelagerte Software wissen (oder nur über mühsames identifizieren) welche Offsets zwischen den Ebenen bestehen.
In einem solchen System sind quasi alle Parameter fixiert und lassen sich hinterher nur nach den Anforderungen auslesen.
Keine Schärfeeinstellung mehr am Objektiv. Anderes Objektiv, ja, aber selbst Blenden werden zum Problem .... NDs ja, Blenden nein.
Antwort von handiro:
Ich hab mal mit den Beispielen auf der Webseite gespielt....richtig scharf kam mir das nicht bei allen vor....aber witzig finde ich es auf jeden Fall!
Antwort von hannibalekta:
Hi,
mich wundert nur, warum alle das als "nicht profi-tauglich" und als Consumer-Kram abstempeln.
Letztlich ist es doch DAS, was alle wollen? Freie Wahl über den Fokusbereich, freie Einstellbarkeit des Blurs/Bokeh per Software. Für den Videobereich sollte das relativ leicht als Ersatz für Follow-Focus adaptierbar sein. Rotoscoping und andere Freistellungssachen wären hinfällig, wenn die Datenmatrix von dem Teil schon sagt, was wo im Raum ist.
Ich find's genial :)
Antwort von cutty:
den Sensor während der Aufahme stufenweises ein kleines Stück in der Tiefe zu verschieben und durch Serienaufnahme den gleichen Effekt einfacher zu erzielen?
Antwort von WoWu:
Die Lytron Kamera soll es zum Jahresende ja geben. Vielleicht sollten wir die Ergebnisse mal abwarten. Einwenig entäuschend ist es allerdings schon, dass sie nur 640x40 Bildpunkte haben wird ... und das aus einem 20MP (1/1.7") Sensor. Aber daran sieht man schon, wie sich die Grössenordung der Sensoren hier entwickeln und kann ahnen, welche Rechenleistung sich dahinter verbirgt.
Von Adobes Prototyp vor 2 Jahren hat man allerdings auch nichts mehr gehört.
Es ist also wirklich die Frage, ob soetwas tatsächliche Vorteile im Videogeschäft birgt ... denn die Nachteile des grossen Sensors nimmt uns diese Aufbereitungsform auch nicht.