Ich hatte mal nen Nachbarn, der mir jahrelang erzählt hat, das bald die ultimative Stereoanlage auf den Markt kommt, er warte mal ab. Und ich glaube, letzteres tut er immer noch ...WoWu hat geschrieben:.... hätte aber die NAB abgewartet, .... ich weiss nicht.
Für mich ist MPEG2 ende nächsten Jahres ein totes Pferd ...
Ja, und den Zeitraffer nicht zu vergessen! Landschaften mit Zeitraffer können sowas von magisch aussehen. Bei der EX1 dreht sich keine Scheibe, kein Band setzt eine Grenze. Ich kann die Zeit eines ganzen Tages kondensieren lassen!!WoWu hat geschrieben: "Für" und "Wider" ....
Weißt du sicher, dass das in der EX1 passiert, oder vermutest du das nur, weil es bei Panasonic so ist? Würde mich nur interessieren, weil die Cam-Hersteller sich ja sicherlich nicht so einfach in Karten sehen lassen.WoWu hat geschrieben: Priority Processing heist das System, das die DSP-Tasks verteilt und weil leider nur ein Bild Zeitfenster zur Verfügung steht, müssen die Prozesse so stark verkürzt werden, dass die dynamischen CAC eine der letzten Tasken zugeteilt worden ist.
Die Kantenschärfung wird doch über eine Convolution-Matrix gemacht, oder? Wie kann man die denn verkürzen?Selbst die Kantenschärfung wird schon nach den aktiven Bildinhalten verkürzt durchgeführt.
Mir ist absolut klar, dass man bei einem DSP Pixel in einem Rutsch durchschleust und aus Performance/Architekturgründen keine bedingten Verzweigungen macht. Daher ist eine LUT offensichtlich. Nur wann wird die LUT für die CAC erzeugt? Wohl nicht für jedes Bild extra, oder (dann wäre der Sinn der LUT ja dahin). Aber eigentlich egal. Wenn es über eine LUT geht, dann könnte man die CAC doch auf jeden Fall auch wärhend einer Brennweitenänderung einsetzen, oder?Daher hat man nicht mehr die Zeit zur Analyse und nimmt die fixen Werte aus den Look-Up-Table. Da das Ganze auf jedes einzelne Pixel des CMOS wirkt, kann man auch nicht "nacharbeiten", sondern muss mit den Prozessen vor der Aufzeichnung fertig sein.
Wahnsinn. Wenn du damit richtig liegst, bzw ich dich richtig verstehe, bedeutet das ja, das sich die Nachschärfung (und andere Bildotptimierungen) nur in voller Qualität stattfinden, wenn die Kamera die Zeit dafür hat. Na da möchte ich nicht für den Sceduler verantwortlich sein. Also ist die Bildqualität auch davon abhängig, ob die Kamera gerade stark den DSP belastet, oder der gerade leerläuft. Das muss für Hersteller doch ziemlich riskant sein, wenn sich die Bildqualität verändern kann, weil die Laufzeit der Algorithmen nicht immer gleich ist.Die Kantenschärfung kann nach zwei derzeit üblichen Verfahren durchgeführt werden. Sequentiell oder nach einer Verkleinerung und einer im angeführten Prozess durchgeführten Bildanalyse. Der Einsatz von Filtern oder dezidierter Harware ist in modernen Designs, wie Du weist, kaum mehr üblich. Skalierbare Algorithem werden eingesetzt um die starren Verfahren abzulösen. Dabei müssen Prioritäten gesetzt werden, um sicher zu stellen, dass ein "unfertiges" Bild dennoch verwertbar ist.
Des Tasks werden also Prioritäten zugewiesen. So auch bei der Kantenschärfung und obwohl die Bildanalyse für diesen Prozess deutlich unter 10% der verfügbaren Rechenzeit liegt ist es in der Summe der Aufgaben für den DSP relativ viel. Daher werden nach der Analyse zunächst die Bildinhalte mit den grössten Aktivitäten bearbeitet, je nach verbleibender Zeit (gesamt) auch niedrigere Prioritäten.
Das ist mir klar.Denkt man sich die CAC hier ein, müsste eine weitere dynamische Bildanalyse stattfinden, um die Korrektur jedes einzelnen Pixels der Sensoren vornehmen zu können. Sicher möglich, nur wäre die Rechenleistung, die zur Verfügung stehen müsste dan ein Vielfaches.
Was ich nicht verstanden habe, und worauf meine Frage abzielte: Wo kommt die LookUpTable her, bzw. wann wird die generiert. Jetzt habe ich drüber nachgedacht und die Antwort schon selbst gefunden. Die LUT hat gar nichts mit dem Bildinhalt zu tun, sondern ist als je eine Tabelle ist pro Brennweite gespeichert, oder sehe ich das falsch?Daher nimmt man die festen Werte aus den Tabellen. Auch müsste für eine Analyse die Brennweite höher aufgelöst werden, um keine Stufigkeit zu erzeugen. Auch hier würden die Werte exponentiell zunehmen, speziell, wenn man die Zoomgeschwindigkeit noch mit Unterauflösungen, also dynamisch einbringen wollte.
Überhaupt wird das IP zukünftig im Zentrum stehen und ganz wesentlich seinen Teil beisteuern müssen, weil Linsen, z.B. trotz aller Fortschritte an den physikalischen Grenzen angelangt sind und UHD z.B. ohne solche Hilfsmittel gar nicht anzusehen wäre.
Aua. Das sieht ja echt fies aus.Anonymous hat geschrieben:Und solche Sachen sind bei dem Teil auch noch nicht richtig geklärt ...
http://www.freshdv.com/mjeppsen/video/e ... tifact.mov
Hallo Rudi,rudi hat geschrieben: ...um es ganz genau zu beschreiben handelt es sich hierbei um die Einheit LW/PH (line widths per picture height), die aus dem bekannten ISO12233-Chart entnommen ist. Es wird bald eine detaillierten Artikel zu diesem Messverfahren geben, der sowohl die Stärken als auch die Schwächen beschreibt.