Cool, danke, kannte bloß die Clip Attributes.medienonkel hat geschrieben: ↑Mo 23 Jan, 2023 18:27 Bei gutem HDV Material sollte es bzgl. deinterlacing schon sehr gute Ergebnisse in Davinci geben. Dort kann man auch eine KI rechnen lassen, bei Bedarf inkl. superresolution ( hängt ganz hinten in den Sequenz Einstellungen )
Steht doch im Text:
ThomasSuper Resolution Verfahren nutzen für das "Mehr an Pixeln" und damit mehr an Bildinformationen nicht die alte und eher primitive Interpolation zwischen bekannten Pixeln, sondern erfinden Details schlüssig hinzu.
....
Man sollte allerdings im Hinterkopf behalten, daß die entstehenden hochskalierten Bilder nur sehr wahrscheinliche, zusätzliche Details enthalten und nicht die "wahren" Details aus der der ursprünglichen Aufnahmesituation des Bildes.
Nur zum Verständnis: Wenn ein Deinterlacer Treppchen an Kanten produziert, dann hat der Schalter auf AUS gestanden. Treppchen hat man nur, wenn kein Deinterlacing durchgeführt wird, sondern die beiden Halbbilder ohne jegliche Verrechnungsmethode zusammen angezeigt werden.Vectorizer hat geschrieben:Was das Programm phantastisch kann: Deinterlacing. Der Wandel von 25i in 50p Material ist absolut tadellos, ohne die sonst oft auftretende Treppchenbildung durch Deinterlacing. Auch das Farbsubsampling wird glattgebügelt und die grobklotzigen Farbinformationen (auffällig grade bei rot) sind danach quasi komplett unauffällig.
Treppchen können beim Deinterlacing immer dort auftreten, wo der Algorithmus versagt und die Halbbilder nicht korrekt ineinander verrechnen kann.dienstag_01 hat geschrieben: ↑Di 24 Jan, 2023 09:17Nur zum Verständnis: Wenn ein Deinterlacer Treppchen an Kanten produziert, dann hat der Schalter auf AUS gestanden. Treppchen hat man nur, wenn kein Deinterlacing durchgeführt wird, sondern die beiden Halbbilder ohne jegliche Verrechnungsmethode zusammen angezeigt werden.Vectorizer hat geschrieben:Was das Programm phantastisch kann: Deinterlacing. Der Wandel von 25i in 50p Material ist absolut tadellos, ohne die sonst oft auftretende Treppchenbildung durch Deinterlacing. Auch das Farbsubsampling wird glattgebügelt und die grobklotzigen Farbinformationen (auffällig grade bei rot) sind danach quasi komplett unauffällig.
Ah, ok, ist mir neu.freezer hat geschrieben: ↑Di 24 Jan, 2023 09:39Treppchen können beim Deinterlacing immer dort auftreten, wo der Algorithmus versagt und die Halbbilder nicht korrekt ineinander verrechnen kann.dienstag_01 hat geschrieben: ↑Di 24 Jan, 2023 09:17
Nur zum Verständnis: Wenn ein Deinterlacer Treppchen an Kanten produziert, dann hat der Schalter auf AUS gestanden. Treppchen hat man nur, wenn kein Deinterlacing durchgeführt wird, sondern die beiden Halbbilder ohne jegliche Verrechnungsmethode zusammen angezeigt werden.
Da siehst Du schön beim DaVinci Deinterlacer in den Einstellungen "Normal" und "High", aber selbst bei der "Neural Engine" kommt es vor, wobei mir vorkommt, dass letztere mit Resolve 18 nochmals einen Qualitätssprung gegenüber DVR17 hatte.
Wenn der Deinterlacer AUS ist, sieht man "Kämme" auf einem progressivem Display, keine Treppchen. Bei meinem Beispielbild ist das Ausgangsmaterial auch schon deinterlaced, so wie es Premiere standardmäßig macht. Aber ohne deinterlacing fand ich es schwerer mit dem Endergebnis zu vergleichen.dienstag_01 hat geschrieben: ↑Di 24 Jan, 2023 09:17 Nur zum Verständnis: Wenn ein Deinterlacer Treppchen an Kanten produziert, dann hat der Schalter auf AUS gestanden. Treppchen hat man nur, wenn kein Deinterlacing durchgeführt wird, sondern die beiden Halbbilder ohne jegliche Verrechnungsmethode zusammen angezeigt werden.
Ja, hatte sich ja schon geklärt, dass ich keine Ahnung hab ;)Vectorizer hat geschrieben: ↑Di 24 Jan, 2023 10:05Wenn der Deinterlacer AUS ist, sieht man "Kämme" auf einem progressivem Display, keine Treppchen. Bei meinem Beispielbild ist das Ausgangsmaterial auch schon deinterlaced, so wie es Premiere standardmäßig macht. Aber ohne deinterlacing fand ich es schwerer mit dem Endergebnis zu vergleichen.dienstag_01 hat geschrieben: ↑Di 24 Jan, 2023 09:17 Nur zum Verständnis: Wenn ein Deinterlacer Treppchen an Kanten produziert, dann hat der Schalter auf AUS gestanden. Treppchen hat man nur, wenn kein Deinterlacing durchgeführt wird, sondern die beiden Halbbilder ohne jegliche Verrechnungsmethode zusammen angezeigt werden.
Oben ist das original, auf gleiche Größe skaliert mit den Einstellungen von Premiere. Unten ist mein Ergebnis mit zwei Durchgängen in Topaz AI: Erster Durchgang deinterlacing und "dehalo"ing - so nennt Topaz das Schärfe wegrechnen - zweiter Durchgang Upscaling durch den Proteus-algorithmus mit angepassten Einstellungen.dienstag_01 hat geschrieben: ↑Di 24 Jan, 2023 10:26Ja, hatte sich ja schon geklärt, dass ich keine Ahnung hab ;)Vectorizer hat geschrieben: ↑Di 24 Jan, 2023 10:05
Wenn der Deinterlacer AUS ist, sieht man "Kämme" auf einem progressivem Display, keine Treppchen. Bei meinem Beispielbild ist das Ausgangsmaterial auch schon deinterlaced, so wie es Premiere standardmäßig macht. Aber ohne deinterlacing fand ich es schwerer mit dem Endergebnis zu vergleichen.
Andere Frage: Was genau wird eigentlich in deinem Bild oben verglichen? Original mit Topaz? Originalgröße, skaliert...?
Ah, ok.Vectorizer hat geschrieben: ↑Di 24 Jan, 2023 11:27Oben ist das original, auf gleiche Größe skaliert mit den Einstellungen von Premiere. Unten ist mein Ergebnis mit zwei Durchgängen in Topaz AI: Erster Durchgang deinterlacing und "dehalo"ing - so nennt Topaz das Schärfe wegrechnen - zweiter Durchgang Upscaling durch den Proteus-algorithmus mit angepassten Einstellungen.dienstag_01 hat geschrieben: ↑Di 24 Jan, 2023 10:26
Ja, hatte sich ja schon geklärt, dass ich keine Ahnung hab ;)
Andere Frage: Was genau wird eigentlich in deinem Bild oben verglichen? Original mit Topaz? Originalgröße, skaliert...?
Ich weiß ehrlich gesagt nicht, ob die superresolution in resolve wirklich was mit der superresolution zu tun hat, die slashcam meint. Also, ob da wirklich ein trainiertes Netz Details dazu erfindet.Axel hat geschrieben: ↑Mo 23 Jan, 2023 19:26Cool, danke, kannte bloß die Clip Attributes.medienonkel hat geschrieben: ↑Mo 23 Jan, 2023 18:27 Bei gutem HDV Material sollte es bzgl. deinterlacing schon sehr gute Ergebnisse in Davinci geben. Dort kann man auch eine KI rechnen lassen, bei Bedarf inkl. superresolution ( hängt ganz hinten in den Sequenz Einstellungen )
Was nimmt man denn? Schärfer? Weicher? Bikubisch? Erfahrungen?
Ja, ich glaub auch nicht, daß SuperScale schon auf AI basiert.medienonkel hat geschrieben: ↑Di 24 Jan, 2023 18:03
Ich weiß ehrlich gesagt nicht, ob die superresolution in resolve wirklich was mit der superresolution zu tun hat, die slashcam meint. Also, ob da wirklich ein trainiertes Netz Details dazu erfindet.
Mühselig wählen?
:-)freezer hat geschrieben: ↑Di 24 Jan, 2023 19:19Mühselig wählen?
Einen SmartBin anlegen der per Metadaten alle Clips der A7S-III beinhaltet. Kann man auch als Default für alle Projekte anlegen.
SmartBin auswählen um alle Clips der A7S-III im Media Pool zu selektieren und dann mit einer Clip-Farbe belegen.
In der Timeline dann aus dem Menü wählen "Select Clips with Clip Color" und der entsprechenden Farbe. Damit sind alle passenden Clips in der Timeline selektiert.
Dann Rechts-Klick und "Clip Attributes" und einmal SuperScale für alle auswählen. Fertig.
Frage. Nein, Behauptung: man kann doch Superresolution global aktivieren, muss nichts "mühselig" auswählen, da es sowieso nur auf Clips angewendet wird, die skaliert werden. Alle anderen bleiben unberührt.freezer hat geschrieben: ↑Di 24 Jan, 2023 19:19Mühselig wählen?
Einen SmartBin anlegen der per Metadaten alle Clips der A7S-III beinhaltet. Kann man auch als Default für alle Projekte anlegen.
SmartBin auswählen um alle Clips der A7S-III im Media Pool zu selektieren und dann mit einer Clip-Farbe belegen.
In der Timeline dann aus dem Menü wählen "Select Clips with Clip Color" und der entsprechenden Farbe. Damit sind alle passenden Clips in der Timeline selektiert.
Dann Rechts-Klick und "Clip Attributes" und einmal SuperScale für alle auswählen. Fertig.
Ich hab so einen SmartBin für mein Olympus 12-100mm um alle Clips mit einer bestimmten Brennweite auszuwählen und eine Optikkorrektur anzuwenden.
Ja, kannst Du machen wenn das auf Deinen Anwendungsfall zutrifft.dienstag_01 hat geschrieben: ↑Mi 25 Jan, 2023 12:57 Frage. Nein, Behauptung: man kann doch Superresolution global aktivieren, muss nichts "mühselig" auswählen, da es sowieso nur auf Clips angewendet wird, die skaliert werden. Alle anderen bleiben unberührt.
Auswählen nur, wenn man unterschiedliche Skalierungen mit unterschiedlichen Einstellungen in einer Timeline verwendet.
Wie ist das zu verstehen, "ohne Änderung der Auflösung"?freezer hat geschrieben: ↑Mi 25 Jan, 2023 16:54Ja, kannst Du machen wenn das auf Deinen Anwendungsfall zutrifft.dienstag_01 hat geschrieben: ↑Mi 25 Jan, 2023 12:57 Frage. Nein, Behauptung: man kann doch Superresolution global aktivieren, muss nichts "mühselig" auswählen, da es sowieso nur auf Clips angewendet wird, die skaliert werden. Alle anderen bleiben unberührt.
Auswählen nur, wenn man unterschiedliche Skalierungen mit unterschiedlichen Einstellungen in einer Timeline verwendet.
Ich will oft nur bestimmte Clips per SR behandeln lassen - nämlich quasi als leichte Nachschärfung und Kantenglättung ohne Änderung der Auflösung.
Die SmartBin Variante kommt bei mir eher für die schnelle Korrektur von Optikverzerrung zur Anwendung. Ich finde die sehr praktisch um mal schnell durch hunderte Clips nach bestimmten immer wiederkehrenden Kriterien zu filtern.
Ein HD Clip in einer HD Timeline. Aktiviert man SR dann wird der Clip per SR hochskaliert und wieder in die Timeline eingepasst. Ein Up+Downscaling sozusagen.dienstag_01 hat geschrieben: ↑Mi 25 Jan, 2023 17:13Wie ist das zu verstehen, "ohne Änderung der Auflösung"?freezer hat geschrieben: ↑Mi 25 Jan, 2023 16:54
Ja, kannst Du machen wenn das auf Deinen Anwendungsfall zutrifft.
Ich will oft nur bestimmte Clips per SR behandeln lassen - nämlich quasi als leichte Nachschärfung und Kantenglättung ohne Änderung der Auflösung.
Die SmartBin Variante kommt bei mir eher für die schnelle Korrektur von Optikverzerrung zur Anwendung. Ich finde die sehr praktisch um mal schnell durch hunderte Clips nach bestimmten immer wiederkehrenden Kriterien zu filtern.
Interessant. Das funktioniert? Dann könnte man in die native Auflösung skalieren (ihr wisst schon, wie digital zoomen). Man müsste später nur den Clip 2 x oder 4 x superscalen. Muss ich mal probieren.freezer hat geschrieben: ↑Mi 25 Jan, 2023 18:47Ein HD Clip in einer HD Timeline. Aktiviert man SR dann wird der Clip per SR hochskaliert und wieder in die Timeline eingepasst. Ein Up+Downscaling sozusagen.dienstag_01 hat geschrieben: ↑Mi 25 Jan, 2023 17:13
Wie ist das zu verstehen, "ohne Änderung der Auflösung"?
Wie gut (unter anderem), dass es Render in Place gibt!dienstag_01 hat geschrieben: ↑Mi 25 Jan, 2023 22:44Ja, funktioniert.
Probieren muss man trotzdem ;)
Da kannst du ja mal Bescheid sagen, bei welchen Einstellungen du überhaupt was siehst (ich meine den 1:1 Workflow ohne wirkliches Scaling).Axel hat geschrieben: ↑Do 26 Jan, 2023 12:17Wie gut (unter anderem), dass es Render in Place gibt!dienstag_01 hat geschrieben: ↑Mi 25 Jan, 2023 22:44
Ja, funktioniert.
Probieren muss man trotzdem ;)
Aber gleich die ersten zwei Sätze des Artikels suggerieren etwas anderes:tom hat geschrieben: ↑Mo 23 Jan, 2023 20:32Steht doch im Text:
Super Resolution Verfahren nutzen für das "Mehr an Pixeln" und damit mehr an Bildinformationen nicht die alte und eher primitive Interpolation zwischen bekannten Pixeln, sondern erfinden Details schlüssig hinzu.
....
Man sollte allerdings im Hinterkopf behalten, daß die entstehenden hochskalierten Bilder nur sehr wahrscheinliche, zusätzliche Details enthalten und nicht die "wahren" Details aus der der ursprünglichen Aufnahmesituation des Bildes.
Noch vor kurzem wäre die Idee, die Auflösung eines Bildes nachträglich zu erhöhen und so mehr Bilddetails sichtbar zu machen, als unmöglich abgetan worden. Dank DeepLearning KI-Algorithmen ist aber genau das seit einigen Jahren möglich...
Ja, stimmt. Eigentlich ist es ja noch komplexer - es werden zwar Details dazuerfunden, aber diese sind nicht beliebig, sondern sehr wahrscheinlich (weil aus vielen Beispielen realer Bilder gelernt), d.h. sie werden in den meisten Fällen sehr nahe an der Realität sein. Ich werde das bei der nächstes Superresolution-News besser erklären :-)Totao hat geschrieben: ↑Fr 14 Apr, 2023 17:46Aber gleich die ersten zwei Sätze des Artikels suggerieren etwas anderes:Noch vor kurzem wäre die Idee, die Auflösung eines Bildes nachträglich zu erhöhen und so mehr Bilddetails sichtbar zu machen, als unmöglich abgetan worden. Dank DeepLearning KI-Algorithmen ist aber genau das seit einigen Jahren möglich...
Bei solchen Verfahren für Fotos muss man sich zukünftig noch ein wenig mehr als bisher von der Vorstellung verabschieden, immer möglichst nah an einer für Vergleichszwecke hochauflösend gemessenen Wahrheit sein zu wollen.tom hat geschrieben: ↑Fr 14 Apr, 2023 21:55 Eigentlich ist es ja noch komplexer - es werden zwar Details dazuerfunden, aber diese sind nicht beliebig, sondern sehr wahrscheinlich (weil aus vielen Beispielen realer Bilder gelernt), d.h. sie werden in den meisten Fällen sehr nahe an der Realität sein.