iasi hat geschrieben: ↑So 16 Mär, 2025 14:04
medienonkel hat geschrieben: ↑So 16 Mär, 2025 13:36
Würde ich so nicht unterschreiben. Eine Firma wie z.B Sony oder Samsung hat ganz andere Möglichkeiten ein Skalierungsmodell in ihre Geräte zu integrieren und vor allem zu trainieren.
Topaz ist da nur eine Gruppe von Hobbyisten im Vergleich.
Es dürften weit mehr Fernseher verkauft werden, als Nerd-Software an experimentierfreudige Großrechner Besitzer.
Die KI Software hat leider auch oft zu viel Zeit, sich noch irgendwas dazu zu denken oder neu zu interpretieren.
Analoges, mit Halbbildern gesegnetes SD Material gehört einfach nicht auf UHD als Zielformat mit den aktuellen Möglichkeiten aufgeblasen.
Project Starlight bietet da als komplett generativer Ansatz in Zukunft wohl Abhilfe. Läuft aber nur auf den Topaz Servern und die Ergebnisse haben dann keinen Pixel mehr aus den Originalclips.
Wenn ein Fernseher in Echtzeit skalieren muss, ist es generell etwas anderes, wie wenn ein Rechner mit weit höherer Rechenleistung sich dafür reichlich Zeit lassen kann.
Und nochmal: Wenn du SD-Material auf einem UHD-Bildschirm anschaust, ist es hochskaliert, wenn du es nicht gerade in einem SD-Fensterchen laufen lässt. Zumal, wenn dann auch noch Halbbilder das Glück vervollständigen.
Oder aber du hast noch einen guten alten Röhrenfernseher herumstehen. :)
Ach jetzt verstehe ich erst.
Klaro, auch der TV muss natürlich dieses "Skalar" errechnen. Ich dachte immer, TVs machen das optisch anhand der orgonalen Bohr-Matrize analog.
Auch in LCD-TVs sind ja diese Multiplikatorfolien vorne zu finden. Durch LED Strahlung angeregte optische Transformatoren, die über Interferenzen die Auflösung erhöhen.
Aber, wenn das in einem TV nur so ein integrierter Schaltkreis errechnet, ist das natürlich immer schlechter, als bei einem guten IBM/PC.
Der hat ja auch reichlich mehr Leistung.
Sorry für das Missverständnis.
Die Grafik hat mich schlussendlich vollends überzeugt.