Postproduktion allgemein Forum



TopazLabs Projekt Starlight



Fragen rund um die Nachbearbeitung, Videoschnitt, Export, etc. (div. Software)
Antworten
Frank Glencairn
Beiträge: 26509

TopazLabs Projekt Starlight

Beitrag von Frank Glencairn »

Sapere aude - de omnibus dubitandum



7River
Beiträge: 4556

Re: TopazLabs Projekt Starlight

Beitrag von 7River »

Die Ergebnisse sehen ja echt überzeugend aus.
„Wissen Sie, Ryback, aussehen tut's köstlich. Aber riechen tut's wie Schweinefraß. Ich hab' Ihren Scheiß lang genug geduldet. Nur weil der Captain die Art liebt, wie Sie kochen. Aber dieses eine Mal ist er nicht hier und wird Ihnen nicht helfen können.“



cantsin
Beiträge: 16312

Re: TopazLabs Projekt Starlight

Beitrag von cantsin »

Jetzt muss man mal abwarten, wie sich das Tool mit nicht nur handverlesenen Demo-Beispielen schlägt. Da es mit generativer AI arbeitet (vermutlich auf der technischen Basis von Stable Diffusion?), kann man sich natürlich auch die tollsten Artefakte auf diese Weise einhandeln. Und eine wichtige Frage wird auch sein, wie schnell das Tool arbeitet - ob es Minuten lang braucht, um nur einen Frame zu berechnen...
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



freezer
Beiträge: 3572

Re: TopazLabs Projekt Starlight

Beitrag von freezer »

We’re releasing our new Project Starlight video enhancement model 6 on cloud only. Why?

The short answer is that Starlight is huge and won’t run locally unless you have server-grade hardware. The longer answer is: to make technological progress, we need to push quality first, then focus on speed and size later.

We would all love a new model that is fast, small enough for your laptop, and higher quality than anything we’ve ever seen before. But the reality is that we can only optimize for a single attribute at a time.

In 2023, we tried improving quality on our video models while holding speed and size constant, but this approach was ineffective. While later iterations (Rhea, RXL) do offer improvements over earlier versions (Proteus, Artemis), you’ve probably noticed that the changes have been getting more incremental.

So in 2024, we asked the question: “How much video quality could we achieve if we didn’t care about speed or size?” The result is Project Starlight. It requires huge VRAM and currently takes 20 minutes to process 10 seconds of footage, which we know is sort of ridiculous. The results, however, are truly mind-blowing - an accomplishment which was quite challenging just by itself.

We’ve actually seen this story before. When we released Gigapixel for image upscaling, it had great results but crashed for one out of five users and took hours to run on 2018 hardware. But because we first achieved the quality we wanted, we were able to focus on making it faster and more efficient. Nowadays Gigapixel models run in milliseconds and are deployable on mobile devices (like iOS 1).

In 2025, we’ll focus on optimizing Starlight in a similar way. We’ve only focused on quality for this release, and we wanted to get it usable as soon as possible. You can expect smaller and less expensive models in the near future, based on the same technology that we’ve developed with Starlight. In the meantime, we’re initially pricing this model at cost to help make it more accessible.

We’re really excited about Starlight; it’s truly a breakthrough, and we wanted to get it in front of people as soon as possible. Thanks for both your support and your patience!
https://community.topazlabs.com/t/the-p ... ight/87143


Übersetzt:
Wir veröffentlichen unser neues Video-Enhancement-Modell Project Starlight 6 vorerst nur in der Cloud. Warum?

Die kurze Antwort: Starlight ist riesig und läuft nicht lokal, es sei denn, du hast Server-Hardware. Die längere Antwort: Um technologischen Fortschritt zu erzielen, müssen wir zuerst die Qualität maximieren und uns erst danach um Geschwindigkeit und Größe kümmern.

Natürlich hätten wir alle gerne ein neues Modell, das schnell, klein genug für einen Laptop und qualitativ besser als alles bisher Dagewesene ist. Doch die Realität ist: Wir können immer nur eine dieser Eigenschaften gleichzeitig optimieren.

2023 haben wir versucht, die Qualität unserer Videomodelle zu verbessern, während Geschwindigkeit und Größe gleich blieben – dieser Ansatz war jedoch ineffektiv. Zwar brachten spätere Versionen (Rhea, RXL) Verbesserungen gegenüber früheren (Proteus, Artemis), aber die Fortschritte wurden immer kleiner.

Deshalb stellten wir uns 2024 die Frage: Wie viel Videoqualität könnten wir erreichen, wenn wir Geschwindigkeit und Größe völlig ignorieren? Das Ergebnis ist Project Starlight. Es benötigt enorme VRAM-Ressourcen und braucht derzeit 20 Minuten, um 10 Sekunden Filmmaterial zu verarbeiten – ja, das ist ziemlich verrückt. Doch die Ergebnisse sind atemberaubend und allein diese Qualitätssteigerung war eine große Herausforderung.

Diese Geschichte haben wir schon einmal erlebt: Als wir Gigapixel für Bild-Upscaling veröffentlichten, lieferte es beeindruckende Ergebnisse, stürzte aber bei jedem fünften Nutzer ab und brauchte Stunden auf Hardware von 2018. Aber weil wir zuerst die gewünschte Qualität erreicht hatten, konnten wir uns dann darauf konzentrieren, es schneller und effizienter zu machen. Heute laufen Gigapixel-Modelle in Millisekunden und sind sogar auf mobilen Geräten einsetzbar.

2025 werden wir Starlight in ähnlicher Weise optimieren. Für diese Version lag der Fokus ausschließlich auf Qualität – und wir wollten es so schnell wie möglich nutzbar machen. In naher Zukunft kannst du mit kleineren und günstigeren Modellen rechnen, die auf der gleichen Technologie basieren. Bis dahin bieten wir das Modell zum Selbstkostenpreis an, um den Zugang zu erleichtern.

Wir sind unglaublich begeistert von Starlight – es ist ein echter Durchbruch, und wir wollten es so schnell wie möglich in die Hände der Nutzer bringen. Vielen Dank für eure Unterstützung und Geduld!
LAUFBILDkommission
Robert Niessner - Graz - Austria
Blackmagic Cinema Blog
www.laufbildkommission.wordpress.com



Bluboy
Beiträge: 5345

Re: TopazLabs Projekt Starlight

Beitrag von Bluboy »

James Cameron, schreibt über Hard und Software, in Avatar

Hard- und SoftwareFür diese neuartigen Techniken war leistungsstarke Hardware vonnöten: 35.000 – 40.000 wassergekühlte Prozessorkerne, 105 Terabyte Arbeitsspeicher und 2 Petabyte Festplattenspeicher. Trotz dieser Leistung benötigten einzelne Szenen bis zu 48 Stunden zum Rendern, wobei bei einer Filmminute 17,3 Gigabyte Daten anfielen. Angeschlossen war die Serverfarm an ein 10-Gigabit-Netzwerk.[41] Für die Renderfarm kam das auf Linux basierende freie Betriebssystem Ubuntu zum Einsatz.[42] Für den Filmschnitt wurde Software von Avid verwendet.[43][4

Wenn die Qualität hinterher stimmt, darfs also gerne etwas aufwändiger sein und länger dauern



 Aktuelle Beiträge [alle Foren]
 
» Kostenlose Tentacle Music Video Sync App vereinfacht die Musikvideoproduktion
von pillepalle - Do 9:47
» Seit Update auf DaVinci Resolve Studio 20: Problem mit Film Look Creator
von pillepalle - Mi 20:36
» SmallRig x Potato Jet Tribex Stativ, Sennheiser IE 100 Pro, LaCie Ruggend SSD 5 4TB und mehr …
von slashCAM - Mi 11:09
» Blackmagic Camera 9.6: Micro Studio Camera 4K G2 jetzt mit PYXIS-Support
von slashCAM - Mi 10:39
» Gibt es für Actioncams eine Art Anti-Fisheye Linse?
von rush - Mi 9:30
» Star Trek: Third Rate - Fan Film
von Nathanjo - Di 22:35
» Firmware-Updates für die Panasonic Lumix S1RII, S1II und S1IIE
von cantsin - Di 15:37
» Nvidia GeForce RTX 5050 im Anflug - 10 Bit 4:2:2 Decoding für 200 Euro?
von slashCAM - Di 10:24
» Magic Lantern mit deutlichem Lebenszeichen - Frische Motivation und frischer Code
von Da_Michl - Di 9:44
» Bildsensor mit Perowskit verdreifacht mögliche Auflösung
von CotORR - Di 8:48
» 36% mehr DSLMs ausgeliefert im April als im Vorjahr
von iasi - Mo 23:00
» Neuer XAVC-L Standard für ARD/ZDF – Interlacing noch Thema?
von vaio - Mo 21:26
» Higgsfield.ai - Aufwändige Videoeffekte auf Knopfdruck aus der KI-Cloud
von Drushba - Mo 18:34
» Manueller Video Modus nicht mehr erreichbar.
von milesdavis - Mo 15:45
» Rode Wireless Go 3 - Ton zu leise
von rush - Mo 10:49
» BM Micro Studio Camera G2 erhält Pyxis Monitor Kompatibelität
von Darth Schneider - Mo 9:19
» Suche Omnidirektionales Mikrofon-Setup für Sony FX3
von pillepalle - Mo 6:25
» Unzuverlässiger Autofokus HC-X2E
von Jott - So 20:39
» UHD Progressive zu HD Interlaced Workflow - Hardware-Lösung für Preview?
von SonyTony - So 13:06
» Kompakte OM-5 Mark II bekommt zwei neue Bildprofile
von cantsin - So 10:25
» Nikon Z5 II mit interner RAW-Aufzeichnung - Debayering, Rolling Shutter und Dynamik
von cantsin - So 9:09
» Film wurde nur mit Handys gedreht...
von Jott - Sa 20:48
» Insta360 Studio - Bildjustagen verschwunden nach update
von soulbrother - Sa 20:09
» Welche USB-C SSD für 4k120 prores am iPhone 16 Pro?
von Totao - Sa 11:43
» Die beste Hardware für KI-Video - oder was man wirklich (nicht) braucht...
von Totao - Sa 11:38
» Kleines Schwanenhalsmikro für AVX-Bodypacksenser gesucht
von pillepalle - Fr 16:04
» Magix Video deluxe 2026 und Video Pro X17 mit neuen KI-Funktionen
von slashCAM - Fr 11:45
» Nanlite FM Mount Projektionsaufsatz 18°-36° für präzise Lichtgestaltung
von Darth Schneider - Fr 11:20
» Adobe Firefly jetzt als Smartphone-App - samt Nutzung von Veo 3, Luma und Pika
von peter161170 - Fr 9:14
» Sony FX2 im Praxistest: Erstmalig neigbarer Sucher, Cine-Gehäuse wie FX3, 33 MP Fullframe CMOS
von pillepalle - Fr 7:18
» Panasonic S1RII im Praxistest: Überraschend viele Videofunktionen für Pros
von iasi - Fr 0:18
» Blackmagic Updates für Web Presenter, Video Assist, Cloud und BRAW
von slashCAM - Do 11:27
» Adobe Premiere Pro ab sofort mit 4:2:2 Beschleunigung per Nvidia GPU und mehr
von dienstag_01 - Do 11:03
» Superman | Offizieller Trailer
von 7River - Do 5:11
» Midjourney startet eigene Video-KI V1
von slashCAM - Do 1:09