Das gerade veröffentlichte, quelloffene Text-zu-Video-Modell CogVideoX hat das Potential, die Video-KI Revolution nochmals deutlich zu beschleunigen, denn der Code wurde ...
Mal mein durchaus sehr lehrreicher Erfahrungsbericht von einem im Nachhinein blauäugigen Experiment, dem ich mich anfangs durchaus gewachsen sah.
Klar, Vieles ist meiner Schusseligkeit und fehlender ernsthafter Expertise in der Kommandozeile geschuldet, jedoch war es seit langem eine unbefriedigende Erfahrung aus dem Kreise der AI-Superdupernews.
Also entschloss ich mich, das mal zu testen.
Doof, wie ich bin, konnte ich mit der git repo nicht direkt was anfangen. Da brauchts ja wieder diese und jene dependency...
Also nach einer Anleitung gesucht und schließlich in Textform fündig geworden.
Ich habe aber dummerweise ein kleines Detail erst im Prozess der ersten (es gab unzählige Versuche) Installation erkannt und vor lauter Neugier auf das erhoffte Ergebnis der Installations-Anleitung leider lange nicht realisiert....
Erst nach gut vier Stunden Gaudi mit Python, Ana- und miniconda (falsche Version...muss mich doch mal mit venvs beschäftigen-Erkenntnis), pip, git und powershell kam ich langsam drauf, dass es da wohl grundlegende Probleme unter Windows gibt:
Das läuft aktuell scheinbar nur auf Linux!
Hat meinem Verständnis nach irgendwas mit unterschiedlichen Pytorch Varianten für Linux/Windows zu tun. (Eine entsprechende Kompilierung wollte ich mir echt nicht auch noch antun, um das mal eben zu checken. Nachdem ich eh endlich mal Richtung Linux gedacht habe)
Ich konnte sogar das Playbook öffnen, alle Modelle und weitern Abhängigkeiten runterladen und dann brachs ab als es ums Rendern ging. Fehlermeldung zu nicht vorhandenem Pytorch. War aber installiert und vorhanden. Auch das passende Cuda SDK. (11.8)
Bei der Anleitung, die ich genutzt habe, war Linux zu - meiner Entschuldigung - nicht mit einem Buchstaben erwähnt.
Die Anleitung zu Deep Face Cam von der Quelle hatte einwandfrei für Windows funktioniert. Wobei ich da auch einen kleinen "Hack" (Umbenennen und Löschen einer Modelldatei) zufällig entdecken musste, um das zum laufen zu bringen.
Dann auf Windows WSL gestoßen. Noch nie davon gehört. War echt noch interessant... (ein Bärtiger Typ auf YouTube hatte mich da in seinem Bann, man könne auch fertige scripte auf seinem patreon erwerben! aber hier zeigt er es einem ganz easy nebenbei in einem 30 Minütigem Video. Keine Chance, der Cowboyhut lenkt zu sehr ab. )
Die Kiste, die natürlich nicht auf VM gestellt war, noch eben auf Virtualisierung im Bios umzustellen, war der nächste kurze Schritt.
Neustart.
Schnell ins Bios. Wo auch immer man die VM Unterstützung aktiviert.
Okay: "ENTF" drücken (ganz schnell! komm, du bist Drummer!)
Nix.
Immer direkt zum Bootscreen.
Ach stimmt.....da war ja was...
Hatte mal auf doof "Fastboot" eingestellt.....seitdem keine Chance mehr mit der Tastatur ins Bios zu kommen. Bios reset also auch noch.
Danke Merkel!
Nachdem ich kurz davor war, die Deutschland GmbH für alles verantwortlich zu machen, kam ich doch noch zur Besinnung.
Zweiphasig vom Netz trennen..
"Cyceln"
Gehäuse auf.
Mit einem Schraubenzieher die zwei Pins kurzschließen.
Sich daran erinnern, schon lange einen Taster dafür einbauen zu wollen.
Es aber nie macht.
Also, alles im Bios neu einstellen.
Checken, dass das Windows noch einwandfrei läuft.
(Da noch eben die verhunzten Python und Cuda SDK Installationen fixen und ein paar Testläufe machen)
Da war es zwar schon 5 in der Früh, aber so ein virtuelles Linux und alles nur mit Kommandozeile hat ja auch was nach einer Flasche Wein, die man zu Rate gezogen hat.
Ja. Ne, hatte nichts.
Irgendwann hab ich´s geschafft einen User zu kreieren, der was durfte....danach liefen die Downloads ins Leere und conda war zwar installiert, aber nicht nutzbar usw. bla bla
Schließlich landete dann eine richtige Linux Installation auf meinem Rechner.
Dann die Lüfter!
Unter Linux lief natürlich die Softwaresteuerung der Lüfter nicht. Also griff das viel zu dumme Motherboard ein.
Noch zwei Stunden in die Suche nach einer entsprechenden Softwarelösung unter Linux investiert.
Ergebnis:
Keine PWM-Lüfter vorhanden. Soso... interessant.
Furchtbar.
Okay, dann föhnt es halt. Während draußen die Vögel zwitschern und es schon erstaunlich hell ist.
Um X Uhr lief dann alles, es wurde wohl ein Video generiert (Uhrzeit könnte hinhauen).
Hatte aber nichts mit dem Prompt zu tun.
Alles, was ich danach versucht habe, brach mit Fehlermeldung bzgl. zu wenig Grafikspeicher ab.
Daher mal meine Frage, ob das hier mal jemand zum Laufen gebracht hat.
Angeblich läuft die kleine Variante des Modells ja schon ab 5 GB GRAM.
Ich hätte 24 GB anzubieten.
Bin nun noch nicht so weit, mich ernsthaft in die manuelle Speicheradressierung der GPU einzuarbeiten, was einem die Fehlermeldung ans Herz legt.
Zugegeben:
Nutzt man die Online Variante auf Huggingface hat man eh für Normalos unbezahlbare Rechenleistung zur Verfügung (vermutlich virtuell geteilt).
Damit hab ich mich aber mangels Zeit nun noch nicht beschäftigt.
Ich mach sowas ja gerne und meist kommt einer wie ich, der sich nur als interessierten Laien mit 2 Semester Informatik und 30 Jahren Programmierhintergrund sieht, ans Ziel.
Hier nicht.
Muss ich mich jetzt echt komplett in die Cloud übergeben?
Sicher nicht, aber momentan komm ich da nicht weiter.
Das ganze generative KI-Zeugs ist eine einzige Python-Dependency-Hölle, auch wenn man Linuxer ist.
Bei mir tut es zur Zeit Stable Diffusion WebUI nicht mehr, weil es eine ältere Python-Version verlangt, die unter einem aktuellen Debian Linux nicht mehr zur Verfügung steht.
Wahrscheinlich helfen da langfristig nur AppImages oder Docker-Container.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.