Newsmeldung von slashCAM:
Ein paar recht gewichtige Neuerungen finden mit heutigen Update ihren Weg in die Adobe Video-Tools. So unterstützt Premiere Pro ab sofort auch in der offiziellen Version ...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Updates: Adobe Premiere Pro erhält ua. kostenlose, automatische Transkription, After Effecs neues Multi-Frame Rendering
Antwort von lensoperator:
Tatsächlich mal ein spannendes Update.
Antwort von Jalue:
Spannend ja - und geradezu traumhaft, sofern die neuen Features nicht neue Bugs in alten Features erzeugen ;-)
Was die Untertitelung betrifft,@ Redaktion: Habt ihr das schon getestet oder nur die Pressemitteilung ge-copy-pasted?
Der Casus Knacksus ist doch, wie intelligent die tolle deep-learning-was-weiß-ich KI in der Praxis ist. Ich für meinen Teil habe noch kein Transkriptions-Tool erlebt, dass mit der recht komplexen deutschen Semantik und Grammatik zuverlässig umgeht und wenn Dialekte im Spiel sind, wird's noch mal kniffliger. Ein "Äh" mag ja noch zuverlässig erkannt werden, aber was ist z.B. mit einem sächsischen "Nu"?
Wenn ich das KI-Transkript mir Argus-Augen Wort für Wort gegenschecken muss, inklusive Zeichensetzung, ergibt sich jedenfalls keine Zeitersparnis, sondern nur eine zusätzliche Fehlerquelle, wahlweise ein Generator für ungewollte Komik - aber okay, auch das bringt Klicks ;-)
Für einen umfassenden Test wäre ich dankbar.
Antwort von antonknoblach:
Hi Jalue,
der Anton von Adobe hier, hier mal meine Gedanken zu deinen Punkten:
Jalue hat geschrieben:
Spannend ja - und geradezu traumhaft, sofern die neuen Features nicht neue Bugs in alten Features erzeugen ;-)
Da bin ich zu 100% bei dir und das ist der Grund, warum das Feature über ein halbes Jahr in der Betaphase war. Wir haben sehr gutes Feedback bekommen, auch und gerade von Leuten aus Deutschland.
Jalue hat geschrieben:
Ich für meinen Teil habe noch kein Transkriptions-Tool erlebt, dass mit der recht komplexen deutschen Semantik und Grammatik zuverlässig umgeht und wenn Dialekte im Spiel sind, wird's noch mal kniffliger. Ein "Äh" mag ja noch zuverlässig erkannt werden, aber was ist z.B. mit einem sächsischen "Nu"?
Du hast Recht, Spracherkennung hat ihre Grenzen. Mein Vorschlag wäre, es einfach mal auszuprobieren. Bei meinen eigenen Tests hat die Erkennung sehr gut funktioniert, auch bei Fachbegriffen, Eigennamen und was Interpunktion angeht.
Jalue hat geschrieben:
Wenn ich das KI-Transkript mir Argus-Augen Wort für Wort gegenschecken muss, inklusive Zeichensetzung, ergibt sich jedenfalls keine Zeitersparnis, sondern nur eine zusätzliche Fehlerquelle, wahlweise ein Generator für ungewollte Komik - aber okay, auch das bringt Klicks ;-)
Ich will ganz ehrlich sein: Du wirst das Transkript immer gegenlesen und Kleinigkeiten korrigieren müssen. Das geht trotzdem schneller, als alles per Hand zu transkribieren. Fast noch wichtiger ist aber die Zeitersparnis, das Transkript mit zwei Klicks in exakt platzierte Untertitel umwandeln zu können. Manuell zu transkribieren und dann jeden Untertitel an die richtige Stelle zu schieben ist wahnsinnig viel Arbeit.
Wenn du es noch nicht gesehen hast, dieses Video fasst den Workflow ganz gut zusammen (ab 00:18 bzw. ausführlich ab 00:50):
https://www.youtube.com/watch?v=73hZwuBzN94
Antwort von blip:
Jalue hat geschrieben:
Was die Untertitelung betrifft,@ Redaktion: Habt ihr das schon getestet oder nur die Pressemitteilung ge-copy-pasted? (...)
Für einen umfassenden Test wäre ich dankbar.
Hallo Jalue,
weder noch, diese Newsmeldung haben wir selbst eingetippt nach einer Online-Demo von Adobe :)
Die Testanregung ist hiermit notiert - das könnte vor allem auch im direkten Vergleich zu anderen Anbietern interessant sein. Denn tatsächlich denke ich auch, dass man sich auf keine maschinell erstellte Transkription zu 100% verlassen kann, da merkt man einfach, dass die Algorithmen nicht wirklich "intelligent" sind (alles andere fände ich persönlich auch ziemlich unheimlich). Dennoch geht mE. ein aufmerksames Kontrollieren in der Praxis schneller, als alles selbst per Hand zu transkribieren, vor allem bei Interviews...
Viele Grüße, Heidi
Antwort von Jalue:
Vielen Dank für den Input und versteht micht nicht falsch: Ich wäre wirklich begeistert, wenn der Workflow eine Erleichterung bringt, denn Untertiteln ist a) deprimierend stumpfsinnig und b) ein massiver Zeitfresser. Testen werde ich die neuen Features auf jeden Fall.
Was eure Einschätzung der Zeitersparnis angeht: Mein Maßstab ist das Zehn-Finger-System, das ich halbwegs beherrsche und damit ist man schon recht flott unterwegs beim Abtippen. Ob Spracherkennung samt manueller Korrektur da schneller ist, wäre zu beweisen. Oft ist es ja nicht mit der nackten Transkription getan, sondern man muss Aussagen zusammenfassen, bzw. Ausdrucksfehler korrigieren, ohne den Sinn zu entstellen.
Ein anderer Punkt: Das "Schriftsetzen" bei Untertiteln. Den meisten Kunden reichen eben keine Closed Captions, die wollen Titelage im eigenen Layout mit Haus-Farbe, Hausschrift, etc. Dann soll auch noch der Rhythmus stimmen, die Lesegeschwindigkeit, Untertitel, die Bildschnitte knapp überlappen, werden als "Schnittfehler" empfunden ... u.v.m.
Laut eurem Video wird all das addressiert und falls es funktioniert, wäre es wirklich ein Gamechanger. Doch selbst als Muttersprachler hat man an diesen Punkten oft echt zu knabbern ... let's see!
Antwort von antonknoblach:
Ich hab dich genau so verstanden und du forderst auch völlig zurecht, dass diese Dinge stimmen müssen :)
Probier es einfach mal aus – würde mich sehr freuen, wenn du uns (gerne auch hier) Feedback gibst, wie gut es für dich funktioniert.
Antwort von rdcl:
Jalue hat geschrieben:
Vielen Dank für den Input und versteht micht nicht falsch: Ich wäre wirklich begeistert, wenn der Workflow eine Erleichterung bringt, denn Untertiteln ist a) deprimierend stumpfsinnig und b) ein massiver Zeitfresser. Testen werde ich die neuen Features auf jeden Fall.
Was eure Einschätzung der Zeitersparnis angeht: Mein Maßstab ist das Zehn-Finger-System, das ich halbwegs beherrsche und damit ist man schon recht flott unterwegs beim Abtippen. Ob Spracherkennung samt manueller Korrektur da schneller ist, wäre zu beweisen. Oft ist es ja nicht mit der nackten Transkription getan, sondern man muss Aussagen zusammenfassen, bzw. Ausdrucksfehler korrigieren, ohne den Sinn zu entstellen.
Ein anderer Punkt: Das "Schriftsetzen" bei Untertiteln. Den meisten Kunden reichen eben keine Closed Captions, die wollen Titelage im eigenen Layout mit Haus-Farbe, Hausschrift, etc. Dann soll auch noch der Rhythmus stimmen, die Lesegeschwindigkeit, Untertitel, die Bildschnitte knapp überlappen, werden als "Schnittfehler" empfunden ... u.v.m.
Laut eurem Video wird all das addressiert und falls es funktioniert, wäre es wirklich ein Gamechanger. Doch selbst als Muttersprachler hat man an diesen Punkten oft echt zu knabbern ... let's see!
Ich kann mir vorstellen, dass man mit der Automatik selbst dann noch schneller ist, wenn man jeden Untertitel in Schrift und Timing noch manuell korrigieren müsste.
Das Anlegen, Einfügen und Schreiben ist dann ja zumindest teilweise erledigt, auch wenn nicht perfekt.
Am Ende drüberlesen wird einem aber nicht erspart bleiben.
Antwort von Jalue:
antonknoblach hat geschrieben:
Ich hab dich genau so verstanden und du forderst auch völlig zurecht, dass diese Dinge stimmen müssen :)
Probier es einfach mal aus – würde mich sehr freuen, wenn du uns (gerne auch hier) Feedback gibst, wie gut es für dich funktioniert.
Mache ich gerne. Beim nächsten Job für einen einschlägigen Kunden (Bundesministerium, das massiv auf Untertitel steht) wird es in der Praxis getestet ;-)
Antwort von patfish:
Ich warte schon seit 10 Jahren auf Multiframe-Rendering in After Effects (2014 war es ja sogar schon mal kurz implementiert) ... Jetzt ist es da, aber leider noch nicht sehr effizient implementiert (Rendering ist nur kaum schnell trotz meiner 24 Cores!)) ... Wichtig wäre im Jahr 2021,dass nun endlich jeder!!! Effekt GPU beschleunigt wird, Multi GPU Rendering unterstützt wird und endlich eine moderne (verwendbare!) Realtime 3D Engine implementiert. Geometrie Import/Export mit aktuellen Formaten. Simple 3D Tools um z.B 3D Camera-Projektions schnell realisieren zu können; Ein 3D Partikel System mit Pointcloud Support (VDB.); Raytracing Licht und Reflexion usw.
Es geht nicht darum 3D Programme zu ersetzten! (einen 3D Drachen mit Federn, der aus einem Wasser auftaucht, wird man immer in 3D Programmen animieren/simulieren!) es geht nur darum nicht wegen jedem lächerlichen Task (z.B: Campera-Projection) sofort in ein externes Paket wechseln zu müssen nur, weil After Effects im Jahr 2021 noch immer eine 3D Engine aus dem Jahr 1995 hat, welche nicht-mal simple Polygone darstellen kann???!!!!
Antwort von Jalue:
Wie der Zufall es will, hatte ich heute eine Premiere-Schulung mit einem zertifizierten Trainer - von einem Großkunden, der aktuell von FCPX auf PP wechselt.
Ich arbeite ja nun schon ne Weile mit PP, war aber doch überrascht, wie viele Features ich noch
nicht kannte. Weil ich ein bisschen doof bin? Mag sein, aber tatsächlich sind viele Sachen in irgendwelchen Untermenüs vergraben, z.B. die Loudness-Kontrolle.
Das ist in meinen Augen das Hauptproblem: Premiere will so
viel bieten -und mit jedem Upgrade kommen Sachen hinzu- dass man, wie bei einer Textilfabrik in Bangladesch, immer neue Stockwerke (oder Untergeschosse) anbauen muss. Dummerweise findet der normale Arbeiter irgendwann nicht mehr den Raum, in dem die neuen, durchaus nützlichen
state-of-the-art-Maschinen stehen.
Derweil in den "alten Maschinenräumen" z.T. noch Geräte aus der Kolonialzeit werkeln. Beim Thema Ton ist das besonders deutlich; Audiospurmischer, Audioclip-Mischer, Essential-Audio, plus Audition-Einbindung über Dynamic Link, dann noch die Audio-Funktionen in der Timeline ... Ein intuitiver Workflow ergibt sich hier nicht, da müsste man echt mal mit dem Besen durchgehen.