YouTube hat soeben bekannt gegeben, in Kürze Label für KI-generierte Inhalte einzuführen, um User besser vor KI-generierter Manipulation zu schützen. Allerdings scheint es sich hierbei weniger um eine automatisierte KI-Erkennung, als vielmehr eine rechtliche Absicherung seitens von YouTube zu handeln.
Demnach sollen Inhalte-Produzenten selbst angeben, ob es sich bei ihrem Upload um KI-generiertes Material handelt oder nicht. Wer von einer Deepfake-Attacke betroffen wurde oder wessen Gesicht, Stimme etc. ohne Zustimmung genutzt oder manipuliert wurde, soll via bereits seit längerem etablierten „Privacy Request“ Kanal die Löschung von Inhalten beantragen können.

Wie effektiv dieses wohl vor allem auf freiwillige Transparenz setzende KI-Label letztlich sein wird, bleibt Spekulation. Grundsätzlich begrüßenswert finden wir die hiermit einhergehende Sensibilisierung für KI-generierte Inhalte. Effektiver wäre eine technische Lösung, die automatisiert KI-generierte Inhalte erkennt.
// Top-News auf einen Blick:
- Adobe Firefly bekommt Upscaling per Topaz, Editing per Prompt und mehr
- Leak: Samsungs plant SATA-Aus - Kommt der Preisschock auch bei SSDs?
- Kompaktkameras wieder im Trend - trotz Smartphones
- Von Mickey Mouse bis Darth Vader - Disney lizenziert seine Figuren an OpenAIs Sora
- Verstehen Video-KIs die Welt? Physik-IQ enthüllt Grenzen der Modelle
- Datacolor SpyderPro - Überragendes Feature-Upgrade für Videografen
Ob der umgekehrte Weg vielversprechender ist – also bei der Generierung von Inhalten ein technisches Echtheitszertifikat zu vergeben, bleibt ebenfalls abzuwarten.
Vielleicht geht es am Ende also um ein grundsätzliches, „gesundes“ Misstrauen gegenüber jedwedem digital erzeugtem Bild / Ton und damit um eine neue, allgemeine Medienkompetenz – die kommenden Monate dürften hier spannende Weichenstellungen bereit halten ...



















