YouTube hat soeben bekannt gegeben, in Kürze Label für KI-generierte Inhalte einzuführen, um User besser vor KI-generierter Manipulation zu schützen. Allerdings scheint es sich hierbei weniger um eine automatisierte KI-Erkennung, als vielmehr eine rechtliche Absicherung seitens von YouTube zu handeln.
Demnach sollen Inhalte-Produzenten selbst angeben, ob es sich bei ihrem Upload um KI-generiertes Material handelt oder nicht. Wer von einer Deepfake-Attacke betroffen wurde oder wessen Gesicht, Stimme etc. ohne Zustimmung genutzt oder manipuliert wurde, soll via bereits seit längerem etablierten „Privacy Request“ Kanal die Löschung von Inhalten beantragen können.

Wie effektiv dieses wohl vor allem auf freiwillige Transparenz setzende KI-Label letztlich sein wird, bleibt Spekulation. Grundsätzlich begrüßenswert finden wir die hiermit einhergehende Sensibilisierung für KI-generierte Inhalte. Effektiver wäre eine technische Lösung, die automatisiert KI-generierte Inhalte erkennt.
// Top-News auf einen Blick:
- Affinity Photo, Designer und Publisher ab sofort in einer kostenlosen App
- DJI Neo 2 bringt Rundum-Hinderniserkennung samt LiDAR
- Künftige Xbox Next: Vollwertiger Windows-PC mit Potenzial für Videobearbeitung
- LG UltraFine 40U990A-W - 40 5K2K Monitor mit Thunderbolt 5
- Neue Firmware für Panasonic LUMIX S5 II, S5 IIX, S9, GH7 und G9 II
Ob der umgekehrte Weg vielversprechender ist – also bei der Generierung von Inhalten ein technisches Echtheitszertifikat zu vergeben, bleibt ebenfalls abzuwarten.
Vielleicht geht es am Ende also um ein grundsätzliches, „gesundes“ Misstrauen gegenüber jedwedem digital erzeugtem Bild / Ton und damit um eine neue, allgemeine Medienkompetenz – die kommenden Monate dürften hier spannende Weichenstellungen bereit halten ...


















