YouTube hat soeben bekannt gegeben, in Kürze Label für KI-generierte Inhalte einzuführen, um User besser vor KI-generierter Manipulation zu schützen. Allerdings scheint es sich hierbei weniger um eine automatisierte KI-Erkennung, als vielmehr eine rechtliche Absicherung seitens von YouTube zu handeln.
Demnach sollen Inhalte-Produzenten selbst angeben, ob es sich bei ihrem Upload um KI-generiertes Material handelt oder nicht. Wer von einer Deepfake-Attacke betroffen wurde oder wessen Gesicht, Stimme etc. ohne Zustimmung genutzt oder manipuliert wurde, soll via bereits seit längerem etablierten „Privacy Request“ Kanal die Löschung von Inhalten beantragen können.

Wie effektiv dieses wohl vor allem auf freiwillige Transparenz setzende KI-Label letztlich sein wird, bleibt Spekulation. Grundsätzlich begrüßenswert finden wir die hiermit einhergehende Sensibilisierung für KI-generierte Inhalte. Effektiver wäre eine technische Lösung, die automatisiert KI-generierte Inhalte erkennt.
// Top-News auf einen Blick:
- Panasonic L-Mount Cine-Kamera als Konkurrent zur Sony FX3 im Anflug?
- Freefly Flying Sun 1000 - 300.000 Lumen helle Lichtdrohne macht die Nacht zum Tag
- KI-generierte Fake-Trailer: Wie Hollywood an der Irreführung der Zuschauer ...
- Beleuchtung für Foto und Video lernen mit kostenlosem Tool von Google
- HoverAir Falcon Mini macht DJI Konkurrenz - besser dank nur 2 schwenkbarer Rotoren?
Ob der umgekehrte Weg vielversprechender ist – also bei der Generierung von Inhalten ein technisches Echtheitszertifikat zu vergeben, bleibt ebenfalls abzuwarten.
Vielleicht geht es am Ende also um ein grundsätzliches, „gesundes“ Misstrauen gegenüber jedwedem digital erzeugtem Bild / Ton und damit um eine neue, allgemeine Medienkompetenz – die kommenden Monate dürften hier spannende Weichenstellungen bereit halten ...

Gewinne eine Nikon Z8
im Create-a-Cut Wettbewerb von slashCam und Nikon
Einreichfrist verlängert bis 21.4. - mehr Info >