YouTube hat soeben bekannt gegeben, in Kürze Label für KI-generierte Inhalte einzuführen, um User besser vor KI-generierter Manipulation zu schützen. Allerdings scheint es sich hierbei weniger um eine automatisierte KI-Erkennung, als vielmehr eine rechtliche Absicherung seitens von YouTube zu handeln.
Demnach sollen Inhalte-Produzenten selbst angeben, ob es sich bei ihrem Upload um KI-generiertes Material handelt oder nicht. Wer von einer Deepfake-Attacke betroffen wurde oder wessen Gesicht, Stimme etc. ohne Zustimmung genutzt oder manipuliert wurde, soll via bereits seit längerem etablierten „Privacy Request“ Kanal die Löschung von Inhalten beantragen können.
![YouTube führt KI Label ein - ausreichender Schutz vor Manipulation?](https://www.slashcam.de/images/rescaled/500/60056-500.webp)
Wie effektiv dieses wohl vor allem auf freiwillige Transparenz setzende KI-Label letztlich sein wird, bleibt Spekulation. Grundsätzlich begrüßenswert finden wir die hiermit einhergehende Sensibilisierung für KI-generierte Inhalte. Effektiver wäre eine technische Lösung, die automatisiert KI-generierte Inhalte erkennt.
Doch genau hier liegt ein grundsätzliches KI-Problem begraben: KI lässt sich nämlich mit KI genau so trainieren, dass KI-generierte Inhalte nicht mehr von realen zu unterscheiden sind. Entsprechende GAN-Setups Generative Adversarial Networks zeitigen bei ausreichender Trainingszeit meist „perfekte Real-Fakes“.
Ob der umgekehrte Weg vielversprechender ist – also bei der Generierung von Inhalten ein technisches Echtheitszertifikat zu vergeben, bleibt ebenfalls abzuwarten.
Vielleicht geht es am Ende also um ein grundsätzliches, „gesundes“ Misstrauen gegenüber jedwedem digital erzeugtem Bild / Ton und damit um eine neue, allgemeine Medienkompetenz – die kommenden Monate dürften hier spannende Weichenstellungen bereit halten ...