Frank Glencairn hat geschrieben: ↑Do 13 Jul, 2023 17:34
cantsin hat geschrieben: ↑Do 13 Jul, 2023 16:21
Es geht darum, dass AI-Bots das World Wide Web und die darauf öffentlich zugängliche Information (wie z.B. auch dieses Forum) als ihr Trainingsmaterial verwenden, und dass es dann zu AI-"Demenz"-Rückkoppelungseffekten kommt, sobald das Web zu einem signifikanten Anteil aus AI-Bot-generierten Inhalten besteht.
Da sind einige eher zweifelhafte Prämissen drin.
1. warum sollten wir hier aufhören zu schreiben?
2. warum sollte irgendwer einen Anreiz haben Geld zu zahlen, nur um völlig umständlich hier ne Menge Fake Accounts anzulegen und irgendwelche Bots auf Slashcam los zu lassen?
3. warum sollte AI Inhalte, die bereits in ihren Trainigssätzen enthalten waren nochmal völlig sinnlos trainieren (gerade AI sollte besser als das sein).
Die wenigsten haben auch nur ein grobes Grundverständnis was Machine Learning betrifft.
Das führt zu Unsicherheit - Unsicherheit macht Angst und die führt dann zu solchen Gloom&Doom Artikeln.
Das sieht man ja schon an der Vermenschlichung die in letzter Zeit immer populärer geworden ist.
In Wirklichkeit weiß GPT nix, und versteht auch nix. Das ist nur ne riesige Datenhalde, welche die Wahrscheinlichkeit ausrechnet, welches Wort als nächstes kommt. Ganz sicher aber hat AGI keine Persönlichkeit oder sowas wie ein Bewußtsein, obwohl ja schon die ersten danach schreien ihr Persönlichkeitsrechte zu zugestehen.
Habe ich ja auch nicht behauptet. Ich glaube, wir schreiben hier aber sowieso aneinander vorbei. Mit "AI-Bots" meine ich nicht Bots, die auf Foren wie Slashcam selbsttätig posten, sondern bestehende Systeme wie ChatGPT, Bard & Co.
Und der verlinkte Artikel ist kein Doom-Journalismus und "Singularity"-Geschwafel, sondern bezieht sich auf eine Studie, die in Oxford und Cambridge gemacht wurde.
Man kann das ganze vielleicht besser mit den AI-Bildgeneratoren wie Dall-E, Midjourney und Stable Diffusion erklären. Die erzielen ihre - unbestreitbare - Qualität dadurch, dass sie an klassisch erstellten, z.T. hochqualitativen Fotos, Illustration, Kunstwerken etc. trainiert wurden. Trotzdem machen sie Fehler wie Hände mit sechs Fingern etc. Je mehr sich solches (AI-generiertes) Bildmaterial im Internet verbreitet, in Google Image Search auftaucht, in stock photo-Datenbanken landet etc., desto höher die Wahrscheinlichkeit, dass es in den Trainingssets künftiger Bildgeneratoren landet. Das ist schon deshalb nicht vermeidbar, weil die AI-Generatoren wie bei Photoshop Generative Fill etc. auch in herkömmlicher Bildbearbeitungssoftware landen. Je mehr AI-Bilder im Trainingsset, desto höher die Wahrscheinlichkeit, dass künftige AI-Bildgeneratoren die AI-typischen Bildfehler lernen und verstärken. Das ist mit "AI-Demenz" gemeint.
Bezogen auf Slashcam: Wir kriegen irgendwann Foristen, die ohne ChatGPT & Co.-Hilfe sich nicht mehr trauen zu schreiben, und die AI-Schreibtools werden direkt in Textverarbeitungsprogramme und Browser eingebaut sein. Ich nehme mal an, dass der ChatGPT-Beitrag im A6700-Thread aus Wichtigmacherei geschrieben/gepostet wurde.
Wenn, wie in diesem Beitrag, zwischen ein paar handgeschriebenen Einwürfen eine ganze Batterie von ChatGPT-geschriebenen (und weitgehend nichtssagenden) Absätzen steht, müllt nicht nur das Forum zu. Sondern ein AI-System wie ChatGPT, dass die Postings dieses Forums als Trainingsset verwendet, trainiert sich dann teilweise am Output eines anderen AI-Bots oder einer älteren Version seiner selbst. Das führt dann zu "AI-Demenz" - also nicht dass die Menschheit dement wird durch AI, sondern dass künftige AI dadurch metaphorisch dement wird, dass sie unbeabsichtigt mit AI-Output trainiert wurde und damit in Recycling-/Feedbackschleifen ihrer selbst endet. "AI-Inzest" wäre eventuell das bessere Wort...