Frage von ruessel:Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT umschreiben wir mangels besserer Alternativen mit Begriffen wie Intelligenz oder gar Bewusstsein. Wenn Software aber erfundene Fakten präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre popularisiert.
Ein kürzlich erschienenes Paper warnt nun vor dieser Begrifflichkeit und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von KI-Chatbots. Die Rede vom Halluzinieren suggeriere, dass sie Fakten wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr, überzeugend zu klingen, als präzise zu sein. Darum postulieren die Forschenden:
ChatGPT ist Bullshit.
ChatGPT ist noch keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist Bullshit halt oft gut genug.
Studie im Anhang als PDF
Antwort von Frank Glencairn:
Diese Simulation von Wissen und Intelligenz wird oft mit der allwissenden Müllhalde verwechselt.
AI hat hat in Wirklichkeit nicht mal Ahnung um was es geht, es ist alles nur Statistik, auch wenn die Illusion manchmal verblüffend ist.
Bei Bildern/Clips und Musik ist das noch deutlicher zu sehen.
Antwort von DKPost:
Das wurde doch vom ersten Tag an genau so kommuniziert. ChatGPT ist ein Sprachmodell, das menschliche Sprache verstehen und simulieren soll. Richtig oder falsch spielt (oder spielte zumindest anfangs) wenn überhaupt eine untergeordnete Rolle.
Antwort von Axel:
ChatGPT ist (für mich) wie ein Assistent für eine erfolgreiche Google-Suche. Manchmal muss man nachhelfen, nachfragen, präzisieren. Wieso wendet ein Doppelklick den Powergrade nur für den gerade aktiven Node Stack Layer an? Sture Antwort dreimal hintereinander, immer wortreicher: ein Powergrade speichert alle Nodes, ein Doppelklick wendet sie an. Copy & Paste aus (hauptsächlich) dem Resolve Manual. Beim vierten Mal, fast kleinlaut: „Ich“ habe etwas im BlackMagic Forum gefunden. Ein Rechtsklick „Apply Grade“ wendet alle Layer an. Dann, großkotzig als wär‘s von mir: „Neue Software-Versionen sind häufig nicht vollständig dokumentiert, und es kann nützlich sein, die User-Communities zu Rate zu ziehen. Vielen Dank für die interessante Frage!“
Interessant? Versucht ChatGPT, den Turing-Test zu bestehen?
Antwort von cantsin:
Gutes Paper. Das Argument ist sehr einfach, aber bestechend: Dass "Halluzination" eine Marketing-Vokabel ist, die die eigentliche Simulanten-Aufschneiderei der Bots verschleiert, und dass "Bullshit" die korrektere Bezeichnung ist, wobei sich die Autoren auf das klassische Buch "On Bullshit" des amerikanischen analytischen Philosophen Harry Frankfurt beziehen (das trotz seines lustig klingenden Titels übrigens knochentrocken ist und darüber geht, wahre von unwahrer Rede zu unterscheiden).
Antwort von dienstag_01:
Wenn es soweit ist, dass die ersten ihre selbstgebauten Fahrzeuge mit selbstentwickelten KI-basierten Autopiloten ausstatten, dann wirds lustig. Ich bin dann erstmal weg. Also so in 2,3 Jahren wahrscheinlich ;)
Antwort von Jörg:
Künstliche Intelligenz erzählt Quatsch
wieso sollte sich denn künstliche Intelligenz von der real existierenden unterscheiden??
Antwort von macaw:
"Frank Glencairn" hat geschrieben:
Diese Simulation von Wissen und Intelligenz wird oft mit der allwissenden Müllhalde verwechselt.
AI hat hat in Wirklichkeit nicht mal Ahnung um was es geht, es ist alles nur Statistik, auch wenn die Illusion manchmal verblüffend ist.
Bei Bildern/Clips und Musik ist das noch deutlicher zu sehen.
Das erste Jahr hat das ganz gut funktioniert. Aber ich hab nun schon mehrfach erlebt, daß Firefly von Adobe grandiosen Müll produziert. Bei einer Set Extension für einen Heinz Spot (die Ketchup Firma) der 16:9 gedreht und nun für 9:16 adaptiert werden sollte, sollte das Bild zweier Personen am Esstisch oben und unten erweitert werden. Oben lieferte er mir das Bild eines halbnackten Mannes, der auf der Seite liegt, komplett mit einem schmierigen Gesichtsausdruck. Anstatt mir laut Prompt für den unteren Teil einfach den Tisch zu erweitern, trugen laut Firefly beide Frauen Röcke, unter den man blicken konnte. Mein Bruder erhielt statt der Reparatur eines Risses im Bild stattdessen einen noch größeren Riß in dem "Fler" stand. Und was ChatGPT da abliefert reicht zum befüllen ganzer Bibliotheken. Ich habe den Eindruck, daß diese KI"s irgendwie wie die Autokorrektur meines Smartphones funktionieren: Ist die Datenbank zu groß um das richtige Wort zu finden, pickt es einfach irgendwas heraus, daher bekomme ich statt "haben" nur noch "Haßberge" vorgeschlagen...
Antwort von cantsin:
macaw hat geschrieben:
Ich habe den Eindruck, daß diese KI"s irgendwie wie die Autokorrektur meines Smartphones funktionieren
Da triffst Du sogar ziemlich den Punkt. Die Autokorrektur arbeitet auf dem Prinzip sog. Markov-Ketten, die gewissermaßen die einfacheren Vorläufer der neuralen Netze der KI sind und im Fall der Autokorrektur Wörter auf der Basis von Übergangswahrscheinlichkeiten vervollständigen. Vom Prinzip her machen neurale Netze bzw. die auf ihnen basierten großen Sprachmodelle, auf denen wiederum generative KI basiert, nichts anderes.
Mein Studenten erkläre ich generative KI immer mit Tag-Clouds wie diesen:
zum Bild
Im Prinzip macht generative KI nichts anderes, als aus Datenmaterial solche Tag-Clouds zu erstellen (in KI-Terminologie: "weights", bzw. gewichtete Daten) und dann daraus geschriebene Sätze (oder Bilder) zu bauen. Und der Bullshit bzw. die Halluzinationen entstehen dadurch, dass sie Dinge miteinander verbinden, die in den Tag-Clouds (aus statistischen Gründen) fett nebeneinander stehen, auch wenn es zwischen ihnen keinen kausalen Zusammenhang gibt.
Antwort von macaw:
Sehr interessant - danke für die Erklärung!
Antwort von rudi:
Vielleicht hilft es dem Verständnis auch noch, dass diese Tag-Cloud nicht zweidimensional ist, sondern sich über sehr sehr sehr viele Dimensionen erstreckt. Und was letztlich rauskommt, ist auch stark abhängig, "wo" man sich gerade mit seinen Parametern in diesen übrigen Dimensionen gerade "aufhält". Drum kann das Ergebnis auch komplett anders ausfallen, wenn man nur einen dieser unspezifischen Parameter verändert. (und das kann wiederum schon durch eine minimale Änderung im Prompt passieren).
Aber ich merke grade, das ist wohl eher verwirrend, als erklärend. Ich lass es jetzt mal trotzdem hier stehen.
Antwort von cantsin:
rudi hat geschrieben:
Vielleicht hilft es dem Verständnis auch noch, dass diese Tag-Cloud nicht zweidimensional ist, sondern sich über sehr sehr sehr viele Dimensionen erstreckt. Und was letztlich rauskommt, ist auch stark abhängig, "wo" man sich gerade mit seinen Parametern in diesen übrigen Dimensionen gerade "aufhält". Drum kann das Ergebnis auch komplett anders ausfallen, wenn man nur einen dieser unspezifischen Parameter verändert. (und das kann wiederum schon durch eine minimale Änderung im Prompt passieren).
Aber ich merke grade, das ist wohl eher verwirrend, als erklärend.
Nee, nehme ich gerne für meine Studenten beim nächsten Mal mit!