Ja, die entscheidende Frage wird am Ende sein, wie viel Macht wir der Plapperbox zugestehen.
Feedbackschleife ist hier das Zauberwort (aus dem Golem-Artikel):MK hat geschrieben: ↑Di 28 Mär, 2023 09:44 Ich beschäftige mich seit ein paar Tagen mit ChatGPT-4 und habe jetzt schon mehrfach trotz präziser einfacher Eingaben Verständnisprobleme hervorrufen können oder falsche Fakten präsentiert bekommen die so nirgends im Netz stehen, wohl aber korrekt als erstes und folgenden Google Suchergebnissen.
Beispiel wann und an was ist XYZ gestorben. Sowohl Todesursache als auch Sterbedatum waren falsch.
Interessant war auch: Schreibe einen kurzen Song für Gitarre - Kann ich nicht, ich bin nicht auf Musik trainiert
Plötzlich konnte das Ding bei weiterem Nachbohren dann Gitarrentabs als ASCII-Zeichen, erst 4-saitig, dann 6-saitig, dann hatte die AI bei weiteren Anfragen plötzlich eine grafisch formatierte Ausgabe.
Das Teil scheint also in Echtzeit sein Wissen auszubauen wenn man Aufgaben stellt die aktuell noch nicht lösbar sind (die Songs waren übrigens besch...eiden ;-) ).
Bei fehlerhaften Ausgaben reicht es oft, das Modell nach mehr Details zu fragen, woraufhin es den Fehler in seiner Logik erkennt und korrigiert.
Ein Beispiel hierfür sind Rechenaufgaben. Wie seine Vorgänger macht auch GPT-4 selbst bei einfachsten Rechenaufgaben auf Grundschulniveau viele Fehler. Die Microsoft-Forscher zeigen jedoch, dass sich die Ergebnisse deutlich verbessern, wenn man GPT-4 bittet, den Rechenweg detailliert zu beschreiben, bevor das Ergebnis genannt wird.
Eine mögliche Verbesserung für die Zukunft könnte also darin bestehen, das Modell um eine innere Feedback-Schleife zu erweitern, so dass es nicht nur linear eine Antwort erzeugen, sondern seinen eigenen Denkprozess überwachen, beurteilen und lenken kann. Dies würde dazu beitragen, die Leistungsfähigkeit des Sprachmodells weiter zu erhöhen und es noch besser an die menschliche Denkweise anzupassen, wodurch es in der Lage wäre, komplexere Probleme effizienter und präziser zu lösen.
Keine Ahnung, ob ich das hier schon geschrieben hatte, aber ich hab ChatGPT um ein Limerick gebeten, das sich partout auch nach mehreren Versuchen nicht reimen wollte, vor allem im letzten Satz. Nach Versuch Nummer 4 klappte es dann. Das Wort, auf das es "Rüben" gereimt hatte, kannte ich jedoch nicht, "Lüben". Ich fragte also, was es bedeutet und es gab zu: Das Wort habe ich erfunden... :-OMK hat geschrieben: ↑Di 28 Mär, 2023 09:44 Ich beschäftige mich seit ein paar Tagen mit ChatGPT-4 und habe jetzt schon mehrfach trotz präziser einfacher Eingaben Verständnisprobleme hervorrufen können oder falsche Fakten präsentiert bekommen die so nirgends im Netz stehen, wohl aber korrekt als erstes und folgenden Google Suchergebnissen.
Müben? :DDIn einem Land voller saftiger Rüben,
Lebte ein Mann mit goldenen Müben,
Er liebte das Gemüse,
So sehr wie seine Süße,
Und aß es mit Butter und Kräuterstücken.
So reime ich auch manchmal im Kopf, wenn mir nix Passendes einfällt :DDDIn einem Land voller saftiger Rüben,
Lebte ein Mann mit goldenen Müben,
Der Glöckner von Speyer hat blecherne... hoppsassa.
Wir hatten vorab Gelegenheit, das neue Final Cut Pro für iPad auf dem aktuellen iPad Pro von Apple zu testen. Mit dem leistungsstarken M2 Chip des iPad Pro steht viel Rechenpower zur Verfügung, die wir uns u.a. auch im 8K 10 Bit und 4K ProRes RAW Betrieb (Nikon Z8) genauer angeschaut haben. Hier unsere ersten Eindrücke von Final Cut Pro für iPad weiterlesen>>