Das kenne ich auch. GPT selber kann einfach nicht Rechnen, spuckt aber Zahlen mit einem Ton der Überzeugung aus als wäre das Ergebnis ohne jeden Zweifel korrekt.Alex hat geschrieben: ↑So 26 Mai, 2024 08:51Ich hatte auch einen sehr seltsamen Moment mit GPT (3.5).
Ich hatte ein PDF, in dem eine Tabelle mit Zahlen war, die ich addieren wollte. Abtippen fand ich zu mühselig, und für ne Addition in Excel hätte ich auch ein paar Handgriffe machen müssen. Also habe ich die Spalte im PDF mit den Zahlen in den Zwischenspeicher, und bei GPT reinkopiert, mit der Anweisung diese Beträge zu addieren.
Das Ergebnis war ein anderes, als ich erwartet hatte. Und habe natürlich erstmal an mir gezweifelt. Also habe ich nachgerechnet und nachgerechnet, kam aber irgendwann zum Schluss, dass sich GPT verrechnet haben muss, obwohl ich mir das beim besten Willen nicht vorstellen konnte, dass eine simple Addition falsch sein könnte.
Ich fragte dann GPT ob es sich verrechnet hatte.
GPT kam dann mit einem geänderten Ergebnis (10€ Unterschied)... Das war aber immer noch nicht richtig!!
Dann habe ich die Zahlen (die immer noch im Zwischenspeicher waren) nochmal reinkopiert und nochmal um ne Addition gebeten, erst dann kam das richtige Ergebnis raus... WTF!?!
mathegenie.jpg
Inzwischen hat es ja den Code Interpreter dazu bekommen, eine Umgebung die Python Code für Berechnungen schreibt und sofort ausführt. Damit wird es fehlerfrei. Das Problem ist nur nach wie vor, dass ChatGPT den nicht immer von selbst anwirft.
Mein Liebling-Beispiel: „Scheibe einen Text mit 100 Worten“. Wenn man dann nachzählt sind es 82 oder 135. Also Nachfrage: „wie viele Worte hat dein Text?“ Für die Antwort nutzt GPT den Code Interpreter, parsed den Text und zählt nach; „My apologies, the text has 82 words. Here is the text with 100 words…“
Und natürlich hat der neue Text wieder keine 100 Worte. So geht das Spiel dann weiter.