Ich habe das Gefühl, Feuersänger, du willst KI einfach scheiße finden.
Gebe ich
"Bitte zeig mir Anagramme für Farben." im KI-Modus von Google ein:
Die Klassiker:
Rot ➔ Tor (oder Ort)
Blau ➔ Laub
Braun ➔ Urban
Beige ➔ Biege (von biegen oder die Kurve)
Orange ➔ Organe (oder Onager, ein Wildesel/Wurfmaschine)
Magenta ➔ Magnate (Mehrzahl von Magnat)
Eisgrau ➔ Ausgeier (jemand, der etwas gierig betrachtet)
Rubin ➔ Unrib (seltenes Wort für "unreif" in regionalen Varianten)
sowie
Farbe ➔ Faber (lateinisch für „Schmied“ oder „Handwerker“, bekannt durch den Schreibwarenhersteller Faber-Castell)
Es sollte außerdem doch mittlerweile klar sein und niemanden verwundern, dass Halluzinationen normales Verhalten einer KI sind. Das sind KEINE Datenbanken. KIs sind NICHT-deterministische Assoziationsmaschinen. Deine Anklage ist ungefähr so schlüssig wie der Vorwurf "in meinem Brockhaus-Lexikon stehen gar nicht die aktuellen Nachrichten der Tagesschau, was für ein Scheißbuch".
Ich weiß auch nicht, was du mit deiner KI machst, weil du ja nie die Prompts nennt, aber wenn ich
"Bitte erkläre mir das Sprichwort 'Juggling fish at full moon'" bei Gemini 3 Pro eingebe, kommt:
Das Sprichwort "Juggling fish at full moon" ist im Englischen oder Deutschen kein gängiges oder allgemein bekanntes Sprichwort. Es gibt keine direkten Entsprechungen oder Erklärungen dafür in den üblichen Sammlungen von Sprichwörtern und Redewendungen.
Danach diskutiert die KI noch was es bedeuten könnte, wenn es existieren würde und endet dann damit:
Im Wesentlichen würde es die Vorstellung vermitteln, etwas völlig Lächerliches und zum Scheitern Verurteiltes zu versuchen.
Und ich finde, dass beschreibt eigentlich recht gut, was du zu beweisen versuchst

PS: Auch GPT 5.2 Thinking erklärt mir, dass das Sprichwort nicht existiert, komm aber zu einer ähnlich vermuteten Bedeutung wie Gemini und weist mich anschließend darauf hin, dass es mit 水中捞月 / 海底捞月 ein ähnliches Sprichwort im Chinesischen gibt.
Texte zusammenzufassen ist übrigens ein anderes Anwendungsfeld als Q&A und das Risiko von Halluzinationen ist hier deutlich geringer, weil hier der Kontext größer ist. Ganz einfach (und ein bisschen falsch) ausgedrückt: Erstes ist eine Aufgabe des Weglassens, letztes eine Aufgabe des Hinzufügens. Und dabei sind Fehler wahrscheinlicher.