[sorry, ich kann nicht kurz]
Ein paar Grundlagen:
Aktuelle LLMs haben ein Kontextfenster von 200K oder mehr. Davon geht ein Systemprompt unbekannter Größe ab, sagen wir einfach mal 50K. Nähert sich man dem Ende des Fensters, steigt überproportional die Chance, dass das LLM vergisst was weiter vorne stand, d.h. nehmen wir zur Sicherheit 100K an. Da müssen alle Eingaben und alle Ausgaben rein passen.
100K heißt 100.000 Token. Und Token ist ein Stück Text. Der Einfachheit halber (die Tokenisierung ist eine Wissenschaft für sich) können wir 1 Token = 3 Zeichen oder 2 Token = 1 Wort abschätzen. Besagtes LLM wird also maximal mit Texten von 50.000 Wörtern arbeiten können. Können wir den Systemprompt kontrollieren, kommen wir auf 75.000 Wörter.
Im Chat ist man dem Systemprompt (den Basis-Instruktionen, was das LLM machen soll und was nicht) ausgeliefert und auch der Vorauswahl der anderen wichtigen Parameter: Temperatur (Wahrscheinlichkeit, von der offensichtlichen Antwort abzuweichen), Top-K (absolutes Maß für den Möglichkeitenbereichs), Top-P (relatives Maß für die Größe des Möglichkeitenbereichs). Und manchmal kann man noch nicht einmal wählen, ob das Modell über die eigenen Antworten reflektieren soll oder nicht (aka thinking). Besser ist es daher, sich direkt an das API zu wenden. Mittelmaß ist keine inherente Eigenschaft sondern gewolltes Chat-Verhalten.
Sollte ich Slop erzeugen sollen, kann ich mir nicht vorstellen, dass dies einfach nur per ChatGPT funktioniert. Damit kann ich weder genug "Content" erzeugen, noch geht das einfach genug, weil ich händisch kopieren müsste. Ich vermute, die Leute nutzen selbstgeschriebene oder von irgendwo (ohne KI) kopierte Scripte, die dann in kleinen Abschnitten die Texte erzeugen, kombinieren und in PDFs umwandeln. Und selbst das ist nicht einfach – jedenfalls gelingt es mir nicht, hier reproduzierbar befriedigende (ich sage extra nicht gut, weil das bei Slop ja gar nicht das Ziel ist) Ergebnisse zu produzieren.
Wer nicht die Welt mit Slop zum eigenen Vorteil und Nachteil aller anderen überschütten will, sondern sich von einer "KI" helfen lassen will – z.B. weil diese kreativer als man selbst ist und nicht die immer gleichen drei Ideen hat – dem würde ich dieses Verfahren vorschlagen:
Praxistipps:
Definiere den Kontext. Sag, was das Ziel ist, welches der aktuelle Schritt auf dem Weg dahin ist und was für Informationen du zusammengesammelt hast. Definiere System, Hintergrund, Rahmen, Format. Fasse das bereits Erzeugte zusammen. Dann formuliere die Aufgabe. Das kommt in einen neuen Chat. Du bekommst dann hoffentlich eine Antwort, die dir gefällt. Diskutiere sie ggf. Lasse dir dann einen neuen Kontext mit einer Zusammenfassung dieser Antwort generieren und nimm das dann als ersten Prompt in einem neuen Chat.
Nutze also Chats mit minimaler Historie.
Die besten Ergebnisse habe ich bislang mit Claude Opus erzielt. Da bekommt man auch problemlos längere Ergebnisse.
ChatGPT ist gerne kurz angebunden, liebt Aufzählungen und Tabellen (insbesondere wenn man gpt-oss statt gpt-5.2 nutzt) und während ich verstehen kann, dass es wertvoll ist, meine Zeit nicht mit langen Ausschweifungen zu verschwenden und OpenAI natürlich auch Geld spart, wenn die Anfragen nicht so groß sind – und die Antworten auch schneller kommen – wenn ich Prosa haben will, denke ich nicht an Tabellen.
Und Gemini drückt sich gerne. Da kommen dann so Antworten wie "oh, das ist aber ein großes Projekt, ich mache lieber erst mal dies andere". Das nervt mich gewaltig.
Grok boykottiere ich.
Mit Kimi und GLM habe ich noch zu wenig Erfahrung und Qwen und Deepseek sind mir ähnlich wie Mistral nicht gut genug.
In allen Fällen habe ich bezahlte Modelle, nicht die freien Versionen, da gibt es einen spürbaren Unterschied. Außerdem gibt es einen spürbaren Unterschied über die letzten Monate, wer also Erfahrung vor 12 oder 6 Monaten gemacht hat, sollte nochmal gucken.
Noch ein Punkt: Das LLMs halluzinieren ist nun mal so, denn sie sind keine Wissendatenbanken! Es sind nicht-deterministische Assoziativspeicher. Für das Erstellen von Prosa für Rollenspiele ist aber das Halluzinieren sogar wünschenswert, denn landläufig heißt sowas eigene Ideen haben.
Ob ein LLM bestimmte Regeln kennt, kann man ja nachfragen, etwa indem man sich eine Zusammenfassung für einen Prompt generieren lässt und diesen ggf. überarbeitet. (Das kann bei Hallozination auch ganz witzig sein. Gpt-oss wollte mit "Realms of Sorcery (1984)" als zweites deutsches Rollenspiel nach Midgard verkaufen und ich habe dann da nach Regeln, Setting, usw. gefragt und einen wilden Mischmasch aus DSA und anderen Ideen bekommen. Ihr kennt doch alle den Rollenspielpionier Ralf Hagemann, oder?)
Je bkannter das System, desto wahrscheinlicher hat auch ein LLM davon gehört. Vaesen, Coriolis, Traveller, Shadowrun und natürlich D&D und allen Geschmacksrichtung gehen alle. Cthulhu habe ich – fällt mir gerade auf – noch nie probiert.
PS: Ich hoffe es weiß jemand zu schätzen, dass ich extra so häufig wie möglich einen Gedankenstrich im Text benutzt habe – denn ich mag den und habe den auch schon vor dem Aufkommen von KIs benutzt.
PPS: Obwohl ich Gemini gescholten habe, hier 3.0 Pro High Thinking mit Temperatur 1.3 und diesem Prompt:
"Stell eine eigenständige alternative mystisch fantastische Welt inspiriert von England um 500 AD vor und erfinde 10 Abenteuerideen für ein sword & sorcery style Rollenspiel und beschreibe sie packend und inspirierend in jeweils einem Absatz. Nenne Namen, Orte, Ereignisse, als wenn da mehr zu erforschen wäre."
5. Der Rost-Geist von Camlann
Der Schmiedemeister Gofannon hat das perfekteste Schwert der Welt geschmiedet, doch es wurde gestohlen und in das verfluchte Tal von Camlann gebracht, wo der Rost-Nebel so dick ist, dass er Fleisch in Stunden zersetzt. Die Helden brauchen spezielle Salben und Atemmasken, um das Tal zu betreten. Dort jagen sie den Dieb: einen wahnsinnig gewordenen Druiden, der das Schwert in das „Herz des Rostes“ stoßen will, um eine Kettenreaktion auszulösen, die alles Metall auf der Insel zu Staub zerfallen lässt und die Menschheit in die Steinzeit zurückbombt. Es ist ein Wettlauf gegen die Korrosion ihrer eigenen Ausrüstung.
Und zum Vergleich Claude Opus 4.5 Extended Thinking mit dem selben Prompt:
5. Die Straße, die Niemand Geht
Zwischen den Ruinenstädten Deva und Eboracum verläuft eine valdorische Heerstraße, schnurgerade wie ein Speerschuss, gepflastert mit Steinen, die noch immer glatt sind nach drei Jahrhunderten. Niemand benutzt sie mehr. Die Einheimischen nennen sie die Leere Straße und machen einen Bogen von mehreren Meilen um sie. Wer sie betritt, kehrt verändert zurück — wenn überhaupt. Der imperiale Gelehrte Septimus Aurelius, der in Deva ein Antiquarium betreibt, hat eine Theorie: Die Straße war nicht nur eine Handelsroute, sondern ein magisches Konstrukt, das während des Abzugs der Legionen aktiviert wurde, um etwas zu transportieren oder einzusperren. Er bietet beträchtlichen Lohn für Begleiter auf einer Expedition entlang der Straße — von einem Ende zum anderen. Unterwegs werden die Wanderer Dinge sehen, die nicht sein sollten: Abzweigungen, die auf keiner Karte existieren, Meilenanzeiger, die in die Unterwelt führen, und am Horizont die Silhouette einer Stadt aus schwarzem Glas.