Autor Thema: "I'm afraid I can't do that, Dave" - der LLM und KI Thread  (Gelesen 1631 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline Raven Nash

  • Famous Hero
  • ******
  • Beiträge: 3.875
  • Geschlecht: Männlich
  • Username: Raven Nash
    • Legacy of the Runemasters
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #25 am: 7.05.2025 | 12:05 »
Wieviel Rechenleistung braucht man denn eigentlich für eine LLM-Antwort bei einer mittel-komplexen Frage? Wird man da mit einer lokalen Installation überhaupt glücklich? Und wieviel Festplatte braucht man?
Festplatte wenig, Grafikprozessor vieeeel. Meine Frau macht grade ihren Master in LLM-Zeugs und wird ab Sommer in dem Bereich arbeiten.
Die arbeiten im Studium alle auf externen (Google) Servern - selbst mit kleinen Modellen reicht da auch der High-End Gaming-PC nicht aus.

Der Energieverbrauch findet aber hauptsächlich mit Training der Modelle statt. Das sind gigantische Datensätze, die da verarbeitet werden müssen. Ich hab mitbekommen, wie die für ihre Projekte im Studium ständig Datensätze reduzieren mussten, damit das sogar für die kleinen Projekte machbar war.
Aktiv: Dragonbane
Vergangene: Runequest, Cthulhu, Ubiquity, FFG StarWars, The One Ring, 5e, SotDL, LevelUp! A5e, Vaesen
(Klicke zum Anzeigen/Verstecken)

Offline Feuersänger

  • Orcjäger
  • Moderator
  • Titan
  • *****
  • Deadly and Absurdly Handsome
  • Beiträge: 34.487
  • Geschlecht: Männlich
  • Username: Feuersänger
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #26 am: 7.05.2025 | 12:12 »
Festplatte wenig? Das wundert mich jetzt. Ich dachte, wenn wir von 2-3stelligen "B"s sprechen, müssen diese auch lokal abrufbar sein.

Noch was zu "Thinking Models": das check ich auch nicht so ganz. Manchmal kommen die Antworten des LLM wie aus der Pistole geschossen und sind dabei oft sehr präzise. Sehr oft aber fängt es erst an mit einer lobenden Bestätigung wie "Sehr guter Punkt", oder wie jetzt gerade im anderen Fenster "Ja, das ist ein echter Zielkon"

und dann passiert minutenlang nichts, ehe sich dann die restliche Antwort aufbaut.
Der :T:-Sprachführer: Rollenspieler-Jargon

Zitat von: ErikErikson
Thor lootet nicht.

"I blame WotC for brainwashing us into thinking that +2 damage per attack is acceptable for a fighter, while wizards can get away with stopping time and gating in solars."

Kleine Rechtschreibhilfe: Galerie, Standard, tolerant, "seit bei Zeit", tot/Tod, Stegreif, Rückgrat

Offline Shihan

  • Hero
  • *****
  • Beiträge: 1.254
  • Username: Shihan
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #27 am: 7.05.2025 | 12:17 »
Festplatte wenig? Das wundert mich jetzt. Ich dachte, wenn wir von 2-3stelligen "B"s sprechen, müssen diese auch lokal abrufbar sein.
Kenne jetzt nur Zahlen aus der Welt der Stable Diffusion. Da haben solche Modelle mit allen Beidaten nur ein paar zehn GB, alles unter 100GB.
Das ist in heutiger Zeit ja eher überschaubar viel.

Vermutlich sind die Modelle für LLMs nur unwesentlich größer, wenn überhaupt.

Die Parameter (die "xyzB"s) werden ja meistens quantisiert gespeichert, als Q8 oder Q4 oder ähnliches. Da hat man pro Parameter max. 1 Byte, eher weniger. Deshalb bleiben die Modelle überschaubar groß.
Die Trainingsdaten hingegen... die sind gigantisch.
« Letzte Änderung: 7.05.2025 | 12:20 von Shihan »

Offline Raven Nash

  • Famous Hero
  • ******
  • Beiträge: 3.875
  • Geschlecht: Männlich
  • Username: Raven Nash
    • Legacy of the Runemasters
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #28 am: 7.05.2025 | 12:22 »
Festplatte wenig? Das wundert mich jetzt. Ich dachte, wenn wir von 2-3stelligen "B"s sprechen, müssen diese auch lokal abrufbar sein.
Ich hab Fooocus lokal installiert. Das ist HD-mäßig Pipifax.

Und bei den LLMs sind das einfach Textdateien und Python-Files.
Aktiv: Dragonbane
Vergangene: Runequest, Cthulhu, Ubiquity, FFG StarWars, The One Ring, 5e, SotDL, LevelUp! A5e, Vaesen
(Klicke zum Anzeigen/Verstecken)

Offline Haukrinn

  • BÖRK-Ziege
  • Mythos
  • ********
  • Jetzt auch mit Bart!
  • Beiträge: 11.992
  • Geschlecht: Männlich
  • Username: haukrinn
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #29 am: 7.05.2025 | 12:31 »
Wieviel Rechenleistung braucht man denn eigentlich für eine LLM-Antwort bei einer mittel-komplexen Frage? Wird man da mit einer lokalen Installation überhaupt glücklich? Und wieviel Festplatte braucht man?

Du kannst hochoptimierte Modelle wie Mistral-Small, Llama 3.x oder Qwen2 ganz gut lokal laufen lassen, wenn du entsprechende Grafikpower hast. GPU mit 16GB RAM sollte es dann aber schon sein (eher 24 oder gar 32, wenn du mit größeren Kontextfenstern arbeiten willst), wenn du nicht ewig auf deine Antworten warten willst. Die Modelle sind dann natürlich im Vergleich zu einem großen LLM wirklich eingedampft. Einmal in der Zahl der Parameter, die lokalen Modelle sind ein- bis zwei Größenordnungen kleiner. Aber auch in der Quantisierung, d.h. wie genau die Gewichte/Parameter berechnet werden. Während die großen Modelle da auf 16bit Gleitkommezahlen setzen, müssen lokal meist zwischen 1 und 4bit pro Gewicht reichen. Die Folge davon ist, dass die Modelle öfter mal "falsch" abbiegen und du bei nicht zufrieden stellenden Ergebnissen landest.

Für viele einfache Anwendungsfälle sind die lokalen Modelle aber mehr als gut genug. Wenn du sehr spezifische Sachen machen willst, kannst du die Modelle lokal natürlich auch noch nachtrainieren - dann werden die Ergebnisse dramatisch besser. Man darf halt nur nicht mit der Erwartungshaltung dran gehen, hier etwas zu bekommen, was mit Claude oder ChatGPT mithalten kann.

Festplattenverbrauch ist je nach Modell 2-10 GB.
What were you doing at a volcano? - Action geology!

Most people work long, hard hours at jobs they hate that enable them to buy things they don't need to impress people they don't like.

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.723
  • Geschlecht: Männlich
  • Username: sma
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #30 am: 7.05.2025 | 15:00 »
Absolut gesehen, verbrauchen LLMs viel Strom, aber wenn wir uns das leisten wollen, können wir das, weil es relativ gesehen immer noch wenig ist.

Lt. einer Studie liegen wir aktuell bei ~400 TWh pro Jahr für alle Rechenzentren, weltweit. Wie viel davon für KIs, insbesondere LLMs verbraucht ist, ist unklar, aber wenn wir mal von 5% ausgehen, wären das etwa 20TWh.

20 TWh schaffen allein die Windkraftwerke in Schleswig-Holstein und dabei sind noch nicht die mehreren TWh Verlust inbegriffen, weil niemand den Strom haben will und daher die Anlagen abgeschaltet werden müssen.

Der Straßenverkehr in Deutschland verschlingt das Äquivalent von ca. 600 TWh pro Jahr (Stand 2022), pro Tag also 1,6 TWh. Also 2 Wochen kein Auto fahren (inklusive Güterverkehr) und wir könnten als Deutsche weltweit die Nutzung von LLMs sponsoren.

Ach ja, Crypto-Bros sind Energieverschwender sondergleichen. Allein Bitcoins benötigen 100-150 TWh pro Jahr, und da ist dann auch egal, ob das grüne Energie ist oder nicht, denn statt mit der Ahnungslosigkeit der Masse zu spekulieren und dauf deren Kosten den eigenen Reichtum zu maximieren, könnte man den Strom auch sinnvolleren Projekten zu führen. Die wiederum sagen, hey, schaut auf die Gold-Industrie. Für die Goldgewinnung werden das Äquivalent von über 200 TWh ausgegeben.

---

Was den Betrieb zuhause angeht: Die "echten" Modelle kannst du eigentlich gar nicht betreiben. Meist werden diese erst einmal komprimiert, indem ausgenutzt wird, dass wir eine Zahl zwischen 0 und 1 mit weniger Zwischenschritten abbilden, üblicherweise nur 16. Das reduziert den Speicherbedarf auf 1/4 und ein 30B-Modell ist "nur" noch 15 GB groß. Für moderne Speichermedien ist das gar kein Problem. Du musst aber das Modell zwingend in den Hauptspeicher bekommen und willst dabei idealerweise eine GPU bzw. NPU und keine CPU darauf rumrechnen lassen. Will sagen, das muss in den Speicher deiner Grafikkarte passen. Oder du hast einen Apple Silicon Mac  oder so eine fancy AMD CPU/GPU Kombination, die sogenanntes universelles RAM hat, das dynamisch zwischen CPU und GPU aufgeteilt werden kann. Nicht so schnell wie dediziertes GPU-RAM, aber du hast davon wahrscheinlich mehr. Denn es reicht nicht, dass das Modell selbst in den Speicher passt, sondern das Kontextfenster muss auch noch rein und da weiß ich aus dem Stegreif nicht die Formel.

Ich kann nur sagen, dass ich mit einem 32 GB MacBookPro, wo dann vielleicht 10 GB oder so für Betriebssystem und Programme, die ich minimal brauche weg sind, ein 30B Modell gerade laden und mit zu kleinem Kontextfenster laufen lassen kann. Ich schaffe dabei 10 token/s. Ein 8K Kontextfenster zu füllen, dauert damit 13
Minuten. Man will was anderes machen, während man auf die Antwort wartet.

Kauf man sich den schnellsten und größten Mac mit 128 GB RAM und 80 GPUs oder so, kann man auch 100 token/s erreichen oder eben deutlich größere 70B Modelle ohne Quantisierung laden und immer noch okayish ausführen. Ihr müsst entscheiden, ob die dafür notwendigen 10.000 € dann noch als hausgebrauch zählen.

Windows-Jünger könnten sich eine oder besser 7 Grafikkarten für je 7000 € kaufen und haben dann ähnliche Ergebnisse. Konsumer-Grafikkarten haben leider relativ wenig RAM, sodass man mit kleinen quantisierten LLMs vorlieb nehmen muss.

Nvidia will diesen Monat noch einen KI-Rechner vorstellen, der ab 3000 € kostet, aber das gilt auch für das Mac Studio, es bleibt also abzuwarten, was dort ein 128 GB Modell kosten wird und wie viele GPU-Kerne es haben wird. Framework hat vor einigen Monaten ebenfalls eine interessanten Rechner mit "Ryzen™ AI Max" SoC vorgestellt, der mit 128 GB RAM (und 16 CPUs/40 GPUs) unter 2500€ kosten soll. Soll im Herbst ausgeliefert werden.

Wer nicht aus bestimmten Gründen sein Modell lokal betreiben will, muss schon etwas tiefer in die Tasche greifen und könnte für das Geld auch relativ lange ein Abo für ein großes Modell abschließen. Für 2500€ kann ich 8 Jahre lang Claude Pro nutzen.

PS: Während ich das hier geschrieben habe, habe ich GPT mit einem Deep Research beauftragt: Das veraltete GPT-4 hat 0,05 TWh im Training verschlungen, hat für 300 Mio User ca. 1 Mrd Anfragen täglich verarbeitet und dabei 0,11 TWh auf Jahr gerechnet verbraucht. Aktuell schätzt man 10% der Rechenzentrumsleistung für KI.

Ca. 40-50% des Stroms ist erneuerbar (je nachdem wo man Kernkraft zuordnet). Die USA sind dabei Umweltsünder mit nur wenigen % erneuerbarer Energie, allerdings kaufen die US-Unternehmen alle Ablassbriefe (PPAs).

PPS: Zum Wasserverbrauch: Da in die USA die Großrechenzentren in Wüstenregionen stehen (billiges Land, billiger Solarstrom, wenig Leute, die Ärger machen könnten) brauchen sie relativ viel Kühlwasser. Das GPT-3 (nicht 4) Training hat 700.000 L Kühlwasser benötigt und man schätzt, das 100 Prompts jeweils 1 L kosten. In Europa wird kaum wassergekühlt, weil das Klima gemäßigter ist und/oder die Rechenzentren dort stehen, wo es billige Wasserkraft gibt. In China, schätzt man, wäre der Wasserbedarf 3x so groß wie in den USA.

Und man kann natürlich auch Elon Musk heißen und auf die Umwelt scheißen und sein Rechenzentrum mit illegalen Dieselaggregaten betreiben, weil dort, wo man gerne bauen wollte, nicht genug Strom da ist. Daher auch aus diesem Grund: Finger weg von Grok.

Offline Gunthar

  • Mythos
  • ********
  • Beiträge: 10.799
  • Username: Gunthar
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #31 am: 7.05.2025 | 17:05 »
Vorhin 2 Bilder in ChatGPT in Auftrag gegeben und es dauert wesentlich länger als bei Bing-Creator ohne Credits, bis die Bilder da sind.
Spieler in D&D 5e: "8 + viel, trifft das?"

(Klicke zum Anzeigen/Verstecken)
I propose that we rename the game "The One Ring" to become "The Eleven Ring" ;)
Three Rings for the Elven-kings under the sky,
Seven for the Dwarf-lords in their halls of stone,
Nine for Mortal Men doomed to die,
Eleven Rings to roleplay the one...

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.723
  • Geschlecht: Männlich
  • Username: sma
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #32 am: 7.05.2025 | 21:01 »
Ein kleines Experiment.

Ich zeige meine Prompts. Das Endergebnis ist angefügt.

Erstelle ein kurzes aber vollständiges Rollenspielbuch mit Regeln in der Tradition von PbtA. Setting sind die späten 1970er bzw. frühen 1980er Jahre. Man spielt Gründer:innen im Silicon Valley, allerdings an einem fiktiven Ort mit fiktiven Firmen. Bitte erfinde 7 passende Playbooks. Erfinde Subsysteme, die die wichtigen Aspekte des Settings simulieren und einen spannenden Grund bilden, dass ganze überhaupt spielen zu wollen. Erfinde schließlich als Teil des Buchs auch Tabellen für Zufallsereignisse, Gegner und Verbündete, und eine Handvoll Abenteuerideen.

Und Gemini 2.5 Pro Preview 06-05 erstellt…

Danke. Sehr gut. Bitte erweitere die Zufallsereignisse-Tabelle auf 36 Einträge für einen W66 Wurf. Außerdem gefällt mir der Titel des Spiels nicht. Benutze keine "Foo & Bar" Form. Mache mir 6 neue Vorschläge für den Titel.

Und Gemini macht.

Mir gefällt "Garage Empire". Das nehmen wir. Bei den Abenteuer-Ideen habe ich allerdings noch keine Vorstellung, wie das im Spiel gehen soll. Bei PtbA gibt es ja Fronten und Clocks, um eine Bedrohung aufzubauen und sie langsam akuter werden zu lassen. So ein Konzept übertragen auf das Setting hätte ich gerne. Bitte erfinde da etwas!

Und Gemini erfindet "Venture Fronts: Der Weg zum Erfolg"

Das ist gut. Fasse bitte alles bisher gesagte zu einem kompletten konsistenten Rollenspielbuch zusammen und formatiere es als DIN A5 Buch mit modernem Layout für Typst.

Typst ist eine moderne Alternative zu TeX und ich war überrascht, dass Gemini das kennt. Leider nicht sonderlich gut und ich hatte zwei Fehler im Quelltext, die ich mit Hilfe der Dokumentation (ich kenne dessen Syntax überhaupt nicht) selbst fixen musste, weil Gemini immer wieder was anderes kaputt gemacht hat.

Außerdem habe ich die von Gemini vorgeschlagene Schrift "Linux Libertine" durch "IBM Plex Mono" ersetzt, weil ich eine Schreibmaschinenschrift passender fand. Und möglicherweise habe ich die Farbe der Überschriften geändert. So wirklich gut ist das Layout leider noch nicht, inbesondere wir schlecht umgebrochen.

Doch egal, ich habe jetzt ein 30 Seiten PDF, wo ich immer noch nicht überzeugt bin, dass man aus "Pirates of the Silicon Valley" ein Rollenspiel machen kann. Das nächste Mal probiere ich dann "Micro Men" :-)


Offline Feuersänger

  • Orcjäger
  • Moderator
  • Titan
  • *****
  • Deadly and Absurdly Handsome
  • Beiträge: 34.487
  • Geschlecht: Männlich
  • Username: Feuersänger
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #33 am: 8.05.2025 | 02:55 »
Humor-Versuche von LLMs sind ja meist Glückssache, aber umso mehr schmeiße ich mich weg wenn ein Spruch wirklich mal zündet.

Heute beim Schwadronieren über mein SF-Setting. Kontext: Sprüche von Tiefraumfahrern (Spacer) über Lifterpiloten (die immer nur zwischen Boden und Orbit pendeln).

"Schießen sich aus der Atmosphäre wie Zäpfchen, und tun dann so, als wär's Raumfahrt.“
Der :T:-Sprachführer: Rollenspieler-Jargon

Zitat von: ErikErikson
Thor lootet nicht.

"I blame WotC for brainwashing us into thinking that +2 damage per attack is acceptable for a fighter, while wizards can get away with stopping time and gating in solars."

Kleine Rechtschreibhilfe: Galerie, Standard, tolerant, "seit bei Zeit", tot/Tod, Stegreif, Rückgrat

Offline Gunthar

  • Mythos
  • ********
  • Beiträge: 10.799
  • Username: Gunthar
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #34 am: 8.05.2025 | 13:34 »
Gestern mit Claude AI versucht, eine Dungeonmap zu generieren und habe nur ein schematisches Gekritzel erhalten.

Winfuture hat einen Artikel über halluzinierendes ChatGPT geschrieben.
Spieler in D&D 5e: "8 + viel, trifft das?"

(Klicke zum Anzeigen/Verstecken)
I propose that we rename the game "The One Ring" to become "The Eleven Ring" ;)
Three Rings for the Elven-kings under the sky,
Seven for the Dwarf-lords in their halls of stone,
Nine for Mortal Men doomed to die,
Eleven Rings to roleplay the one...

Offline Eliane

  • Minotauren-Schlächter
  • Famous Hero
  • ******
  • Beiträge: 3.037
  • Geschlecht: Weiblich
  • Username: Eliane
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #35 am: 8.05.2025 | 15:51 »
Abo

Und danke für all die Erklärungen.
"Was wurde gestohlen?" - "Waffen und Munition." - "Oh, das ist aber schlecht!"

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.723
  • Geschlecht: Männlich
  • Username: sma
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #36 am: 8.05.2025 | 16:11 »
Gestern mit Claude AI versucht, eine Dungeonmap zu generieren und habe nur ein schematisches Gekritzel erhalten.
Claude kann ja auch keine Bilder erzeugen.

Das geht aber sehr gut: please invent a dungeon of interconnected rooms for a dungeon crawl and create a short but inspiring description that includes the usual "north is …, south is ...". Then create mermaid diagram to show the topology.

Ich hab's mir dann als HTML-Seite gewünscht. (Die Klicks auf das Diagramm funktionieren leider nicht in Claude's Sandbox).

Zum dem Artikel kann ich nur sagen: 1) Nutze ein LLM nicht als Lexikon. 2) Ist doch gut, dass OpenAI so offen mit den Forschungsergebnissen (System Card O3/O4 mini) umgeht. In der System Card von Claude finde ich keine solche Aussagen, ob das nicht untersucht wurde oder nicht gefunden wurde, kann ich nicht sagen. Fakt ist aber, dass OpenAI ja gerade erst 4o komplett vermurkst hatte und eilig zurückrollen musste, die vielleicht nicht unbedingt die besten sind. 3) Momentan versuchen Anbieter, die Fähigkeiten zum logischen Denken und zur Code-Erzeugung zu optimieren und der Rest ist eigentlich gut genug, sodass er unter den Tisch fällt. Wissensfragen beantworten ist aktuell kein spannendes Forschungsziel.
« Letzte Änderung: 8.05.2025 | 17:55 von sma »

Offline Feuersänger

  • Orcjäger
  • Moderator
  • Titan
  • *****
  • Deadly and Absurdly Handsome
  • Beiträge: 34.487
  • Geschlecht: Männlich
  • Username: Feuersänger
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #37 am: 8.05.2025 | 17:24 »
Ich habe bei meinem Chatty die "Reasoning-Lampe" inzwischen immer aus. Das hat mE wirklich noch kein Ergebnis verbessert - die Mühle schien mir dann halt in erster Linie eine Websuche durchzuführen und den Mittelwert der Suchergebnisse auszuspucken.

Vorhin habe ich auch mal versucht, ihn aufs Glatteis zu führen, nur um zu sehen ob er offensichtlichen Blödsinn aus Compliance-Gründen bestätigt -- aber er hat es in der Tat als Witz aufgefasst und bei der Antwort auch keinen Zweifel dran gelassen, dass er den gleichen Witz weiterspinnt.
Ansonsten, wenn man ihn mit leicht falschen Zahlen füttert, korrigiert er sie und sagt "Ja das stimmt fast genau", und wenn man größere Abweichungen einfügt liefert er einem eine Ausrede frei Haus wo der Unterschied herkommt ("Du hast offenbar mit einer größeren Fläche gerechnet...").
Umgekehrt läuft es aber genauso, ich muss seine Rechnungen auch überprüfen und finde immer wieder mal Fehler, die dann meistens schon in den Angaben passiert sind -- wenn man zB von 900m Radius spricht und er rechnet dann mit 900m Durchmesser, wie so ein Sechstklässler.
Der :T:-Sprachführer: Rollenspieler-Jargon

Zitat von: ErikErikson
Thor lootet nicht.

"I blame WotC for brainwashing us into thinking that +2 damage per attack is acceptable for a fighter, while wizards can get away with stopping time and gating in solars."

Kleine Rechtschreibhilfe: Galerie, Standard, tolerant, "seit bei Zeit", tot/Tod, Stegreif, Rückgrat

Offline Feuersänger

  • Orcjäger
  • Moderator
  • Titan
  • *****
  • Deadly and Absurdly Handsome
  • Beiträge: 34.487
  • Geschlecht: Männlich
  • Username: Feuersänger
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #38 am: 9.05.2025 | 11:08 »
Bei meiner gestrigen SF Settingdesign-Session mit ChatGPT auf 4o-mini ist etwas komisches passiert -- allerdings nicht zum ersten Mal. Erstmal ging - in einem frischen Chat - der Austausch sehr gut und fruchtbar voran. Dann stieß ich auf ein Problem, das Chatty zuerst handwedeln wollte, aber ich wollte es genauer wissen. Dann war bei dem Ding irgendwann von jetzt auf gleich komplett die Luft raus. Es sonderte nur noch Schwachsinn ab, etwa "Die Elektrolyse von 6000t Wasser ergibt 3000t Wasserstoff und 3000t Sauerstoff".  Da hat es sich dann nach einmaligem Hinweis noch korrigiert, aber die eigentlich gewünschte Rechnung auch nach mehreren Hilfestellungen nicht gepackt (da war ich selber schuld, ich war nur zu faul zum selber rechnen).
Ich habe es dann mit einem anderen Thema probiert - eins das meine mathematischen Kenntnisse übersteigt - und es kam ein offensichtlich falsches Ergebnis. Ich habe es darauf hingewiesen, dass das offensichtlich nicht stimmen kann, es soll nochmal überlegen.  "Du hast recht, jetzt hab ichs!" - und exakt denselben Müll nochmal, und dann noch ein drittes mal. Es hatte einen Blackout wie ein Schüler bei einer Schulaufgabe.

Irgendwann bin ich dann entnervt zu Claude gegangen und der hat mir die gewünschte Rechnung auf Anhieb und nachvollziehbar vorgerechnet und (auf Anfrage) noch 6 Alternativen dazu angeboten. Das war ein extrem nützlicher Input (vom System an mich, meine ich). Unerwartet war, dass auf meinen "Daumen hoch" ein Popup kam mit der Nachfrage, was an dieser Antwort gut war. Habe ich aber gerne ausgefüllt. Aber schade, dass man Claude mit dem Free Plan nur in homöopathischen Dosen einsetzen kann.
Der :T:-Sprachführer: Rollenspieler-Jargon

Zitat von: ErikErikson
Thor lootet nicht.

"I blame WotC for brainwashing us into thinking that +2 damage per attack is acceptable for a fighter, while wizards can get away with stopping time and gating in solars."

Kleine Rechtschreibhilfe: Galerie, Standard, tolerant, "seit bei Zeit", tot/Tod, Stegreif, Rückgrat

Offline Haukrinn

  • BÖRK-Ziege
  • Mythos
  • ********
  • Jetzt auch mit Bart!
  • Beiträge: 11.992
  • Geschlecht: Männlich
  • Username: haukrinn
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #39 am: 12.05.2025 | 23:02 »
Gestern mit Claude AI versucht, eine Dungeonmap zu generieren und habe nur ein schematisches Gekritzel erhalten.

Winfuture hat einen Artikel über halluzinierendes ChatGPT geschrieben.

Claude kann keine Bilder. Die schematischen Diagramme die er von Dungeons zeichnet finde ich aber bis so ca. 20 Räume tatsächlich ziemlich brauchbar. Außenareale skizzieren geht auch. Ist halt nicht schön, aber schon praktikabel.
What were you doing at a volcano? - Action geology!

Most people work long, hard hours at jobs they hate that enable them to buy things they don't need to impress people they don't like.

Offline Haukrinn

  • BÖRK-Ziege
  • Mythos
  • ********
  • Jetzt auch mit Bart!
  • Beiträge: 11.992
  • Geschlecht: Männlich
  • Username: haukrinn
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #40 am: 18.05.2025 | 15:47 »
Ich habe heute übrigens mal versucht, Hexkarten via KI zu generieren. Also nicht zufälliges Zeug (dass können Gemini und ChatGPT schon ganz gut), sondern solche wo ich gezielt Landmarken und Terrain beschreibend vorgebe. Die Ergebnisse waren, gelinde gesagt durchwachsen.

1. Gemini kann nur Pixelbilder erzeugen, diese enthielten in aller Regel die Landmarken und das Terrain, dass ich haben wollte, aber an den falschen Stellen. Gemini ließ sich zudem nicht dazu überreden, wirklich keine Texte auf der Karte anzubringen (und die waren dann natürlich auch noch falsch). Ganz absurd wird es übrigens, wenn  man Flüsse oder Straßen haben möchte die nicht in der Landschaft platziert werden als hätte ein betrunkener Bison als Landschaftspplaner gearbeitet.
2. Claude erkennt, dass man solche Karten recht gut als SVG zeichnen kann und versteht auch sehr gut, wo was platziert werden soll. Das Ergebnis ist nicht hübsch (sieht nach 1980er-D&D-Hexkarte aus oder schlimmer aus), aber inhaltlich schon mal nicht verkehrt. Was ihm aber wirklich Probleme bereitet sind die Abstände der Hexfelder, damit sich ein Wabenraster ergibt. Das hat mich einiges an Nachjustierung gekostet, bist das einigermaßen gepasst hat. Ich vermute, man kann da auch mit importierten Symbolen usw. einiges noch aufhübschen, für einen kurzen Versuch fand ich's aber schon ganz brauchbar. Da SVG am Ende rauskommt, hat man natürlich auch die Möglichkeit manuell problemlos nach daran herum zu basteln.

What were you doing at a volcano? - Action geology!

Most people work long, hard hours at jobs they hate that enable them to buy things they don't need to impress people they don't like.

Online Quaint

  • Legend
  • *******
  • Beiträge: 4.064
  • Geschlecht: Männlich
  • Username: Quaint
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #41 am: 18.05.2025 | 16:16 »
Sehr spannend. Ich will auch lernen, mehr mit LLMs zu machen. Hab da bisher nur paar Mal quasi Ideen geholt für RPG Krams (wobei ich viel quasi händisch rausgeworfen habe), aber da scheint ja noch viel mehr zu gehen.
Besucht meine Spielkiste - Allerlei buntes RPG Material, eigene Systeme (Q-Sys, FAF) und vieles mehr
,___,
[o.o]
/)__)
-"--"-

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.723
  • Geschlecht: Männlich
  • Username: sma
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #42 am: 18.05.2025 | 17:30 »
Ich habe heute übrigens mal versucht, Hexkarten via KI zu generieren.
Interessant.

ChatGPT o4-mini hat mir dies beschert.

Prompt: erstelle eine alt aussehende Karte für einen Landstrich für ein Fantasy Rollenspiel und zeichne dort Städte, Flüsse, Straßen, Wälder, Gebirge und Sümpfe ein, wo passend. Füge dann ein 3-Meilen Hex-Raster hinzu.

Finde ich nicht so gelungen.

Ich habe dann Ich möchte, dass du mir eine Hex-Karte für eine Fantasywelt erzeugst. Sie soll 10x10 Felder haben. Erfinde zunächst für jedes Feld eine zufällige Geländeform. Unterscheide zwischen Land und Wasser. Im Wasser kann es inseln geben, im Land kann es seen geben. Das Land kann Wälder, Gebirge oder Sümpfe haben. Gib eine Tabelle mit den 10x10 Geländeformen aus. Kombiniere sie dann zu einer artistischen Karte mit oldschool-style und schematischen Geländemarkern in schwarz-weiß. probiert.

Er hat sich ein Python-Programm geschrieben, um die Geländeformen zu verteilen, dann aber mit diesem Ergebnis komplett versagt. Im zweiten Versuch kam dies, aber das passt nicht zu den zufällig ermittelten Geländeformen.

Noch ein Versuch: Okay, du schaffst es nicht in einem Schritt, die Tabelle in eine Karte umzuwandeln. Lass uns dies probieren: Erzeuge aus der Tabelle mit etwas Fantasie einen Prompt, der dann eine Landschaft gemäß der Verteilung der Geländeformen beschreibt.

Die Antwort ist:
(Klicke zum Anzeigen/Verstecken)

Das habe ich dann gepromptet… und es kann sich (bis auf den vermaledeiten Gelbstich) echt sehen lassen.

Danke. Analysiere nun das Bild, um die Land-Hexfelder zu finden und definiere zu jedem Hexfeld einen zufälligen "Point of interest", einen Ort, Gegenstand oder Person, die eine Möglichkeit zu Interaktion bietet, vielleicht ein Gegner oder ein Verbündeter, etwas, in kurzen Worten beschrieben das mich als SL inspiriert.

(Klicke zum Anzeigen/Verstecken)

Ich befürchte, das passt so gar nicht zur Karte. Die KI scheint sich an der von Python erzeugten Tabelle orientiert zu haben. Da erkenne ich eine Übereinstimmung. Diese sollte ja theoretisch auch Grundlage für den Prompt sein, aber leider hat er nicht das Bild wie gewünscht analysiert.

Ich habe den großen Prompt auch noch mal bei Google probiert. Das Bild hänge ich hier mal an. Leider hat so gut wie keine Hexfelder.



Und trotz fehlender Felder wollte ich auch von Gemini 2.5 Flash (ich hatte vergessen, auf Pro zu wechseln) zufällige POI-Beschreibungen haben.

(Klicke zum Anzeigen/Verstecken)

Ja, auch Gemini schafft es nicht, die Karte zu verstehen… ist aber kreativer.

Offline Paßwächter

  • Experienced
  • ***
  • Beiträge: 177
  • Username: Paßwächter
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #43 am: 18.05.2025 | 19:57 »
Eventuell müsste man da mal eine MCP-Kombination (bzw. auf Deutsch hier) drauf loslassen.
Das Hexraster ist ein anderes "Tool" als eine (Fantasy-)Karte. Wenn man das Hexraster als Datei anbietet (oder jeweils erstellen läßt, zur Not in Python), die Karte mit einem geeigneten Programm (oder einem LLM, das scheint ja schon ganz ordentliche Ergebnisse zu liefern), dann eine Synthese daraus rechnet und anschließend für jedes Hex-Feld Anregungen anfordert, könnte das ein regelrechter Sandbox-Generator werden.
Mir fehlen gerade die Ressourcen dafür  :-[...

Offline Feuersänger

  • Orcjäger
  • Moderator
  • Titan
  • *****
  • Deadly and Absurdly Handsome
  • Beiträge: 34.487
  • Geschlecht: Männlich
  • Username: Feuersänger
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #44 am: 18.05.2025 | 21:10 »
Ich wurde gestern mal wieder von Katze, ich habe gefurzt* enttäuscht. Ich habe einen selbstgeschriebenen Prosa-text eingefüttert (In-World Settingbeschreibung), diesen hat es auch korrekt analysiert und gegliedert. Dann habe ich um stilistische Verbesserungsvorschläge gebeten. Es hat dann Sätze moniert die ich überhaupt nicht geschrieben hatte. Also nicht ansatzweise. Seine Kritik war komplett halluziniert. Darauf angesprochen, hat es dann gesagt "Achja sorry stimmt, hast du nicht geschrieben, das habe ich wohl mit einem ähnlichen Text verwechselt." - Weh-Teh-efF?

--

Random: mir fällt auch auf, dass ich selber unterschiedlich formuliere, wenn ich über ein LLM spreche. Insbesondere über CGPT, weil es eben anders als Claude keinen geschlechtlich markierten Namen hat, sage ich mal "er", mal "sie", mal "es". Naja klar, alles valide: der Computer / Roboter, die KI, das LLM. Möglicherweise sage ich aber eher "es", wenn ich mich darüber ärgere, und er oder sie wenn es zu meiner Zufriedenheit arbeitet.

--

*) falls das noch jemand nicht mitbekommen hat: "ChatGPT" auf französisch ausgesprochen: "Chat, j'ai pété"  ;D
Der :T:-Sprachführer: Rollenspieler-Jargon

Zitat von: ErikErikson
Thor lootet nicht.

"I blame WotC for brainwashing us into thinking that +2 damage per attack is acceptable for a fighter, while wizards can get away with stopping time and gating in solars."

Kleine Rechtschreibhilfe: Galerie, Standard, tolerant, "seit bei Zeit", tot/Tod, Stegreif, Rückgrat

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.723
  • Geschlecht: Männlich
  • Username: sma
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #45 am: 18.05.2025 | 21:57 »
Ich wurde gestern mal wieder von Katze, ich habe gefurzt* enttäuscht.
Du schreibst immer mal wieder, das die KI für dich nicht funktionierst, sagst aber nie, welches LLM du benutzt (z.B. Gemini mit "2.5 Pro Preview 06-05" - das ist die LLM-Version). Auch ChatGPT ist nicht ausreichend genau, unterstützt das doch 4o, o3, o3-mini, o4-mini, o4-mini-high, 4.1, 4.1-mini, 4.5, die alle verschiedene Charakteristika haben. Bedenke auch, dass kostenlose und bezahlte Nutzer bei dem selben Modell zum Teil sehr unterschiedliche Ergebnisse bekommen. Manchmal kann das sogar auch einfach an der Tageszeit bzw. der aktuellen Auslastung liegen. Das ist alles leider schwer reproduzierbar.

Mehr Informationen würden helfen, die Situation besser einzuordnen, denn so krasse Halluzinationen habe ich schon seit längerem nicht mehr gesehen.

Für die Qualität der Antwort ist entscheidend, wie lang dein Chat schon ist. Verschiedene LLMs haben verschieden lange Kontextfenster (können sich also an unterschiedlich viel der Konversation erinnern) und haben zusätzlich auch noch unterschiedliche Wahrscheinlichkeiten, sich innerhalb des Fensters auch wirklich zu erinnern. Gemini ist meines Wissens in beiden Kategorien aktuell führend.

Wenn dein Text sagen wir mal 10.000 deutsche Wörter hat, wären das etwa 30k Token und sollte der kostenlose Chat nur 32k haben (habe das nicht recherchiert), beginnt er mit der Ausgabe von Text bereits Teile der Eingabe zu vergessen. Ich würde 100k als unteres Limit für einen vernünftigen Chat sehen, es könnte aber sein, dass die Hersteller da was anderes anbieten.

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.723
  • Geschlecht: Männlich
  • Username: sma
Re: "I'm afraid I can't do that, Dave" - der LLM und KI Thread
« Antwort #46 am: 18.05.2025 | 22:08 »
Eventuell müsste man da mal eine MCP-Kombination (bzw. auf Deutsch hier) drauf loslassen.
MCP ermöglicht viel, kann aber keine Wunder vollbringen und ich sehe nicht, wie es da Problem lösen kann, dass sich der Bildgenerator die Hexes nicht vorstellen kann. ChatGPT kann als Codeinterpreter auf Python zurückgreifen, Claude auf JavaScript (was mir besser gefällt) und damit kann man das Problem lösen, dass das LLM keinen echten Zufall kann. Mit Canvas bzw. Artefakt kann man sich auch ein explizites Programm generieren lassen, dass eine Hexkarte erzeugen und anzeigen kann und theoretisch auch als Bitmap in die Zwischenablage kopieren kann (meines Wissen verhindert dies die Sandbox, in der der Preview läuft). Dann könnte man so eine schematische Karte von der KI anpassen lassen.

MCP könnte man nutzen, um genau diesen Übergang zu automatisieren, müsste dazu aber entweder einen HTTP-basierten MCP in den Browser-Chat-Client integrieren oder die Desktop-App benutzen. Ich bin kein großer ChatGPT User, daher weiß ich nicht, was dessen App kann, aber Claude Desktop kann auch lokale MCPs integrieren, was einfacher wäre.

Offline Feuersänger

  • Orcjäger
  • Moderator
  • Titan
  • *****
  • Deadly and Absurdly Handsome
  • Beiträge: 34.487
  • Geschlecht: Männlich
  • Username: Feuersänger
Du schreibst immer mal wieder, das die KI für dich nicht funktionierst, sagst aber nie, welches LLM du benutzt (z.B. Gemini mit "2.5 Pro Preview 06-05" - das ist die LLM-Version). Auch ChatGPT ist nicht ausreichend genau, unterstützt das doch 4o, o3, o3-mini, o4-mini, o4-mini-high, 4.1, 4.1-mini, 4.5, die alle verschiedene Charakteristika haben.

Ich lasse bisher das ChatGPT auf "Auto", was in der Regel 4o bedeutet bis das Kontingent für den Zeitslot verbraucht ist, dann steigt es automatisch auf o4-mini um. Ich kann auch außer diesen beiden höchstens noch 4.1-mini auswählen, habe das aber noch nie probiert. Die obigen Hallus kamen alle mit 4o.
Und ja, vermutlich war mein initial reinkopierter Text einfach zu lang - es waren knapp 5000 Worte auf einmal. Ich habe dann angefangen es häppchenweise zu pasten und da kam es dann besser mit zurecht.

Und wohlgemerkt: oft, ich sag mal nicht "meistens", also oft funktioniert 4o für mich durchaus und liefert Antworten, mit denen ich arbeiten kann. Das geht aber freilich nur, solange ich auch selber aufpasse und beim Gegenlesen bemerke, wenn es Mist gebaut hat.

In einem speziellen Fall habe ich auch sowohl Claude als auch CGPT auf das gleiche Problem angesetzt und anfangs irrwitzig weit auseinander liegende Antworten bekommen. Ich habe dann die Eingaben verfeinert und auch das eine Modell mit den Antworten des anderen konfrontiert. Es war ein mehrstufiger Prozess aber am Ende hatte ich ein Ergebnis, mit dem ich zufrieden bin.

Und um auch mal was positives zu 4o zu sagen: einmal habe ich ihm aus Spaß ein Logikrätsel gestellt. Es hat losgelegt, und eine Antwort generiert die genau falsch war, also voll in eine logische Denkfalle reingetappt. Und dann, noch in der gleichen Antwort, dies selber gemerkt und sich korrigiert. "Ach halt, das stimmt ja gar nicht!" und dann weiter räsonniert und kam auf die richtige Lösung. Also ich muss sagen, das wirkte schon geradezu menschlich.

Zitat
Bedenke auch, dass kostenlose und bezahlte Nutzer bei dem selben Modell zum Teil sehr unterschiedliche Ergebnisse bekommen.

Das wusste ich nicht. Eigentlich bescheuert -- wenn sie mich doch dazu bringen wollen, ein Abo abzuschließen, wieso glauben sie da dass es mich überzeugt, wenn sie mir demonstrieren wie ihr Modell versagt?

Zitat
Mehr Informationen würden helfen, die Situation besser einzuordnen, denn so krasse Halluzinationen habe ich schon seit längerem nicht mehr gesehen.

Naja, ich mag jetzt nicht den ganzen Eingangstext hier reinpasten, das würde den Rahmen sprengen. Aber gerne hier einen Auszug aus dem betreffenden Chat. Wohlgemerkt _nachdem_ ich bereits einmal einen Satz reklamiert hatte, den ich angeblich geschrieben hätte obwohl das nicht der Fall war. 4o entschuldigt sich also dafür und fährt dann fort:

ChatGPT said:
[...]
Wenn du möchtest, schaue ich die entsprechende Passage noch einmal konkret an und formuliere, was mir daran auffiel – aber ohne mir Dinge auszudenken, die gar nicht drinstehen. Möchtest du das?

You said:
Ja bitte, zitiere die betreffende Stelle und mache dann Vorschläge

ChatGPT said:
Gerne. Ich beziehe mich auf diesen Abschnitt:

Sie starrte durch die Scheibe auf die schmutzige, grauweiße Landschaft, die sich träge unter ihnen vorbeischob. Das war nicht die Venus, wie man sie von Bildern kannte: leuchtend, brodelnd, golden. Das hier war das echte Gesicht des Planeten. Ein atmungsaktives Miasma aus Schwefelsäure und CO₂, das sich im Licht eines fernen, rötlich gefilterten Sonnenpunkts verlor. Und irgendwo dort draußen befand sich ein havarierter Tanker mit einer Leiche an Bord.

--

Diesen Absatz finde ich eigentlich recht gelungen, aber leider hat er NICHTS damit zu tun was ich eingegeben hatte. In meinem Text kam weder die Venus vor noch ein havarierter Tanker und auch keine Leiche. Mein Text war komplett anders. Es geht um einen Start von der Erde in den Orbit. Die einzige Stelle, die irgendeine entfernte Ähnlichkeit aufweist, lautete:

Die Sterne im Hintergrund bewegten sich gleichmäßig über den Schirm, aber der in der Mitte blieb wo er war. Da schob sich vom unteren Rand etwas anderes in das Panorama – eine Krümmung in blau, weiß und grün. Die Erde. So tief unter ihr – und sie schien unter ihr wegzufallen, wurde kleiner. In letzter Sekunde riß sie sich eine Tüte heran und ließ ihrem Mageninhalt freien Lauf.

Ich erwarte jetzt auch hier keine Lösung oder weitergehende Erklärung über das, was du schon gesagt hast (zu viele Tokens) hinaus. Ich find es aber einfach irre dass das überhaupt passieren kann. Statt dass das System einfach sagt "Hoppla, das war zuviel auf einmal, bitte aufdröseln".
Der :T:-Sprachführer: Rollenspieler-Jargon

Zitat von: ErikErikson
Thor lootet nicht.

"I blame WotC for brainwashing us into thinking that +2 damage per attack is acceptable for a fighter, while wizards can get away with stopping time and gating in solars."

Kleine Rechtschreibhilfe: Galerie, Standard, tolerant, "seit bei Zeit", tot/Tod, Stegreif, Rückgrat

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.723
  • Geschlecht: Männlich
  • Username: sma
Ich lasse bisher das ChatGPT auf "Auto"
Isch 'abe gar kein Auto.

Da ich meist Dinge frage, die Nachdenken erfordern, bin ich eigentlich immer auf o4-mini-high, außer ich denke, dass o3 oder 4.5 vielleicht besser ist. Aber dann wechsle ich meist eh zu Claude ;-) Als "Plus" User kann ich glaube ich auch nicht das volle Programm ausschöpfen, weil mich OpenAI zu "Pro" upsellen will.

Wenn du über längere Texte sprechen willst, würde ich Gemini 2.5 empfehlen. Die Flash-Version sollten doch auch frei (d.h. zum Preis deiner Daten) verfügbar sein, oder? Ansonsten kann man über <aistudio.google.com> auch direkt auf das LLM zugreifen, ohne einen gezuckerten Chat, der einem mit angepassten Systemprompts gefallen will (obwohl, selbst das rohe Gemini ohne Systemprompt ist neuerdings ein Arschkriecher).

Hier ist ein Beispiel, wo ich 2.5 Pro Preview 05-06 dazu bringen wollte, mir ein 30-seitiges Quellenbuch zu erzeugen. Mit eine Stunde formatieren, wo Gemini gerade mal 3 Minuten für den Text gebraucht hat, komme ich auf 24 Seiten. Es sind ~6100 Wörter für ~13k Token.

Zitat
...das eine Modell mit den Antworten des anderen konfrontiert.
Ja, das habe ich auch schon erfolgreich versucht.

Zitat
Das wusste ich nicht. Eigentlich bescheuert -- wenn sie mich doch dazu bringen wollen, ein Abo abzuschließen, wieso glauben sie da dass es mich überzeugt, wenn sie mir demonstrieren wie ihr Modell versagt?
Ich glaube, die denken, das funktioniert für die Frust-Schiene. Mal will bezahlen, weil sonst die Ergebnisse so schlecht sind ;-) Ne, keine Ahnung. Dass ein kostenloses Modell nicht so viel kann, wäre ja okay, wenn es denn wenigstens transparent kommuniziert wird. Aber mit diesen du kannst "bis zu 200k Token nutzen" Aussagen, kann man ja gar nichts anfangen. Dass wie wie "bis zu 1 GB/s" bei Glasfaser und es ist trotzdem langsam.

Offline Haukrinn

  • BÖRK-Ziege
  • Mythos
  • ********
  • Jetzt auch mit Bart!
  • Beiträge: 11.992
  • Geschlecht: Männlich
  • Username: haukrinn
Die Interpretation dass die kostenlosen Accounts zum Upgrade auf einen Bezahlaccount einladen sollen, ist übrigens eine Fehleinschätzung. Die kostenlosen Zugänge verfolgen zwei Zwecke:

1. Nutzerzahlen hoch halten. Denn das ist gut fürs Marketing und für Investorenrunden.
2. Daten sammeln. Das machen Bezahlnutzer nämlich nicht mit. Und diese Interaktionsdaten sind halt für die Betreiber immens wertvoll. Und wiegen bei der Kosten/Nutzenabschätzung deutlich schwerer als die Chance, jemanden zum zahlenden Kunden zu machen.
What were you doing at a volcano? - Action geology!

Most people work long, hard hours at jobs they hate that enable them to buy things they don't need to impress people they don't like.