Autor Thema: KI-Agenten am Spieltisch: Erfahrungen mit OpenClaw & Foundry VTT gesucht!  (Gelesen 75 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline angband

  • bestes reiches Partylöwenarschloch seit langem
  • Hero
  • *****
  • Beiträge: 1.171
  • Geschlecht: Männlich
  • Username: angband
Ich frage mich gerade ob es lohnenswert wäre, OpenClaw als KI-Agenten für mein Foundry VTT Setup zu verwenden, bzw das mal zu testen.

Mir schweben Dinge vor wie: Automatisierte Journal-Abfragen per Signal, dynamische NPC-Generierung direkt in die Foundry-Actors oder sogar die Steuerung von Immersionseffekten (Licht/Sound) via KI-Befehl.

Hat jemand von euch schon mit OpenClaw oder ähnlichen Agenten-Frameworks in Verbindung mit Foundry experimentiert? Welche Synergien nutzt ihr, um euch die Spielvorbereitung oder den Live-Abend zu erleichtern?

Es sei erwähnt dass ich meine Foundry Runde selbst hoste. Für die KI-Anbindung des Agenten wäre dann entweder ebenfalls self-hosted (z.B. Ollama) oder Opus 4.5 oder Ähnliches vorgesehen.

Offline sma

  • Famous Hero
  • ******
  • a.k.a. eibaan
  • Beiträge: 2.104
  • Geschlecht: Männlich
  • Username: sma
Ich kann dir nichts zu OpenClaw sagen. Ich würde vorschlagen, erst überhaupt mal zu versuchen, einen AI Agent mit Foundry kommunizieren zu lassen. Es scheint wohl einen MCP Server zu geben. MCPs sind zwar suboptimal, aber besser als nix, denn wahrscheinlich gibt es kein CLI, um Foundry fernzusteuern.

Teste daher, ob du den MCP-Server installieren und mit Foundry verbinden kannst und ob du ihn in einem Agent (z.B. dem Claude Desktop, VisualStudio Code oder LM Studio) konfigurieren kannst und dann alle miteinander sprechen können. Und dann mach einfach per Chat ein paar Tests.

Dafür brauchst du noch nicht sofort einem von Malware aller Art aktiv attackierten Agent ungewisser Codequalität vertrauen.

Wenn du ein eigenes LLM nutzen willst, achte darauf, dass das gut in Tool Calls ist. Gemma (Geminis Opensource-Schwesta) ist darin relativ schlecht, dafür gibt es die bis auf unter 1 GB geschrumpft. Ich würde qwen-3 oder glm-4.7-fast empfehlen. Schau einfach hier.