Nach längerer Zeit hier mal wieder ein Bump.
Habe nämlich nach ebenfalls längerer Zeit mal wieder Claude befragt, und dabei ist mir ein signifikanter Unterschied zu cGPT aufgefallen:
Chatty mimt primär den hilfreichen Sekretär, bemüht sich, angeforderte Informationen zu liefern, und schließt seine Antworten meist mit einem weiteren Hilfsangebot ab: "Möchtest du, dass ich dies und das in einer Tabelle zusammenfasse?" oder dergleichen. Ansonsten bleibt es fast immer passiv, mal ganz davon abgesehen dass es generell zu fast allem Ja und Amen sagt was man als Statement hinwirft.
Claude hat zwar ebenfalls diesen Hang zur Speichelleckerei, aber macht eine Sache bedeutend anders: es stellt Rückfragen zur Sache und fragt den User nach dessen Meinung. Wenn es zum Beispiel zu einem diskutierten Problem einen Lösungsansatz liefert, fragt es "would this work? Or does [X] create a [Y] problem?"
Weiss nicht, ob das schon länger so ist, ist mir heute das erste mal aufgefallen.
--
Was wohl prinzipiell auch funktionieren kann: das LLM beauftragen, als Advocatus Diaboli zu agieren, und gezielt Haare in deiner Suppe zu suchen. Das habe ich aber noch nicht probiert. Bislang habe ich lediglich ChatGPT beauftragt, Spekulationen klar als solche zu kennzeichnen, also nicht zu halluzinieren - das klappt so halbwegs.
Was mir aber auch schon aufgefallen ist: zuweilen sitze ich so lange über dem Prompt brütend da, um so klar wie möglich zu fragen und Fehlinterpretationen des LLM auszuschließen, dass ich bei der ganzen Nachdenkerei das Problem schon selbst löse und das LLM gar nicht mehr zum Einsatz kommt.