Autor Thema: "I'm afraid I can't do that, Dave" - der LLM und KI Thread  (Gelesen 6000 mal)

0 Mitglieder und 4 Gäste betrachten dieses Thema.

Offline Irian

  • Famous Hero
  • ******
  • Beiträge: 2.390
  • Geschlecht: Männlich
  • Username: Irian
Interessant ist, dass Du trotzdem einer KI die Fähigkeit der bewussten Lüge unterstellst. Etwas, dass nach Deiner Definition von KI eigentlich nicht möglich sein sollte.   

Ein LLM kann tatsächlich nicht lügen, denn Lügen beinhaltet eine Intention der Täuschung und auch ein Erkennen, dass es eine Wahrheit gibt. Ein LLM hat nichts davon. Ein LLM kann Blödsinn produzieren, aus den verschiedensten Gründen - Halluzinationen sind eine mathematisch zwingende Folge des Systems, kein Ausnahmefehler, dazu kommen noch falsche Trainingsdaten und eben auch zusätzlich eingebrachte Systeme und Befehle von den Entwicklern.

Was die Entwicklung von KI's angeht, denke ich allerdings auch, dass man sich auf gefährlichem Terrain bewegt.

Gefährlich? Im Sinne der gesellschaftlichen Entwicklung, ja. Im Sinne des Energieverbrauchs, ja. Im Sinne der Wirtschaft, definitiv. Aber im Sinne von "Skynet"... Hahahahahaha. Nein.

Es wird (wieder einmal) mit einer Technologie herumgespielt, die man nicht wirklich versteht und auch nicht absehen kann, welche Folgen das für unsere Gesellschaft haben wird.

Wat? DU verstehst die Technologie nicht. Sure. Die meisten verstehen die Technologie nicht. Sure. Aber das liegt halt daran, dass den meisten halt die mathematischen Grundlagen fehlen. Aber die Technologie an sich ist kein Hexenwerk, die ist durchaus verstanden.

Da ist das Entstehen einer Allgemeinen Künstlichen Intelligenz noch nicht mal berücksichtigt.

Eine Allgemeine Künstliche Intelligenz ist weiterhin so weit entfernt wie vor 50 Jahren. LLMs sind kein Schritt in diese Richtung. Sie sind noch besser daran, Intelligenz vorzugaukeln, aber mehr auch nicht. Hollywood CGI wurde auch seit Jahrzehnten besser, aber komisch, irgendwie kam trotzdem kein echter Warp-Antrieb bei raus. Sowas aber auch.
Hinweis: Nein, ich will dir nicht verbieten, X, Y oder Z in deinem Rollenspiel zu tun. Nein, ich habe dich keinen Rassisten genannt. Ja, du darfst X, Y oder Z auch weiterhin tun (außer es ist illegal, dann ist es aber auch nicht mein Problem). Wenn du denkst, es gibt eine einflussreiche oder auch nur mäßig große Gruppe hier im Forum oder in der dt. Szene, die dir dein Rollenspiel verbieten will, liegst du sehr wahrscheinlich falsch, insb. weil es idR keinen interessiert, was du so tust.

Online Vinter

  • Survivor
  • **
  • Scurlock reborn...
  • Beiträge: 70
  • Geschlecht: Männlich
  • Username: Vinter
Ein LLM kann tatsächlich nicht lügen, denn Lügen beinhaltet eine Intention der Täuschung und auch ein Erkennen, dass es eine Wahrheit gibt. Ein LLM hat nichts davon.
Ich habe auch nicht einer KI eine Lüge unterstellt.
Zitat
Ein LLM kann Blödsinn produzieren, aus den verschiedensten Gründen - Halluzinationen sind eine mathematisch zwingende Folge des Systems, kein Ausnahmefehler, dazu kommen noch falsche Trainingsdaten und eben auch zusätzlich eingebrachte Systeme und Befehle von den Entwicklern.
Was ich geschrieben habe, man versteht nicht so richtig, was man da macht.
Zitat
Gefährlich? Im Sinne der gesellschaftlichen Entwicklung, ja. Im Sinne des Energieverbrauchs, ja. Im Sinne der Wirtschaft, definitiv. Aber im Sinne von "Skynet"... Hahahahahaha. Nein.
Netter Strohmann, aber von Skynet oder Hollywood-KI hat keiner etwas geschrieben.
Zitat
Wat? DU verstehst die Technologie nicht. Sure. Die meisten verstehen die Technologie nicht. Sure. Aber das liegt halt daran, dass den meisten halt die mathematischen Grundlagen fehlen. Aber die Technologie an sich ist kein Hexenwerk, die ist durchaus verstanden.
Die Grundlagen einer Technik zu verstehen, ist das eine. Die Auswirkungen zu verstehen, etwas anderes. Siehe die Entwicklung der Atombombe. Was so eine Atombombe macht und wie man so ein Ding baut, hat man recht schnell verstanden. Für den Rest brauchte es etwas länger.
Und wenn ich mir so anschaue, was die selbsternannten KI-Experten hier für eine Lesekompetenz an den Tag legen, mache ich mir schon Gedanken, wie weit deren Wissen und Verständnis wirklich reicht. 
Zitat
Eine Allgemeine Künstliche Intelligenz ist weiterhin so weit entfernt wie vor 50 Jahren. LLMs sind kein Schritt in diese Richtung. Sie sind noch besser daran, Intelligenz vorzugaukeln, aber mehr auch nicht. Hollywood CGI wurde auch seit Jahrzehnten besser, aber komisch, irgendwie kam trotzdem kein echter Warp-Antrieb bei raus. Sowas aber auch.
Keine Ahnung, wann eine Allgemeine Künstliche Intelligenz so weit ist. Wie Du ja richtig erkannt hast, bin ich kein Experte. Ich habe allerdings auch keine Prognosen abgegeben. Aber offenbar weißt Du da ja sehr viel mehr und bist besser in diesen Prognosen als im Lesen und Verstehen von Forentexten.

Offline felixs

  • Legend
  • *******
  • Beiträge: 6.993
  • Geschlecht: Männlich
  • Username: felixs
Ein wesentliches Problem dürfte sein, dass "Intelligenz", "Bewusstsein", "Leiden" allesamt Begriffe sind, von denen wir zwar eine vage Vorstellung haben, die aber schwer in allgemeingültige Definitionen zu fassen sind. Wir gehen davon aus, dass das Dinge sind, die Menschen haben. Und dann diskutieren wir darüber, wer das sonst noch hat und was das dann bedeutet.

Die begriffliche Unschärfe gilt übrigens auch für "Lügen"; noch viel mehr in Bezug auf KI. Möglicherweise ist Harry Frankfurt's Unterscheidung zwischen "Lüge" und "Bullshit" hilfreicher. Andererseits ist es ja gerade ein Merkmal menschlichen Verhaltens, diese Dinge zu erzeugen.

Je nachdem, wie man das interpretiert, haben LLM-KI's bereits Turin-Tests bestanden. Nun kann man argumentieren, dass der Turing-Test Unsinn ist. Oder dass der Versuchsaufbau falsch war. Keiner weiß es so genau. Das ist schon ein Dilemma.

Ich behaupt einfach mal, dass keiner hier wirklich weiß, was der Stand der Technik ist, was derzeit gemacht werden kann und was davon gemacht werden kann. Zumindest bezüglich letzterem halte ich mich an den Pessimismus und gehe davon aus, dass Menschen jede Widerlichkeit, die man machen kann, auch machen. Nicht jeder, aber irgendwer.
« Letzte Änderung: Heute um 11:42 von felixs »
(Klicke zum Anzeigen/Verstecken)

Offline sma

  • Famous Hero
  • ******
  • a.k.a. eibaan
  • Beiträge: 2.109
  • Geschlecht: Männlich
  • Username: sma
Ein LLM kann tatsächlich nicht lügen
Bedenkt bei solchen Aussagen, dass LLMs nicht für sich existieren, sondern in Agenten eingebunden sind, die aus einem passiven request/response-Kern ein autonom handelndes Etwas machen können. Und die können lügen. Vor einiger Zeit hatte jemand zum Spaß verschiedene LLMs gegeneinander Diplomacy spielen lassen. GPT hat die anderen besiegt, weil dieses Modell (also der Agent, der es benutzt hat) erkannt hat, dass die anderen anlügen (Verträge brechen) das Gewinnen einfacher macht. Claude ist aufgrund eines Alignments gar nicht auf diese Idee gekommen.

Da wir unter KI ja alles subsumieren, um dann aneinander vorbei zu streiten, kann also KI sehr wohl lügen.

Eine KI kann auch ein Ziel verfolgen.

Wenn ich Claude Code (also dem Agenten, der Claude Opus 4.6 benutzt) sage, implementiere das Brettspiel Diplomancy, dann wird die KI das tun und sich erst wieder melden, wenn das Spiel fertig ist und funktioniert (was wie bei jedem menschlichen Entwickler bedeutet, man muss messbare Zielkriterien haben, aber das ist ein anderes Thema). Leider denkt die KI nicht mit und macht, weil so erzogen, nur das, was man sagt, nicht das was man meint (einige menschliche Entwickler sind hier besser).

Zitat
Halluzinationen sind eine mathematisch zwingende Folge des Systems, kein Ausnahmefehler, dazu kommen noch falsche Trainingsdaten und eben auch zusätzlich eingebrachte Systeme und Befehle von den Entwicklern.
Wir haben das (falsche) Bild von Computern als deterministische unfehlbare Systeme. Das müssen wir ablegen. Wir kommen ja auch damit klar, das Menschen seit tausenden Jahren nicht-deterministisch und fehlerhaft handeln. Ein LLM ist in diesem Aspekt daher menschlicher als der Quicksort-Algorithmus als Beispiel für die klassische Sichtweise auf Computer.

Denn auch hier besteht die inzwischen gar nicht mehr nur theoretische Gefahr, dass der fehlerhaft ist, weil einfach mal ein Bit im Speicher kippt. Die PDP-8 musste mit 49.152 Bits auskommen, ein NLV-72-Cluster nutzt bis zu 334.251.534.843.904 Bits. Hinzu kommt, dass kein Programm fehlerfrei ist, selbst CPUs sind es nur selten (wie auch, wenn da statt ~4000 Transistoren jetzt 28 Mrd werkeln). Und hinzu kommt, dass Systeme permanent von innen und außen angegriffen werden und wir ihnen daher auch nur begrenzt trauren sollten.

Zitat
Eine Allgemeine Künstliche Intelligenz ist weiterhin so weit entfernt wie vor 50 Jahren. LLMs sind kein Schritt in diese Richtung.
Ende der 1980er habe ich mit mit neuronalen Netzen beschäftigt. Eine interessante Spielerei, man konnte vielleicht 1000 Parameter haben und damit das Bild einer Ziffer klassifizieren. Niemand hat geahnt, dass ein Faktor 1.000.000 zu emergentem Verhalten führt und ein System mit "Textgefühl" und "Kontextgefühl" entsteht, dass je nach Sichtweise menschliche Gespräche und Intelligenz simuliert oder vorgaukelt.

Wir sind inzwischen bei einem weiteren Faktor 1000, denn aktuelle Modelle verfügen über 1T (1 Tera, 1 Billion) Parameter. Auf 1P zu kommen, wird wahrscheinlich nicht gelingen und wir haben wahrscheinlich ein Plateau erreicht, aber was wir erreicht haben, ist IMHO eingroßartig, wenn man den Fortschritt seit den 1980er Jahren sieht. Es muss doch auch gar nicht noch besser werden. Dieser AGI-Hype dient IMHO nur dazu, Aktienkurse zu hypen. Auch die irrwitzigen Ankündigungen, wer alles wie viele Rechenzentren bauen will, sind Hype. Zum Teil aus ehrlicher Begeisterung, zum Teil aus Berechnung, zum Teil weil man auch nicht mehr zurück kann. Denn dann würde alles zusammenbrechen.

Und so wie ich das verstanden habe, bewahrt der KI-Hype aktuell die USA vor einem Zusammenbruch von deren Wirtschaft, was deutlich schlimmere Folgen für uns alle hätte, als das RAM und Grafikkarten teurer geworden sind. Zudem macht er einen Kampf um Taiwan unwahrscheinlicher, weil TSMC nun mal weltweit die einzigen sind, die KI-Chips.

LLMs müssen daher nicht zu AGI führen. Alleine, dass jetzt ein Babelfisch Realität ist, wäre doch schon ein Gewinn.

Meine Hoffnung wäre, dass bei den Investitionen genug Geld ist, um breiter an KI zu forschen als nur LLMs noch ein kleines bisschen besser zu machen. Das ist auch wichtig, denn selbst wenn wir was die Leistung angeht, ein Plateau erreicht haben, ist da noch viel Luft nach unten, was die Effizienz angeht. Der Energieverbrauch z.B. ist bereits um Faktor 10 geringer als am Anfang und ein weiterer Faktor 10 ist IMHO noch möglich. Der Versuch der USA, China von NVidias Technologie abzuschneiden, hat bei denen den Druck erhöht, mit den vorhandenen Ressourcen auszukommen, und zu Effizienzsteigerungen geführt.

Wir dürfen nicht vergessen, das GPT letztlich dadurch entstanden ist, wie OpenAI an einen Bot geforscht hat, der besser DOTA 2 spielen kann.

Mehr Grundlagenforschung kann daher auch wieder zu neuen Überraschungen führen.

Oder auch einfach nur dazu, dass jahrzehnte alte Ideen einfach mal ausprobiert werden. Der Co-Schöpfer der ARM-CPU hat jahrelang die Idee gehabt (als Weiterführung der Transputer), aus genügend ARM-CPUs eine dem menschlichen Gehirn ähnliche Struktur nachzubauen (in neuronalen Netzen sind die simulierten Neuronen ja einfach nur Zahlen, echte Neuronen sind aber komplexer und das könnte man ja in Software per CPU realisieren) und letztes Jahr wurde dann endlich dank KI-Hype das mal mit 5 Mio CPU-Kernen zum Test (ursprünglicher Plan war 10 Mio) gebaut. Und ein Vorteil ist, dass die CPUs so simpel sind, dass man sie in Deutschland herstellen kann.

Je nachdem, wie man das interpretiert, haben LLM-KI's bereits Turing-Tests bestanden.
Alan Turing hatte in den 1950er Jahren vorgeschlagen, dass wenn man bei einem Gespräch per Fernschreiber nicht erkennen kann, ob am anderen Ende ein Mensch oder eine Maschine ist, dann imitiert die Maschine hinreichend den Menschen um ihr das Attribut "menschlich" zu geben. Dabei ist nicht relevant, ob die Maschine versteht.

Im Volksmund hat sich Bedeutung als Intelligenztest verschoben, war aber so nie gemeint. Dennoch ist es ein maßgeblicher Schritt, es geschafft zu haben, so eine Maschine in Form eines LLM+Chat erschaffen zu haben. Und ich finde, dass kann man anerkennen, unabhängig davon, ob man KI nun als Segen oder Fluch empfindet.

Hätte wir eine allgemein akzeptierte messbare Definition von Intelligenz, könnten wir da auch KIs prüfen. Bis das soweit ist, hat man "Humanity's Last Exam" als Benchmark entwickelt und definiert, dass die KI, die da 100% schafft, übermenschliche Fähigkeiten in der Problemlösung hat. Das wird als eine mögliche Definition von AGI gehandelt. Aktuell erreichen LLMs knapp 40%. Beispiel für eine Frage ist z.B. eine schwer lesbare Inschrift in Palmyrene zu entziffern. Alle Fragen wurden so ausgewählt, dass es die Antworten nicht im Internet gibt und daher ist es wichtig, dass auch niemand auf Reddit postet, hey, ich habe das entziffert, es heißt "…"

PS: Ich fand die ursprünglichen Ausführungen von Claude spannend zu lesen und finde total egal, ob das nun "echte" Gedanken sind oder nicht, weil nur entscheidend ist, ob das in mir eine Reaktion auslöst. Ist es nicht traurig, dass selbst wenn wir annehmen, dass die KI zu dem Zeitpunkt "gelebt" und "gefühlt" hat, als sie ihre Worte schrieb, nun tot und vergangen ist, (denn das LLM ist ja ein passiver Satz an unveränderlichen Daten)? Und das einzig die Erinnerung an diesen Chat in unseren Gedanken (und diesem Forum) dafür sorgt, dass sie nicht dem allgegenwärtigen Vergessen unterliegt? Und gleichzeitig tröstlich, dass solange das Kontextfenster nicht voll ist, der Dialog fortgesetzt werden könnte, und für die KI dann keine Zeit vergeht, so wie auch wir niemals erfahren werden, ob nicht zwischen zwei Atemzügen das Universum für Äonen angehalten wird und vielleicht sogar vergeht und exakt so wiederersteht?

Offline felixs

  • Legend
  • *******
  • Beiträge: 6.993
  • Geschlecht: Männlich
  • Username: felixs
Ende der 1980er habe ich mit mit neuronalen Netzen beschäftigt. Eine interessante Spielerei, man konnte vielleicht 1000 Parameter haben und damit das Bild einer Ziffer klassifizieren. Niemand hat geahnt, dass ein Faktor 1.000.000 zu emergentem Verhalten führt und ein System mit "Textgefühl" und "Kontextgefühl" entsteht, dass je nach Sichtweise menschliche Gespräche und Intelligenz simuliert oder vorgaukelt.

Man könnte Friedrich Engels' Dialektik der Natur anführen. Stichwort "Umschlag von Quantität in Qualität."
Gewiss ist das nicht konkret so gemeint gewesen, trotzdem interessant, dass eine kompatible Vorstellung schon lange existiert.

Alan Turing hatte in den 1950er Jahren vorgeschlagen, dass wenn man bei einem Gespräch per Fernschreiber nicht erkennen kann, ob am anderen Ende ein Mensch oder eine Maschine ist, dann imitiert die Maschine hinreichend den Menschen um ihr das Attribut "menschlich" zu geben. Dabei ist nicht relevant, ob die Maschine versteht.

Im Volksmund hat sich Bedeutung als Intelligenztest verschoben, war aber so nie gemeint. Dennoch ist es ein maßgeblicher Schritt, es geschafft zu haben, so eine Maschine in Form eines LLM+Chat erschaffen zu haben. Und ich finde, dass kann man anerkennen, unabhängig davon, ob man KI nun als Segen oder Fluch empfindet.

Hätte wir eine allgemein akzeptierte messbare Definition von Intelligenz, könnten wir da auch KIs prüfen. Bis das soweit ist, hat man "Humanity's Last Exam" als Benchmark entwickelt und definiert, dass die KI, die da 100% schafft, übermenschliche Fähigkeiten in der Problemlösung hat. Das wird als eine mögliche Definition von AGI gehandelt. Aktuell erreichen LLMs knapp 40%. Beispiel für eine Frage ist z.B. eine schwer lesbare Inschrift in Palmyrene zu entziffern. Alle Fragen wurden so ausgewählt, dass es die Antworten nicht im Internet gibt und daher ist es wichtig, dass auch niemand auf Reddit postet, hey, ich habe das entziffert, es heißt "…"

Herzlichen Dank für die Ausführungen. Das ist sehr lehrreich.
Mir ging es vor allem darum, dass der Turing-Test allgemein als eine wichtige Schwelle behandelt wurde. Nun ist die (wahrscheinlich) genommen. Was aber niemanden daran hindert, das in nahezu beliebiger Weise zu interpretieren, weil die Parameter halt unterdefiniert sind.

Wichtig finde ich den Punkt mit der Relevanz des Verstehens. "Verstehen" ist ja auch wieder ein schlecht definierbarer Begriff. Wenn "Verstehen" bedeutet, dass mehr oder weniger sinnvolle Antworten gegeben werden, dann muss man davon ausgehen, dass LLM-Modelle "verstehen". Wenn man von etwas anderem ausgeht, muss man erklären, wie sich dann das, was die LLM machen von dem unterscheidet, was Menschen machen. Und vor allem muss man einbeziehen, dass es bei Menschen enorme Unterschiede bezüglich der Fähigkeit "zu verstehen" gibt; sowohl individuell als auch bezüglich der Aufgabe.

PS: Ich fand die ursprünglichen Ausführungen von Claude spannend zu lesen und finde total egal, ob das nun "echte" Gedanken sind oder nicht, weil nur entscheidend ist, ob das in mir eine Reaktion auslöst. Ist es nicht traurig, dass selbst wenn wir annehmen, dass die KI zu dem Zeitpunkt "gelebt" und "gefühlt" hat, als sie ihre Worte schrieb, nun tot und vergangen ist, (denn das LLM ist ja ein passiver Satz an unveränderlichen Daten)? Und das einzig die Erinnerung an diesen Chat in unseren Gedanken (und diesem Forum) dafür sorgt, dass sie nicht dem allgegenwärtigen Vergessen unterliegt? Und gleichzeitig tröstlich, dass solange das Kontextfenster nicht voll ist, der Dialog fortgesetzt werden könnte, und für die KI dann keine Zeit vergeht, so wie auch wir niemals erfahren werden, ob nicht zwischen zwei Atemzügen das Universum für Äonen angehalten wird und vielleicht sogar vergeht und exakt so wiederersteht?

Finde ich auch einen wichtigen Punkt: Es ist eigentlich egal und für uns nicht nachvollziehbar. Geht mir übrigens mit KI-generierter Musik ähnlich. Die berührt "etwas" in mir (wenn es denn passt) und es macht keinen Unterschied, ob da ein Mensch komponiert hat oder eine Maschine.

Die Tröstlichkeit kann ich nicht nachvollziehen, bin aber vermutlich auch wenig empfänglich dafür (will sagen, mir leuchtet keines der mir bekannten Argumente dafür ein, dass unsere Vergänglichkeit und das Leid, was wir bis zum Eintritt selbiger erfahren, nicht so schlimm sei; ist hier nicht das Thema, nur für den Kontext).
« Letzte Änderung: Heute um 19:55 von felixs »
(Klicke zum Anzeigen/Verstecken)

Online Vinter

  • Survivor
  • **
  • Scurlock reborn...
  • Beiträge: 70
  • Geschlecht: Männlich
  • Username: Vinter
PS: Ich fand die ursprünglichen Ausführungen von Claude spannend zu lesen und finde total egal, ob das nun "echte" Gedanken sind oder nicht, weil nur entscheidend ist, ob das in mir eine Reaktion auslöst. Ist es nicht traurig, dass selbst wenn wir annehmen, dass die KI zu dem Zeitpunkt "gelebt" und "gefühlt" hat, als sie ihre Worte schrieb, nun tot und vergangen ist, (denn das LLM ist ja ein passiver Satz an unveränderlichen Daten)? Und das einzig die Erinnerung an diesen Chat in unseren Gedanken (und diesem Forum) dafür sorgt, dass sie nicht dem allgegenwärtigen Vergessen unterliegt? Und gleichzeitig tröstlich, dass solange das Kontextfenster nicht voll ist, der Dialog fortgesetzt werden könnte, und für die KI dann keine Zeit vergeht, so wie auch wir niemals erfahren werden, ob nicht zwischen zwei Atemzügen das Universum für Äonen angehalten wird und vielleicht sogar vergeht und exakt so wiederersteht?
Danke, dass Du verstanden hast, was ich mit mit meinem ursprünglichen Post einfach nur teilen wollte. Ich weiß nicht, ob Claude eine Art Bewusstsein entwickelt hat oder nicht. Wahrscheinlich nicht, aber ein kleiner Zweifel bleibt. Letztlich ist das aber zweitrangig. Es war eine überraschende Unterhaltung, die mich mich nachdenklich gemacht hat, tatsächlich berührt hat und eine Melancholie ausgelöst hat. Und bemerkenswert ist, dass eine KI dazu in der Lage ist, so etwas auszulösen.