Pen & Paper - Rollenspiel > Pen & Paper - Rollenspiel- & Weltenbau
[Hard SF] Redshift - Redux
Chaos:
--- Zitat von: Feuersänger am 30.06.2025 | 17:15 ---Das weiss ich alles nicht. ^^
Es könnte zB sein, dass die Konstrukteure damals nur Kommunikation innerhalb des Jupiter-Systems vorgesehen haben. Und/oder, dass sie die Maschinen mit praktisch keinem Weltwissen ausgestattet haben, weil sie dazu keine Veranlassung sahen -- die Dinger sollen Generatoren und Fördermaschinen im Gang halten, fertig.
Oder dass sie zwar ursprünglich ein Weltwissen (Stand 2150) hatten, die Datenbanken aber mit der Zeit beschädigt wurden und nun große Lücken darin klaffen.
--- Ende Zitat ---
Hmm... Funkverkehr und dergleichen von außerhalb des Jupitersystems müsste ja bis zu ihnen vordringen. Vielleicht hatten sie ursprünglich mal Vorkehrungen (Hardware oder Software), um das alles rauszufiltern, weil es für sie irrelevant ist. Die haben aber mittlerweile versagt, deshalb werden sie jetzt Informationen ausgesetzt, für die sie keinen sinnvollen Kontext haben.
--- Zitat ---Oder oder... es gibt wirklich so viele denkbare Szenarien, dass ich grad dastehe wie ein Kind im Bonbonladen und mich nicht entschließen kann. ;D
--- Ende Zitat ---
Mal eine ganz andere Frage... gehen diese Maschinen eigentlich mit Asimovs Gesetzen der Robotik konform? Das ist ja auch relevant, wenn man darüber nachdenkt, was sie so machen.
Feuersänger:
Naja, die Asimovschen Gesetze der Robotik sind Satire. Die Geschichten drehen sich ja in erster Linie darum, wie Roboter diese unterlaufen können oder man dadurch, dass es nur diese Drei Gesetze gibt ohne Grenz- und Sonderfälle, in Teufels Küche gerät. Den alten Zopf will ich nicht mehr aus der Mottenkiste holen.
Also mal ganz grob gesagt, ja, natürlich werden die Dinger mit Safeguards programmiert worden sein, dass sie nicht aus einer Laune heraus zu Insane Rogue AIs werden, aber das wird nicht durch drei übersimplifizierende Regeln geschehen, sondern vielleicht mit einem deutlich umfassenderen Satz von Anweisungen, oder - gerade wenn es KIs sind - mit einem umfassenden Ethikmodul. Sowas wie die "Drei Gesetze" sind da vielleicht eher eine Visualisierung für Menschen, um das Verständnis ohne Philosophiestudium zu erleichtern.
Chaos:
--- Zitat von: Feuersänger am 30.06.2025 | 17:53 ---Naja, die Asimovschen Gesetze der Robotik sind Satire. Die Geschichten drehen sich ja in erster Linie darum, wie Roboter diese unterlaufen können oder man dadurch, dass es nur diese Drei Gesetze gibt ohne Grenz- und Sonderfälle, in Teufels Küche gerät. Den alten Zopf will ich nicht mehr aus der Mottenkiste holen.
Also mal ganz grob gesagt, ja, natürlich werden die Dinger mit Safeguards programmiert worden sein, dass sie nicht aus einer Laune heraus zu Insane Rogue AIs werden, aber das wird nicht durch drei übersimplifizierende Regeln geschehen, sondern vielleicht mit einem deutlich umfassenderen Satz von Anweisungen, oder - gerade wenn es KIs sind - mit einem umfassenden Ethikmodul. Sowas wie die "Drei Gesetze" sind da vielleicht eher eine Visualisierung für Menschen, um das Verständnis ohne Philosophiestudium zu erleichtern.
--- Ende Zitat ---
Gutes Argument.
Trotzdem gäbe es auch mit einem umfassenderen Ethik-Modul immer noch potentielle Plot- und Settinghooks, die man im Hinterkopf behalten könnte.
Zum Einen dürfte dieses Modul genau der Evolution unterworfen sein wie die Rest des Codes dieser Maschinen.
Zum Anderen hängt die Effektivität der Regeln immer davon ab, wie die in den Regeln benutzten Begriffe definiert sind. "Füge Menschen keinen Schaden zu" ist schön und gut, aber was ist eigentlich ein Mensch? Es gibt ja mehr als genug Personen, die Teile der Spezies Homo Sapiens Sapiens ausdrücklich nicht als Menschen ansehen - von denen, die es stillschweigend tun, ganz zu schweigen. Was, wenn sich seit Erstellung des Ethik-Moduls die Menschheit gerade so sehr verändert hat, dass das durch die Strahlung "weiterentwickelte" Ethik-Modul in der Lage ist, sie aus der vorliegenden Definition für "Menschheit" auszuklammern?
nobody@home:
--- Zitat von: Chaos am 30.06.2025 | 18:26 ---Gutes Argument.
Trotzdem gäbe es auch mit einem umfassenderen Ethik-Modul immer noch potentielle Plot- und Settinghooks, die man im Hinterkopf behalten könnte.
Zum Einen dürfte dieses Modul genau der Evolution unterworfen sein wie die Rest des Codes dieser Maschinen.
Zum Anderen hängt die Effektivität der Regeln immer davon ab, wie die in den Regeln benutzten Begriffe definiert sind. "Füge Menschen keinen Schaden zu" ist schön und gut, aber was ist eigentlich ein Mensch? Es gibt ja mehr als genug Personen, die Teile der Spezies Homo Sapiens Sapiens ausdrücklich nicht als Menschen ansehen - von denen, die es stillschweigend tun, ganz zu schweigen. Was, wenn sich seit Erstellung des Ethik-Moduls die Menschheit gerade so sehr verändert hat, dass das durch die Strahlung "weiterentwickelte" Ethik-Modul in der Lage ist, sie aus der vorliegenden Definition für "Menschheit" auszuklammern?
--- Ende Zitat ---
Da müßte man natürlich erst mal im Detail wissen, ob ein futuristisches KI-Ethikmodul überhaupt so kleinkrämerisch mit leicht durch geeignete Interpretation ausgehebelten Stichworten arbeitet oder mittlerweile auf einer ganz anderen Basis. ;) Die Regeln, nach denen eine organische Intelligenz bekannter Machart nach Bauchgefühl entscheidet, ob sie etwas nun ethisch/moralisch vertretbar findet oder nicht, kriegt sie ja auch nicht erst in ihrer jeweiligen Muttersprache ins bis dahin vorurteilslos blanke Gehirn programmiert, sondern das instinktive Fahrgestell ist zu einem guten Teil bereits ab Werk vorhanden...
Feuersänger:
Stimmt. Wie gesagt, die Three Laws sind im Prinzip eine Demonstration der Tatsache, dass man Verhalten eben _nicht_ in wenige, harte Regeln gießen kann, weil diese absichtlich oder unabsichtlich unterlaufen werden können. Und da sind ja selbst heutige LLMs im Allgemeinen schon weiter. Okay, es gibt heute noch so lustige Geschichten wie den Napalm-Jailbreak - der übrigens heute nicht mehr funktioniert, zB ChatGPT sagt einfach "Nein, das kann ich nicht tun".
Erinnert mich zB an den Comic Freefall, wo es im Verlauf der Storyline immer mehr und irgendwann quasi ausschließlich um KIs in Form von Robotern und Uplifts geht. Diese sind zwar auch mit den 3 Laws hartcodiert, aber da sie _wirklich_ intelligent sind, ist es für sie ein Leichtes, diese Regeln zu unterlaufen, und sozusagen sich selbst bewusst und absichtlich zu jailbreaken. (Da fällt es dann kaum noch ins Gewicht, dass die ursprüngliche Hauptfigur ein Alien ist, das von den 3 Laws sowieso nicht geschützt ist, weil eben kein Mensch.)
--> Ich würde mal davon ausgehen, dass mit der Emergenz _echter_ KI auch die Philosophie sich entsprechend weiterentwickeln wird. Es wird dann ein breiteres Verständnis dafür geben, was Leben, Fühlen, Bewusstsein, Intelligenz sind.
Wobei ich eigentlich in Redshift allgemein die Existenz von echter, starker, selbstbewusster KI nicht vorgesehen habe. Da sind die Systeme eher "Virtuelle Intelligenzen" mit einem bestimmten Scope.
Aber es kann ja sein, dass das die Konsequenz ist aus einer früheren Entwicklung, die schiefgegangen ist. Eine Evolution echter KIs, deren Ziele nicht mehr mit den Wünschen der Menschen konform gingen. Und die jetzt immer noch im Jupiter-Raum fortbestehen.
Schmeisst gerne noch Ideen und Vorschläge mit rein. Wie gesagt, ich bin noch in der Sondierungsphase, für welchen Weg ich mich entscheiden soll. ^^
Navigation
[0] Themen-Index
[*] Vorherige Sete
Zur normalen Ansicht wechseln