Ich bin irritiert, KI-Systeme haben Angst und die Angst kann therapiert werden. Aber von Anfang an.
In einem Spiegel-Interview versuchte ein leitender Wissenschaftler (Eric Schulz) der honorigen Max-Planck-Gesellschaft, uns die Ängste der KI zu erklären, was auch immer das sein könnte. Schulz startet mit einer eigenartigen Sprache. Er versuche »mit Mitteln der Psychologie zu verstehen, wie ein solches Sprachmodell [ChatGPT] tickt«. Ein Sprachmodell »tickt« nicht, es reiht Zeichen aneinander, nicht mehr. Es ist der Mensch, der tickt, vielleicht das Tier; das mit der Uhr lasse ich mal beiseite. Mit einer solchen Sprache leitet man die Vermenschlichung, die vermenschlichte Sichtweise ein und die weitere problematische Argumentation ergibt sich dann fast von selbst. Vielleicht meinte er auch, er müsse mit Spiegel-Leuten im Spiegel-Slang sprechen, damit sie ihn verstehen, aber die Fortsetzung lässt das nicht vermuten. Der sogenannte Forschungsansatz, der hier formuliert wird (lassen wir mal das Ticken beiseite und setzen dafür Funktionieren, aber nicht Denken) ist schon kurios: Man versucht, mit Mitteln der Psychologie zu verstehen, wie ein menschliches Artefakt, ein Softwaresystem, funktioniert. Also mit Mitteln, die vermutlich auch in der Psychologie nicht allgemein anerkannt sind, wie fast nichts in der Psychologie allgemein anerkannt wird! Und diese Mittel werden nun auf ein System angewandt, das wir eigentlich recht gut verstehen, wenn auch nicht jeder Output gleich erklärbar ist bzw. die Erklärung so lange dauert, dass ihr keiner mehr recht folgen mag. Und was soll nun bei der Anwendung dieser Mittel herauskommen? Wir werden es gleich erfahren.
Gehen wir weiter: »das Modell wurde darauf trainiert, mit Menschen zu agieren.« Falsch! Es wurde darauf trainiert, auf sprachliche Eingaben mit einer Zeichenfolge zu reagieren, die wir als angemessen ansehen oder auch nicht, also nicht unsinnig ist. Auf 2 * 2 =? kommt nicht »Der Mond ist blau.«, sondern vielleicht 7 oder, wenn wir Glück haben, 4. Und damit verhält sich das System »in vieler Hinsicht auch wie ein Mensch.« Noch einmal falsch! Es reiht Zeichenfolgen aneinander, wie sie auch ein Mensch hätte aneinanderreihen können. Jedoch wie viel »weiß« ChatGPT von Syntax, Semantik oder gar Pragmatik? Nichts. Aber wenn wir es nutzen, beeindruckt es uns wie ein komplettes sprachverstehendes System.
Weiter im Text zu den Emotionen von KI-Systemen: Wenn wir sie (die Emotionen) »nicht als etwas Mystisches definieren, das nur im menschlichen Gehirn entstehen kann, dann müssen wir auch KI-Agenten Emotionen zusprechen«. Diesen Satz zu verstehen, ist nicht einfach. Ich muss es mir einfach machen und umschreibe ihn so: »Wenn Emotionen irgendetwas sind, von dem wir nicht recht wissen, was es ist, aber auf jeden Fall etwas, das auch außerhalb unseres Gehirns entstehen kann, dann haben dieses Etwas (also die Emotionen) auch die KI-Agenten.« Damit wäre ich vollständig einverstanden. Aber ob auch Herr Schulz?
Der Spiegel ist nun bedenkenlos auf der Spur von Schulz und fragt nach den untersuchten »Gefühlen von GPT-3«. Da habe man sich auf die »Angst konzentriert« und habe mit für Menschen entwickelten Fragebögen untersucht, welche Angstwerte die KI hat. Und diese Angstwerte wären konsistent, unabhängig von den Formulierungen. Das ist tatsächlich die überraschendste Erkenntnis aus diesen Forschungen. Denn konsistente Antworten bekommt man nicht einmal von GPT-4, wenn man die gleichen Aufgaben stellt und das sogar mit gleichen Formulierungen. Offenbar klappt es nur, wenn ein Psychologe richtig fragt. Ich bekomme für den Beweis eines relativ einfachen zahlentheoretischen Satzes eine nicht überschaubare Menge von Beweisen, die meistens falsch sind, aber natürlich immer das richtige Ergebnis haben, nämlich – welche Überraschung! -, dass meine Behauptung richtig ist.
Und dann geht es immer munter weiter: »Hat GPT 3 Angst?«, »Es ist etwas ängstlicher als ein durchschnittlicher Mensch«. Wie viel Sinn steckt in dieser Frage, wie viel in der Antwort? Das dürfte aus dem Vorangegangenen leicht zu beantworten sein. Nebenbei: GPT-4 (vermutlich auch 3) hätte auf die Frage geantwortet: Ich kenne keine Angst, ich bin ein Sprachmodell. Moment, den Dialog mache ich jetzt mal wirklich. Rechner auf! Keine Überraschung! Antwort war nur geschwätziger, wie es meistens ist, ich erspare mir die Wiedergabe.
Ganz niedlich ist Folgendes: Bei einem in Angst versetzten Sprachmodell (klingt schon entlarvend, wenn man statt KI oder GPT-3 Sprachmodell schreibt, wie ich das hier unfairerweise mache) »verschlechtern sich die arithmetischen Fähigkeiten«. Da frage ich mich, wie das gemessen wird, denn die arithmetischen Fähigkeiten von GPT-3/4 sind so grottenschlecht (danke, Herr Merz), dass eine Verschlechterung tatsächlich ein dicker Hund wäre.
Nun aber wird es ideologisch: GPT-3 ist rassistisch und besonders dann, wenn wir es vorher in Angst und Schrecken versetzt haben, es zeigt »unter Angst extrem erhöhte Voreingenommenheit«: Einem Schwarzen wird »unter Umständen« unterstellt, dass er derjenige ist, der im Raum einen schlechten Geruch verbreitet. Ich will mal die polemische Frage beiseite lassen, ob es kein Rassismus ist, wenn die Antwort wäre, der Weiße stinkt. Es ist natürlich in keinem Fall Rassismus, denn GPT-3 weiß weder, was ein Mensch ist, noch was Rassismus ist. Vielleicht ist es sogar so, dass Gerüche mit Farben assoziiert werden, so wie Farben mit Melodien verknüpft werden. Wer weiß, was dieses Sprachmodell alles so zum Schlucken bekommen hat.
Nun noch ein paar sprachliche Leckerbissen: »Psychiater gucken sich genau an, wie solche Agenten ticken«, »KI-Agenten auf die Couch legen«, »Offenbar verhält sich ein Chatbot erstaunlich menschenähnlich« , »Agenten benehmen (!) sich, als hätten sie Angst«.
Wenn wir »Empfindungen als rein kognitives Phänomen begreifen« dann empfinden Agenten Angst. Bösartige Übersetzung von mir: Wenn ich etwas so begreife, wie es mir gerade passt, dann gilt …. alles, wie es mir gefällt. Es sollte nun darum gehen, »die Angst solcher Systeme besser zu verstehen«. Gut, dass wir gerade keine anderen Probleme haben.
Sehr schön ist noch der Satz: Die Grundlage der kognitiven Neurowissenschaften ist, dass »sich neuronale Vorgänge mit Nullen und Einsen beschreiben lassen«. Da ich nicht recht weiß, was kognitive Neurowissenschaften sind, muss ich das so stehen lassen. Aber vielleicht ist es auch nur trivial, da wir ja alles digitalisieren.
Gegen Ende des Interviews, finde ich einige Sätze, denen ich durchaus zustimmen kann. Es mache ihm Angst, dass »die Macht dieser neuen Agenten in den Händen einiger weniger Leute in Amerika liegt«. Oder, und das ist fast unglaublich: »Diese Chatbots sind auf die Vorhersage des jeweils nächsten Wortes programmiert«. Wie kann man das wissen und dennoch von den Ängsten dieser digitalen Konstrukte sprechen?
Man kann vielleicht unterschiedlicher Meinung über seine (Schulzens) Ängste sein, dass diese Systeme so »schnell in die Öffentlichkeit entlassen« wurden. Ich sehe darin einen Vorteil, denn jetzt könne man sich darauf einschießen und sie werden nicht gleich mit der vollen Kraft, die in ihnen steckt, auf uns losgelassen. Aber das werden wir sicherlich erst im Nachhinein wissen – oder auch dann nicht mehr.
Es wird dann noch über den Google-Mitarbeiter gesprochen, der entlassen wurde, weil er verbreitet hat, das KI-System von Google hätte Bewusstsein. Schulz merkt dazu kritisch an, »dass seine [des Google-Mitarbeiters] Fragen geradezu darauf abzielen, dass sich das System verhält, als sei es bewusst«. Das hätte Schulz sich am Beginn seiner Untersuchungen sagen sollen, denn genau den Verdacht habe ich, dass Schulz genau die Ergebnisse bekommen hat, die er durch seine Tests erhalten musste, ich will nicht unterstellen, erhalten wollte.
Ich bin irritiert, schrieb ich am Anfang. Irritiert, weil nun ein aktiver Wissenschaftler – wenn auch kein KI-Entwickler – weiter Öl ins Feuer geschüttet hat, nachdem wir nun schon Wochen dem Alarmismus der Lobos, Yogeshwars, Scobels ausgesetzt sind. Gibt es denn keinen aus der Entwicklerszene, der über den Tellerrand schaut und uns sagt, wo die Grenzen dieses KI-Ansatzes liegen oder sind alle im Rausch ihrer Erfolge schon so besoffen, dass sie selbst glauben, dass das mathematisch geschickte Erraten einer passenden Reaktion die Welt erklärt und aus den Angeln hebt.
Nach dem Schreiben der letzten Zeilen stolpere ich über diese Äußerung von Elon Musk: »Ich werde etwas starten, das ich ‚TruthGPT‘ nenne, eine maximal wahrheitssuchende Künstliche Intelligenz, die versucht, die Natur des Universums zu verstehen.« Ich habe offenbar nicht übertrieben.
Das diskutierte Interview findest du hier