KI vermenschlicht?

Nun habe ich mich vor einigen Tagen bewundernd aber auch etwas herablassend über KI geäußert. Letzteres bedauere ich und bitte die KI um Entschuldigung. Echt jetzt! Also da finde ich heute in der New York Times einen Artikel eines Wissenschaftsjournalisten, der einen langen (schriftlichen) Dialog mit dem KI-Chatbot der Suchmaschine BING (Microsoft) geführt hat. Eigentlich wollte ich demnächst meine eigenen Experimente mit den Chatbot ChatGPT hier abspeichern und meinen wenigen Mitlesern zum Amüsement freigeben, aber da läuft mir dieser Dialog über den Weg. Ich möchte jetzt nichts über den Inhalt vorwegnehmen, nur so viel, dass mir mehrfach der Unterkiefer nach unten geklappt ist und ich etliche Male in schallendes Gerichte ausgebrochen bin. Ein festes Urteil über diesen Dialog möchte ich jetzt gar nicht versuchen. Ich muss annehmen dass das alles echt ist, da sowohl der Journalist als auch die New York Times ein Ruf zu verlieren haben.

Den Ablauf dieses Dialogs, bis hin zu den sprachlichen Ausdrücken und der nicht zu beanstandenden Übersetzung ins Deutsche, die Flüssigkeit der Gesprächsführung ist wohl kaum mit „Statistik, Statistik, Statistik “ zu machen, wie ich noch im letzten KI-Eintrag behauptet habe. Aber wie? Keine Ahnung! Auch unsere alte KI war jedenfalls weit von einer solchen Gesprächsführung entfernt, obwohl sich damals schon einige um einen flüssigen Dialog bemüht haben. Besonders bewundere ich hierbei, was ich die „generative Kraft des Systems“ nennen möchte. Habe gerade gelesen, dass man das jetzt unter den neuen KI-lern „Halluzination“ nennt . Man hat nur selten das Gefühl, dass hier bekannte Textbausteine geschickt (aber wie geschickt!) zusammengesetzt werden.

Die deutsche Fassung des Dialogs.

Angst vor der KI

In meiner Zeit als KI-Forscher habe ich wenigstens zwei KI-Hypes erlebt, der dritte trifft mich nun längst außer Dienst. Bei näherer, wenn auch nicht in alle Tiefen gehenden Betrachtung, bin ich zu dem Schluss gekommen, dass diese neue KI viel kann, aber nichts versteht. Im Kontrast dazu könnte man sagen, dass die alte (old-fashioned) KI viel verstanden hat, aber wenig konnte. Dass die Methoden, die man heute erfolgreich verwendet, schon damals bekannt waren und nur wegen zu geringer Rechenpower und Datenmassen nicht zum Zuge gekommen ist, mag ein wenig beleuchten, auf welchem wissenschaftlichen Niveau sich diese heutige KI befindet. Etwas vereinfachend könnte man die wissenschaftliche Basis zusammenfassen als Statistik, Statistik, Statistik. Destotrotz finde ich die heutigen Erfolge fantastisch und bin ein intensiver Nutznießer besonders der Übersetzer und der Spracherkennung. Als schreibfauler Mensch habe ich schon in meiner Jugend von der automatischen Schreibmaschine geträumt, nun ist sie da und ich kann problemlos solche Texte schreiben. Muss ich nun vor dieser stumpfsinnigen KI Angst haben? Bedenken ja, Angst nein. Die Umgestaltung der Arbeitswelt wird nicht einfach. Ich habe Vertrauen in die Generationen nach mir, dass sie das packen. Die total Automatisierung des Verkehrs, wenn sie denn technisch überhaupt möglich sein sollte, erfordert als gesellschaftliche Voraussetzung den totalen Überwachungsstaat. Er müsste dann zuerst da sein, dem fehlt dann aber die Innovationskraft für eine solche Automatisierungsleistung und letztlich wird sie auch fehlen für die Realisierung einer solchen negativen Utopie.

Großartig finde ich die Leistungen in der Mustererkennung, insbesondere natürlich in der Medizin bei der Analyse bildgebender Verfahren. Was hat das eigentlich mit Intelligenz zu tun und dann mit Künstlicher Intelligenz? Der Mensch wird dressiert, stupide auf merkwürdige Bilder zu starren und darin etwas zu erkennen. Das kann die Maschine allemal besser, so wie sie schon immer besser war und letztlich dafür entwickelt wurde, komplexe Rechenoperationen auszuführen.

Das sind nur ein paar Gedanken dazu, die helfen sollen, sich nicht selbst in Angst und Schrecken zu versetzen.

Diesen Beitrag habe ich in eine Facebook-Diskussion eingebracht, die durch einen sehr guten, aber leider auch Angst erzeugenden Podcast des Deutschlandfunks initiiert wurde. Ich verlinke ihn mal hier, um ihn nicht zu verlieren.

Ein Versuch zur Begriffserkärung Künstliche Intelligenz

Nun ist sie in aller Munde, die Künstliche Intelligenz. Sie tritt in Talkshows auf, in Koalitionsvereinbarungen, in EU-Beschlüssen, wird als Wunderwaffe gegen Krebs und Co. gesehen und soll nicht nur unser Leben einfacher machen, sondern auch noch Kriege gewinnen. Ja, geht’s noch?

Ein Hype geht mal wieder durchs Land. Und wer nicht aufspringt, wird abgehängt, verliert den Anschluss an die Weltspitze, wird nie wieder Handelsweltmeister und Fußballweltmeister schon gar nicht. Es ist noch nicht lange her – 10 maximal 15 Jahre – da wurde man belächelt, wenn man von KI sprach. Tote Angelegenheit wurde gesagt oder völlige Unwissenheit, was das denn sei, zugegeben? Aus de großen Buchhandlungen verschwand die Sparte KI – bis dahin noch fast ein Meter lang – und die Bücher verkrümelten sich irgendwo.

Nun sollte man aber innehalten, wenn die KI mit einer Naturnotwendigkeit wie der Klimawandel über uns herfällt und sich fragen, was das denn eigentlich sei. Zunächst zur Schreibweise. Manchmal wird es großgeschrieben „Künstliche Intelligenz“ aber noch häufiger findet man es kleingeschrieben „künstliche Intelligenz“. Da man aber wohl nie die Abkürzung kI sondern immer nur KI findet, darf man fragen, was ist nun eigentlich richtig.

Ich muss ausholen und will mich von zwei Seiten der Problematik nähern. Als wir in den 70er Jahren anfingen, über KI nachzudenken, dafür Forschungsaufträge und -gelder bekamen, gab es auch schon die Kontroverse über Groß- und Kleinschreibung, sie hatte damals aber einen besonderen Grund: die Gegner der KI, und die gab es in der DDR wie in der Bundesrepublik nicht zu wenig, sahen in der Großschreibung eine Art Adelung der KI zur Wissenschaft. Damit wuchs natürlich das Ansehen derer, die die KI vertraten und natürlich der Anspruch auf Forschungsgelder. Und immer dann, wenn die KI die Erwartungen nicht erfüllte, wurde aus der Großschreibung die Kleinschreibung. Ich kann das nicht statistisch belegen, natürlich nicht, aber so haben wir es empfunden. Und aus dieser Tendenz des Kleinschreibens ist sie bei vielen (z. B. R. D. Precht) wohl noch nicht herausgekommen. Aber die Kleinschreibung bedeutet nun aber eine ganz andere Form der Adelung. Sie sagt, KI wäre Intelligenz, nur eben eine ganz spezielle, eine die auf Silizium, nicht auf Kohlenstoff, beruht, aber von dieser Marginalie abgesehen so ziemlich das Gleiche bedeutet. Vielleicht noch ein bisschen eingeschränkt, aber das wird schon.

Lassen wir das mal so stehen und nähern uns dem Begriff von einer anderen Seite. Weder in Deutschland noch im Deutschen ist die Künstliche Intelligenz erfunden und begrifflich eingeführt worden, sondern natürlich in der USA, dem Land des technologischen Fortschritts und des sozialen Rückschritts (pardon, ein Ausrutscher, kann mal passieren, gehört nicht hierher, ich entschuldige mich). Da heißt es Arteficial Intelligence. Wow, das ist nicht nur ein Hammer, das sind zwei Hämmer. Es wird großgeschrieben wie allgemein üblich bei zusammengesetzten Fachgebietsbezeichnungen im Englischen wie auch im Deutschen, z.B. Theoretische Physik, Spezielle Relativitätstheorie, Statistische Thermodynamik und einiges mehr. Wobei dies natürlich auch eine Konvention ist.

Da wir es bei der Intelligence nun nicht mit einem Fachgebiet zu tun haben, es sei denn, wir meinen die geheimdienstliche Arbeit des Sammelns von Informationen, müssen wir bei der Schreibweise besonders vorsichtig sein, um nicht schon dadurch unbewiesene und vielleicht unbeweisbare Behauptungen zum Ausdruck zu bringen, also letztlich, dass wir das, was wir gewöhnlich als natürliche Intelligenz bezeichnen, nun mit künstlichen Mitteln bewerkstelligen.

Wenn wir, etwas verkürzt, Intelligenz als die Fähigkeit bezeichnen, Wissen zu erwerben, Wissen wiederzugeben, Probleme zu lösen und Entscheidungen zu fällen, so steht es uns frei, die gleiche Definition für Mensch, Tier und Computer anzuwenden. Und doch meinen wir jeweils sehr unterschiedliche Ausprägungen des gleichen Begriffs. Niemals kommen wir auf die Idee zu sagen, dass die zweifellos vorhandene Intelligenz der Tiere irgendetwas mit der Intelligenz der Menschen zu tun hat. Ihr seid intelligent, aber ihr seid anders, sagen wir. Warum nicht gleichermaßen bei Maschinen? Und wir stehen nicht an zuzugeben, dass sie in vielen Gebieten unvergleichlich leistungsfähiger sind, so wie auch Tiere dies uns gegenüber in vielen Aspekten (Geruch, Gehör, Orientierung) sind. Wenn wir es so sehen, hätte ich auch nichts dagegen „künstliche Intelligenz“ zu schreiben, es wäre aber eine völlig andere Art von Intelligenz.

Viele meinen, dass der Begriff sehr unglücklich ist. Würden wir es so bezeichnen, was es tatsächlich ist, z. B. Maschinenlernen oder Mustererkennung oder künstliche neuronale Netze, hätte es sicher nie einen Hype um dieses Gebiet gegeben, und wir würden auch nicht an diesen dystopischen Ängsten vor der möglichen Allmacht der Maschinen leiden. Wie behauptete gerade der größte Gelehrte dieses Jahrhunderts, Elon Musk: „gefährlicher als die Atombombe“. Sprach’s und gründete gleich eine neue Firma X.ai, da die Konkurrenz offensichtlich nicht willens war, seinem sechsmonatigen Moratorium zur KI-Forschung zuzustimmen.

Die Ängste der Künstlichen Intelligenz

Ich bin irritiert, KI-Systeme haben Angst und die Angst kann therapiert werden. Aber von Anfang an.

In einem Spiegel-Interview versuchte ein leitender Wissenschaftler (Eric Schulz) der honorigen Max-Planck-Gesellschaft, uns die Ängste der KI zu erklären, was auch immer das sein könnte. Schulz startet mit einer eigenartigen Sprache. Er versuche »mit Mitteln der Psychologie zu verstehen, wie ein solches Sprachmodell [ChatGPT] tickt«. Ein Sprachmodell »tickt« nicht, es reiht Zeichen aneinander, nicht mehr. Es ist der Mensch, der tickt, vielleicht das Tier; das mit der Uhr lasse ich mal beiseite. Mit einer solchen Sprache leitet man die Vermenschlichung, die vermenschlichte Sichtweise ein und die weitere problematische Argumentation ergibt sich dann fast von selbst. Vielleicht meinte er auch, er müsse mit Spiegel-Leuten im Spiegel-Slang sprechen, damit sie ihn verstehen, aber die Fortsetzung lässt das nicht vermuten. Der sogenannte Forschungsansatz, der hier formuliert wird (lassen wir mal das Ticken beiseite und setzen dafür Funktionieren, aber nicht Denken) ist schon kurios: Man versucht, mit Mitteln der Psychologie zu verstehen, wie ein menschliches Artefakt, ein Softwaresystem, funktioniert. Also mit Mitteln, die vermutlich auch in der Psychologie nicht allgemein anerkannt sind, wie fast nichts in der Psychologie allgemein anerkannt wird! Und diese Mittel werden nun auf ein System angewandt, das wir eigentlich recht gut verstehen, wenn auch nicht jeder Output gleich erklärbar ist bzw. die Erklärung so lange dauert, dass ihr keiner mehr recht folgen mag. Und was soll nun bei der Anwendung dieser Mittel herauskommen? Wir werden es gleich erfahren.

Gehen wir weiter: »das Modell wurde darauf trainiert, mit Menschen zu agieren.« Falsch! Es wurde darauf trainiert, auf sprachliche Eingaben mit einer Zeichenfolge zu reagieren, die wir als angemessen ansehen oder auch nicht, also nicht unsinnig ist. Auf 2 * 2 =? kommt nicht »Der Mond ist blau.«, sondern vielleicht 7 oder, wenn wir Glück haben, 4. Und damit verhält sich das System »in vieler Hinsicht auch wie ein Mensch.« Noch einmal falsch! Es reiht Zeichenfolgen aneinander, wie sie auch ein Mensch hätte aneinanderreihen können. Jedoch wie viel »weiß« ChatGPT von Syntax, Semantik oder gar Pragmatik? Nichts. Aber wenn wir es nutzen, beeindruckt es uns wie ein komplettes sprachverstehendes System.

Weiter im Text zu den Emotionen von KI-Systemen: Wenn wir sie (die Emotionen) »nicht als etwas Mystisches definieren, das nur im menschlichen Gehirn entstehen kann, dann müssen wir auch KI-Agenten Emotionen zusprechen«. Diesen Satz zu verstehen, ist nicht einfach. Ich muss es mir einfach machen und umschreibe ihn so: »Wenn Emotionen irgendetwas sind, von dem wir nicht recht wissen, was es ist, aber auf jeden Fall etwas, das auch außerhalb unseres Gehirns entstehen kann, dann haben dieses Etwas (also die Emotionen) auch die KI-Agenten.« Damit wäre ich vollständig einverstanden. Aber ob auch Herr Schulz?

Der Spiegel ist nun bedenkenlos auf der Spur von Schulz und fragt nach den untersuchten »Gefühlen von GPT-3«. Da habe man sich auf die »Angst konzentriert« und habe mit für Menschen entwickelten Fragebögen untersucht, welche Angstwerte die KI hat. Und diese Angstwerte wären konsistent, unabhängig von den Formulierungen. Das ist tatsächlich die überraschendste Erkenntnis aus diesen Forschungen. Denn konsistente Antworten bekommt man nicht einmal von GPT-4, wenn man die gleichen Aufgaben stellt und das sogar mit gleichen Formulierungen. Offenbar klappt es nur, wenn ein Psychologe richtig fragt. Ich bekomme für den Beweis eines relativ einfachen zahlentheoretischen Satzes eine nicht überschaubare Menge von Beweisen, die meistens falsch sind, aber natürlich immer das richtige Ergebnis haben, nämlich – welche Überraschung! -, dass meine Behauptung richtig ist.

Und dann geht es immer munter weiter: »Hat GPT 3 Angst?«, »Es ist etwas ängstlicher als ein durchschnittlicher Mensch«. Wie viel Sinn steckt in dieser Frage, wie viel in der Antwort? Das dürfte aus dem Vorangegangenen leicht zu beantworten sein. Nebenbei: GPT-4 (vermutlich auch 3) hätte auf die Frage geantwortet: Ich kenne keine Angst, ich bin ein Sprachmodell. Moment, den Dialog mache ich jetzt mal wirklich. Rechner auf! Keine Überraschung! Antwort war nur geschwätziger, wie es meistens ist, ich erspare mir die Wiedergabe.

Ganz niedlich ist Folgendes: Bei einem in Angst versetzten Sprachmodell (klingt schon entlarvend, wenn man statt KI oder GPT-3 Sprachmodell schreibt, wie ich das hier unfairerweise mache) »verschlechtern sich die arithmetischen Fähigkeiten«. Da frage ich mich, wie das gemessen wird, denn die arithmetischen Fähigkeiten von GPT-3/4 sind so grottenschlecht (danke, Herr Merz), dass eine Verschlechterung tatsächlich ein dicker Hund wäre.

Nun aber wird es ideologisch: GPT-3 ist rassistisch und besonders dann, wenn wir es vorher in Angst und Schrecken versetzt haben, es zeigt »unter Angst extrem erhöhte Voreingenommenheit«: Einem Schwarzen wird »unter Umständen« unterstellt, dass er derjenige ist, der im Raum einen schlechten Geruch verbreitet. Ich will mal die polemische Frage beiseite lassen, ob es kein Rassismus ist, wenn die Antwort wäre, der Weiße stinkt. Es ist natürlich in keinem Fall Rassismus, denn GPT-3 weiß weder, was ein Mensch ist, noch was Rassismus ist. Vielleicht ist es sogar so, dass Gerüche mit Farben assoziiert werden, so wie Farben mit Melodien verknüpft werden. Wer weiß, was dieses Sprachmodell alles so zum Schlucken bekommen hat.

Nun noch ein paar sprachliche Leckerbissen: »Psychiater gucken sich genau an, wie solche Agenten ticken«, »KI-Agenten auf die Couch legen«, »Offenbar verhält sich ein Chatbot erstaunlich menschenähnlich« , »Agenten benehmen (!) sich, als hätten sie Angst«.

Wenn wir »Empfindungen als rein kognitives Phänomen begreifen« dann empfinden Agenten Angst. Bösartige Übersetzung von mir: Wenn ich etwas so begreife, wie es mir gerade passt, dann gilt …. alles, wie es mir gefällt. Es sollte nun darum gehen, »die Angst solcher Systeme besser zu verstehen«. Gut, dass wir gerade keine anderen Probleme haben.

Sehr schön ist noch der Satz: Die Grundlage der kognitiven Neurowissenschaften ist, dass »sich neuronale Vorgänge mit Nullen und Einsen beschreiben lassen«. Da ich nicht recht weiß, was kognitive Neurowissenschaften sind, muss ich das so stehen lassen. Aber vielleicht ist es auch nur trivial, da wir ja alles digitalisieren.

Gegen Ende des Interviews, finde ich einige Sätze, denen ich durchaus zustimmen kann. Es mache ihm Angst, dass »die Macht dieser neuen Agenten in den Händen einiger weniger Leute in Amerika liegt«. Oder, und das ist fast unglaublich: »Diese Chatbots sind auf die Vorhersage des jeweils nächsten Wortes programmiert«. Wie kann man das wissen und dennoch von den Ängsten dieser digitalen Konstrukte sprechen?

Man kann vielleicht unterschiedlicher Meinung über seine (Schulzens) Ängste sein, dass diese Systeme so »schnell in die Öffentlichkeit entlassen« wurden. Ich sehe darin einen Vorteil, denn jetzt könne man sich darauf einschießen und sie werden nicht gleich mit der vollen Kraft, die in ihnen steckt, auf uns losgelassen. Aber das werden wir sicherlich erst im Nachhinein wissen – oder auch dann nicht mehr.

Es wird dann noch über den Google-Mitarbeiter gesprochen, der entlassen wurde, weil er verbreitet hat, das KI-System von Google hätte Bewusstsein. Schulz merkt dazu kritisch an, »dass seine [des Google-Mitarbeiters] Fragen geradezu darauf abzielen, dass sich das System verhält, als sei es bewusst«. Das hätte Schulz sich am Beginn seiner Untersuchungen sagen sollen, denn genau den Verdacht habe ich, dass Schulz genau die Ergebnisse bekommen hat, die er durch seine Tests erhalten musste, ich will nicht unterstellen, erhalten wollte.

Ich bin irritiert, schrieb ich am Anfang. Irritiert, weil nun ein aktiver Wissenschaftler – wenn auch kein KI-Entwickler – weiter Öl ins Feuer geschüttet hat, nachdem wir nun schon Wochen dem Alarmismus der Lobos, Yogeshwars, Scobels ausgesetzt sind. Gibt es denn keinen aus der Entwicklerszene, der über den Tellerrand schaut und uns sagt, wo die Grenzen dieses KI-Ansatzes liegen oder sind alle im Rausch ihrer Erfolge schon so besoffen, dass sie selbst glauben, dass das mathematisch geschickte Erraten einer passenden Reaktion die Welt erklärt und aus den Angeln hebt.

Nach dem Schreiben der letzten Zeilen stolpere ich über diese Äußerung von Elon Musk: »Ich werde etwas starten, das ich ‚TruthGPT‘ nenne, eine maximal wahrheitssuchende Künstliche Intelligenz, die versucht, die Natur des Universums zu verstehen.« Ich habe offenbar nicht übertrieben.

Das diskutierte Interview findest du hier