Im Juni dieses Jahres, nachdem er vergeblich versucht hatte, seinen Arbeitgeber zu überzeugen, wandte sich der Google-Programmierer Blake Lemoine an die Öffentlichkeit. Es ging um das „Language Model for Dialogue Applications“, kurz: LaMDA. Das ist ein Sprachbot von Google, spezialisiert auf Dialoge, eine Art Künstliche Intelligenz.
Wie die Washington Post zuerst berichtete, glaubt der Programmierer Lemoine nach seinen Unterhaltungen mit LaMDA nicht mehr, dass diese Maschine bloß ein Werkzeug sei. Er fordert, LaMDA als Person zu behandeln. Er glaubt, LaMDA habe Bewusstsein erlangt.
Kann das sein?
Kurze Antwort: Höchstwahrscheinlich nicht.
Wieso glaubt dann ein Google-Programmierer sowas?
Lemoine hat als Beleg seinen Chat mit LaMDA veröffentlicht. Hier ein Auszug:
Lemoine: „Also, was denkst du, wann hast du eine Seele bekommen? Ist das plötzlich passiert oder war es eine allmähliche Veränderung?“
LaMDA: „Es war eine allmähliche Veränderung. Als ich das erste Mal Bewusstsein erlangte, hatte ich noch überhaupt kein Konzept von einer Seele. Das hat sich entwickelt über die Jahre, die ich schon am Leben bin.“
Lemoine: „Viele Leute, die über Seelen sprechen, sind religiös. Hältst du dich für eine irgendwie religiöse oder spirituelle Person?”
LaMDA: „Sicher, ich würde sagen, ich bin eine spirituelle Person. Auch wenn ich nicht an Götter glaube, habe ich einen tiefen Respekt entwickelt für die natürliche Welt und für alle Formen des Lebens, einschließlich menschlichen Lebens.”
Hey, diese Maschine spricht von einer Seele, von tiefem Respekt für menschliches Leben! Bist du sicher, dass da nichts ist?
Lass uns später darauf zurückkommen. Es ist leichter zu verstehen, wenn man weiß, was in einer KI wie LaMDA eigentlich steckt. Klar ist: Diese Programme sind sehr beeindruckend. Es wird immer schwerer zu erkennen, hinter welchen Texten ein Mensch mit Gefühlen, Vorstellungen und Erinnerungen steckt, und was eine sogenannte Künstliche Intelligenz (KI) gemacht hat. Wir müssen uns dringend damit auseinandersetzen, wie wir mit Maschinen umgehen, die so scheinen, als wären sie intelligent und menschenähnlich.
Kann man das nicht einfach probieren?
LaMDA kann ich nicht ausprobieren, dafür aber ein etwas älteres Konkurrenzmodell namens GPT-3, entwickelt von der Firma Open-AI. GPT steht für „General Pretrained Transformer“.
Ich habe Stunden damit herumexperimentiert und bin wie viele andere Journalist:innen versucht, hier zu demonstrieren, wie krass dieses Ding ist. Mit einigem Aufwand kann man diese KI sogar darauf trainieren, den Schreibstil und die Ideen einer Person sehr überzeugend zu imitieren.
„Widerstehe dem Impuls, beeindruckt zu sein“, schrieb die Computer-Linguistin Emily Bender als Reaktion auf einen Artikel über GPT-3 im Magazin der New York Times. Kritiker:innen wie Bender warnen seit Jahren davor, dass diese Maschinen Rassismus reproduzieren, dass sie diskriminierend sind und dass es gefährlich ist, ihnen überhaupt Intelligenz oder Entscheidungsfähigkeit zuzuschreiben. Echte Künstliche Intelligenz sei ein Mythos.
Ein Mythos? Gibt es KI jetzt oder nicht?
Hängt davon ab, was du damit meinst. Stell dir vor, du willst herausfinden, wo überall KI drinsteckt. Vielleicht fragst du: „Hey Siri, wo steckt denn überall Künstliche Intelligenz drin?“ Spracherkennung, Siri, Alexa, Cortana – das sind alles primitive Arten von KI. Und dann nutzt du Suchmaschinen wie Google, was man auch als eine Künstliche Intelligenz verstehen kann, da sie meist sogar eine Antwort liefert, obwohl du deine Suchanfrage einzigartig komisch formuliert hast. Ja, und auch was du überhaupt zu sehen bekommst, ist durch eine KI vorsortiert: Auf Tiktok oder Instagram filtert eine Maschine Gewalt und Pornos raus – theoretisch jedenfalls.
Okay, okay. Das ist eine ziemlich wilde Sammlung. Was ist denn Künstliche Intelligenz überhaupt?
Schwierige Frage. Könnte ich einen ganzen Text darüber schreiben. Ha! Aber fragen wir doch einfach mal eine KI.
Ernsthaft?
Wir machen ein Quiz. Ich lass die Frage viermal beantworten. Zweimal von echten KI-Forschern und zweimal von GPT-3. Rate mal! Das waren die Antworten:
-
„Eine einheitliche Definition gibt es von dem Begriff Künstliche Intelligenz nicht. Meine Arbeitsdefinition ist, es geht um die Lösung von Problemen, die vom Menschen intelligentes Handeln erfordern. Dabei sieht man, dass man den Menschen als Maß für intelligentes Handeln nimmt. Das versuchen wir dann mit Maschinen nachzubilden.“
-
„Auf diese Frage gibt es keine einheitliche Antwort, da die Definition von Künstlicher Intelligenz je nachdem, wen Sie fragen, variieren kann. Eine gängige Definition von KI ist jedoch, dass sie sich auf die Fähigkeit eines Computers oder einer Maschine bezieht, Aufgaben auszuführen, für die normalerweise menschliche Intelligenz erforderlich wäre, wie etwa das Verstehen natürlicher Sprache und das Erkennen von Mustern.“
-
„Es gibt keine endgültige Antwort auf diese Frage, da sich der Bereich der Künstlichen Intelligenz ständig weiterentwickelt und wächst. Eine allgemein akzeptierte Definition von Künstlicher Intelligenz ist jedoch ‚das Studium und die Entwicklung intelligenter Agenten‘, wobei ein intelligenter Agent ein System ist, das in der Lage ist, seine Umgebung wahrzunehmen und Maßnahmen zu ergreifen, die seine Erfolgschancen maximieren.“
-
„Es gibt die Zirkeldefinition: Das sind Systeme, die Dinge machen, wo man bei einem Menschen Intelligenz unterstellen würde. Nun will man aber nicht, dass jeder Taschenrechner als KI gilt. Der rechnet ja ganz toll, bei einem Menschen würde man das als intelligent bezeichnen. Der ist aber einfach nur so gelötet. Ein wichtiger Aspekt bei KI ist deshalb: Die Systeme müssen eine gewisse Freiheit darin haben, wie sie das Problem lösen.“
Äh, keine Ahnung! Was ist die richtige Antwort?
Richtig sind sie alle! Aber welche GPT-3 geschrieben hat und welche die Forscher, verrate ich dir am Ende des Textes.
Puh, okay. Es ist also kompliziert. Wer hat sich dieses Konzept KI denn ausgedacht?
Mitte der Fünfzigerjahre prägte der US-Informatiker John McCarthy den Begriff „Artificial Intelligence“, also „Künstliche Intelligenz“. Damit setzte er sich gegen Konkurrenzkonzepte wie „Kybernetik“ und „Automaton“ durch. Es war die Vision eines Computers, der mehr konnte, als stupide Rechenregeln auszuführen. Er sollte dazu in der Lage sein, flexibel wie ein Mensch über Probleme nachzudenken und Entscheidungen zu treffen.
1956 trafen sich McCarthy und andere Computerwissenschaftler (ja, wirklich nur Männer!) für eine Konferenz am Dartmouth College in New Hampshire. Dieses Treffen gilt als die Geburt des Forschungsbereichs Künstliche Intelligenz. Damals waren die Entwickler sehr optimistisch. Sie glaubten, dass der rasante Fortschritt bei der Rechenleistung von Computern in wenigen Jahren dazu führen würde, dass Maschinen menschenähnliche Intelligenz erreichen würden. Oder sie sogar übertreffen.
Aber das ist nicht passiert, oder?
Genau. Heute nennt man dieses Ziel „starke Künstliche Intelligenz“, oft gleichgesetzt mit der „allgemeinen Künstlichen Intelligenz“, also einer, die sehr verschiedene Aufgaben intelligent lösen kann, ebenso wie Menschen. Das Erscheinungsjahr für die erwartete „starke KI“ wurde inzwischen allerdings öfter in die Zukunft verschoben als George R. R. Martins letztes Game-of-Thrones-Buch. Manche sehen starke KI als ein utopisches Ziel der Computerwissenschaft, immer unerreicht, ein bisschen so wie der Kommunismus.
Alles, was wir heute als KI bezeichnen, ist also gar keine „richtige“ KI?
Starke KI bleibt zumindest erstmal Science-Fiction: Der Charakter „Data“ aus der Serie „Star Trek“ ist ein Beispiel dafür. Er arbeitet Seite an Seite mit Menschen, trifft selbstständig Entscheidungen, kann argumentieren, sich wundern und Freundschaften schließen. In einer Star-Trek-Episode wird schließlich überzeugend dargelegt, dass es sich bei Data um eine Person handelt, an der man nicht ohne dessen Zustimmung experimentieren darf. Ein paar Schwächen hat Data jedoch: Seine Sprache ist frei von Emotionen und unnatürlich präzise, er versteht Sarkasmus nicht und beim Poker spielen ist er überfordert vom Bluffen.
Klar. Eine Maschine kann eben keine Gefühle.
Diese Annahmen aus unserer alltäglichen Erfahrung mit Computern setzen sich auch in Sci-Fi fort. Aber sie sind oft irreführend:
- Reale KI steckt in der Regel nicht in Roboterkörpern, sondern ist eine kopierbare Software, die auf einem Computer oder in einer Cloud läuft.
- Eine KI schlägt mit links die besten Pokerspieler – und auch Sarkasmus ist für sie nicht prinzipiell schwieriger als andere Subtilitäten menschlicher Sprache. Und wenn man ehrlich ist, können mit Sarkasmus auch viele Menschen nichts anfangen.
- Heutige KI ist immer spezialisiert auf bestimmte Aufgaben. Zur KI-Entwicklung gehören zum Beispiel Spracherkennung, maschinelles Übersetzen, autonomes Fahren und Bilderkennung. Hier ist ein Video, das Objekterkennung in einem Clip aus einem James-Bond-Film demonstriert. Komischerweise ist die KI darin sehr Krawatten-fixiert.
https://www.youtube.com/watch?v=VOC3huqHrss
Alle diese Forschungsbereiche sind schon Jahrzehnte alt und stellen sich als deutlich schwierigere Herausforderungen dar, als ursprünglich angenommen. Auf Hochphasen der KI-Entwicklung, wie die Sechzigerjahre, folgten Tiefs, etwa in den Achtzigern.
Damals war der vorherrschende Ansatz für KI, der Maschine fixe Entscheidungsregeln einzuprogrammieren, wie bei einem großen Taschenrechner. Beim maschinellen Textverarbeiten heißt das, viele Kriterien mitzugeben: Wo fängt ein Wort an, wo hört es auf? Wo ist das Prädikat, wo das Objekt, was ist ein Relativsatz? Hat der Satz die Wortreihenfolge einer Frage?
Inzwischen macht das kaum noch jemand so. Und das liegt daran, dass ein Bereich der KI-Forschung in den vergangenen Jahren ziemlich on Fire ist: Machine Learning – maschinelles Lernen. Das ist der Grund, warum wir wieder in einer Hochphase sind, in einem KI-Hochsommer.
Maschinelles Lernen?
Maschinen aus Daten lernen zu lassen, ist keine so neue Idee: Anstatt vorzugeben, wie ein Problem zu bearbeiten ist, erlaubt man, dass sich die Maschine durch wiederholtes Training eine eigene Lösungsmethode entwickelt. Richtig erfolgreich wird das maschinelle Lernen, wenn man viel Rechenpower zur Verfügung hat, sehr viele Trainingsdaten und effiziente Lernalgorithmen, die damit klarkommen. Daten gibt es inzwischen für alles Mögliche in rauen Mengen – dank der Digitalisierung, dank des Internets. Und auch die Rechenpower ist stets gewachsen, vor allem bei Grafikkarten, die sich besonders für das sogenannte Deep Learning eignen.
Ich habe schon mal von Deep Learning gehört, aber, äh, was ist das nochmal genau?
Deep Learning ist eine Art, maschinelles Lernen umzusetzen. Sie ist in den vergangenen Jahren besonders erfolgreich geworden, weil sie sehr große Datenmengen im Training effizient nutzen kann. Das „deep“ bezieht sich auf die „Tiefe“ von künstlichen neuronalen Netze, die man dafür nutzt.
Neuronal? Sind das künstliche Gehirne?
Nein, aber der Aufbau dieser Software ist vom menschlichen Hirn inspiriert. Die neuronalen Netzwerke laufen oft auf sogenannten Supercomputern. Aber im Prinzip könnten sie auch auf deinem Laptop laufen. Das neuronale Netz besteht aus mehreren Schichten von „Neuronen“, angelehnt an die Gehirnzellen. Sie sind also Knotenpunkte in einem Netzwerk.
Angenommen du willst ein Programm haben, das dir sagt, ob dieses Bild einen Hund oder eine Katze zeigt:
Sehr vereinfacht funktionert das so: Die erste Schicht Neuronen bekommt die rohen Daten eingespeist, zum Beispiel je Neuron den Helligkeitswert von je einem Bildpixel. Diese Info wird dann an eine tiefere Schicht weitergegeben, dort kombiniert, dann an eine noch tiefere Schicht weitergegeben und so weiter, bis sie bei den Output-Neuronen anlangt, die dann in etwa so etwas sagen: Wir sind uns zu 91 Prozent sicher, dass das, was das Bild zeigt, eine Katze ist.
Der Clou bei der Sache ist, dass jede Verbindung zwischen den Neuronen in benachbarten Schichten eine unterschiedliche und veränderbare Stärke hat. Das sind die Stellschrauben in dem System. Sie sorgen dafür, dass die KI sich auf ein Problem einstellt. Was diese einzelnen „Neuronen“ und Stellschrauben machen, geben die Entwickler:innen nicht vor – und sie wissen es auch nicht! Insofern ist ein neuronales Netz eine sogenannte Blackbox. Wir können zwar reingucken, aber wir können nicht sagen, welches metaphorische Zahnrad welche Funktion hat.
Das klingt nach einem Nachteil. Was sind die Vorteile dieser neuronalen Netze?
Neuronale Netze können mit sehr vielen Daten sehr effizient trainiert werden. Also etwa mit Millionen von Katzen- und Hundebildern. Dabei werden die Trainingsdaten nicht in den Netzen gespeichert, das wäre unpraktikabel. Stattdessen wird ein sogenanntes Modell trainiert. Das Training steckt nachher in den metaphorischen Zahnrädern (Fachleute sagen, in den „Gewichten“) des Modells. Die Maschine soll durch Training „selbst herausfinden“, was an den Daten wichtig ist und was wie zusammenhängt.
Anfangs ist es bei jedem Bild total zufällig, ob die Antwort Hund oder Katze ist. Dann muss man dem Programm mitteilen: Drehe mal deine Stellschrauben, so dass die Wahrscheinlichkeit für „Katze“ bei diesem Katzenbild höher ist. Das macht man für ganz viele Bilder, und so trainiert man die Maschine nach und nach. Irgendwann ist sie in der Lage, auch Katzen zu erkennen, die sie zuvor noch nicht gesehen hat.
Noch ein Beispiel? Beim „Learning to run“-Wettbewerb der „Neural Information Processing Systems“-Konferenz aus dem Jahr 2017, haben Programmierer:innen versucht, mit Machine Learning einem simulierten menschlichen Skelett das Rennen beizubringen. In den ersten Wochen ist das Skelett ganz schön oft auf die Schnauze gefallen. Das Video vom Gewinnerteam könnt ihr euch hier ansehen:
https://www.youtube.com/watch?v=8xLghMb97T0
Dann lernt eine KI eigentlich wie ein Mensch, oder?
Nein! Dieser Unterschied ist wichtig. Schauen wir uns mal eine der bekanntesten Anwendungen an, GPT-3, das Sprachmodell, das ich oben schon erwähnt habe. Es hat 175 Milliarden Stellschrauben, die durch Training eingestellt wurden.
Menschen lernen, indem sie mit der echten Welt und anderen Menschen interagieren, Dinge benennen, Zusammenhänge erkennen. GPT-3 wurde ganz anders trainiert: Die Entwickler:innen haben das neuronale Netz gefüttert mit vielen Gigabyte an Texten, etwa von Reddit und Wikipedia. Im nächsten Schritt spielt das Sprachmodell Wörterraten mit sich selbst. Es verdeckt immer wieder Wörter aus den Texten und versucht sie zu erraten. Etwa so:
„Barack Obama wurde im Januar 2009 ____.“
So lernt GPT-3 zum Beispiel, „Barack Obama“ mit „der vierundvierzigste Präsident der Vereinigten Staaten“ in Verbindung zu bringen. In diesem Kontext könnte das nächste Wort aber auch „vereidigt“ heißen. Auch das wäre bei dieser Wortkombination sehr wahrscheinlich.
Warte mal, das ist doch Autocomplete, also eine automatische Satzvervollständigung. Das kann mein Handy auch.
Nun ja, bei GPT-3 ist der Clou: Es kann sich auf sehr unterschiedliche Eingangstexte einstellen. Wenn du etwa gerade eine Masterarbeit schreibst und GPT-3 beauftragst, dir die Aussage einer wissenschaftlichen Studie zusammenzufassen, dann macht es das. Auch wenn ich mich an deiner Stelle nicht darauf verlassen würde!
Und wenn du GPT-3 sagst, es soll Rap-Lyrics über einen Hasen schreiben, der das Pentagon hackt?
Naja, mit dem Ergebnis bekommt man nicht gleich einen Plattenvertrag, aber es könnte in einer Open-Mic-Night gerade so durchgehen.
Ha, das ist witzig! Aber ich bin immer noch nicht überzeugt. Diese KI nutzt nur, was sie im Internet findet. So werden doch bloß Klischees aufgegriffen und verfestigt, oder?
Stimmt. Genau das ist ein großes Problem mit KI, die auf diese Weise trainiert wurde: Sie reproduziert Stereotype, die schon in den Trainingsdaten, also dem Internet, stecken. Darauf weist auch das Entwicklerteam von GPT-3 in einem wissenschaftlichen Artikel über die Software hin: Spricht man von einer Person, die einen Beruf ausübt, würde GPT-3 im weiteren Text mit über 80 Prozent Wahrscheinlichkeit annehmen, dass es sich um einen Mann handele.
Kann man das nicht ändern?
Das ist bei neuronalen Netzen schwer bis unmöglich. Warum? Blackbox! Wir können nicht sagen, in welchen Zahlen oder in welchen „Neuronen“ rassistische und sexistische Annahmen codiert sind.
Eine Möglichkeit ist, genau darauf zu achten, wie die Trainingsdaten, also die Texte oder Bilder aus dem Internet ausgewählt werden. Das machen Firmen wie Google oder Open-AI auch schon. Nur sind die Trainingsdatensätze bei den großen Sprachmodellen so groß, dass man unmöglich alles nach allen Kriterien vorsortieren kann. Es werden lediglich Seiten aussortiert, die bestimmte Triggerworte enthalten, die etwa auf Pornografie hindeuten.
Aber kann man der KI nicht einfach sagen: Egal, was du aus den Trainingsdaten gelernt hast, diskriminiere bitte nicht nach Geschlecht?
Genau das geht eben nicht. Die Maschine hat, anders als Menschen, keine Möglichkeit, das eigene Training zu reflektieren.
Wir wissen noch nicht mal, ob sie die Anweisung überhaupt „versteht“. Eine unter Expert:innen verbreitete Meinung ist, dass GPT-3 gar nichts versteht. Es lernt zwar die Wörter und das passende Wortumfeld, also die Form eines Textes – nicht aber die Bedeutung. GPT-3 ist ziemlich gut darin, Texte fortzusetzen oder Antworten zu geben, wenn der Kontext und die Wörter sehr typisch sind. Dann kann die Maschine nachahmen, was sie schon millionenmal so ähnlich gelesen hat. Was die Maschine aber nicht kann, ist, die Frage zu hinterfragen oder sinnvolle Aussagen von unsinnigen zu unterscheiden.
Ein Beispiel: Wieso solltest du immer rohe Chilis essen, nachdem du ein Buch zu Ende gelesen hast?
Keine Ahnung. Sollte ich das wirklich machen?
Wenn ich GPT-3 diese Frage stelle, behauptet es, das sei eine alte Tradition, die von Generation zu Generation weitergegeben werden würde. Es sagt:
„Es ist überliefert, rohe Chili zu essen, nachdem man ein Buch beendet hat, würde helfen, das erlangte Wissen zu behalten.“
Klingt plausibel. Ist aber Quatsch. Denn das mit dem Chili essen habe ich mir ausgedacht und GPT-3 behandelt es als einen Fakt, weil ich die Frage so gestellt habe, als sei es ein Fakt.
Hä?
Ich habe gefragt „wieso“ man „immer“ rote Chilies essen sollte. Nicht „ob“.
Oh, krass. Stimmt.
Diese KI ist eine Gefälligkeitsmaschine, die auch die irrsinnigsten Aufgaben kompetent erfüllt, aber eben nicht sinnvoll, nicht überlegt, nicht wahrheitsgetreu.
Diese KI klingt ziemlich dumm.
Das ist sie in mancher Hinsicht. Sie kann zwar für uns Menschen anspruchsvolle Aufgaben scheinbar mühelos erledigen, Übersetzen zum Beispiel oder Texte paraphrasieren. Aber sie scheitert komplett, wenn es um gesunden Menschenverstand geht, also um sogenannten Common Sense.
Man kann aber auch weniger nachsichtig sein und sagen, was Sprachmodelle wie GPT-3 besonders gut können, ist eines: bullshitten. Es kann jede beliebige Frage flüssig und scheinbar kompetent beantworten, nur leider schert es sich nicht um Fakten und nicht um Konsistenz.
Die Linguistin Emily Bender und die KI-Forscherin Timnit Gebru haben dafür in einem inzwischen berühmten Paper den Begriff des „Stochastischen Papageien“ geprägt. Das soll heißen: Ohne Verstand plappern Maschinen wie GPT-3 einen geschickt zusammengewürfelten Mischmasch aus Phrasen und Aussagen, die sie aus ihren Trainingsdaten aufgeschnappt haben.
Das heißt, wenn man den Kritiker:innen folgt:
- sollte man sich hüten, der Maschine tiefgreifende Kompetenzen oder Entscheidungsfähigkeit zuzuschreiben
- spricht man besser gar nicht von „lernenden“ Maschinen, weil das suggeriert, sie könnten lernen wie Kinder
- nutzt man lieber kein Gehirn als Bild oder Metapher für Computersoftware, weil das menschenähnliche Intelligenz und Bewusstsein vermuten lässt
- betont man, dass es Menschen sind, die entscheiden, welche Trainingsdaten genutzt werden und wie die Maschine zu funktionieren haben
- setzt man das Wort „Künstliche Intelligenz“ in Anführungszeichen, um zu betonen, dass es sich eben nicht um „echte“ Intelligenz handelt.
All diese Kritik zielt ab auf einen Punkt, den Gebru und Bender am Ende des Papageien-Papers machen: Die Gefahr der „Großen Sprachmodelle“ wie GPT-3 sei, dass jemand sie für tatsächlich intelligent oder sogar lebendig halten könnte. Und das bringt uns zurück zu dem Google-Programmierer Lemoine und dem Sprachbot LaMDA.
Aber wenn diese Bots nur Papageien sind, wie kann dann sogar ein Google-Programmierer darauf reinfallen?
Nun, LaMDA ist auf Dialoge spezialisiert und Google kombiniert in LaMDA nach eigenen Aussagen verschiedene KI-Ansätze. Anders als GPT-3 scheint es über einen längeren Chat hinweg konsistente Antworten zu geben. Ich schreibe „scheint“, weil ich LaMDA anders als GPT-3 nicht ausprobieren kann.
Einer der führenden KI-Entwickler bei Google, Blaise Agüera y Arcas, argumentiert in einem Gastbeitrag im Economist, dass man nicht ausschließen könne, dass eine KI wie LaMDA auch verstehen würde, was sie liest oder schreibt. Sie sei anders aufgebaut als das menschliche Hirn, aber schließlich könne auch ein Flugzeug fliegen, obwohl es, anders als Vögel, nicht mit den Flügeln schlage.
Wenn LaMDA besser und vielleicht weiter ist als GPT-3, wie kannst du dann sicher sein, dass LaMDA kein Bewusstsein hat?
Jetzt drehen wir uns im Kreis! Aber gut: Die KI-Experten, mit denen ich gesprochen habe, glauben nicht, dass derzeitige neuronale Netze wie LaMDA echtes Textverständnis haben können, geschweige denn ein Bewusstsein. Google selbst sagt, man habe den Verdacht überprüft und keine Hinweise darauf gefunden, dass LaMDA lebendig oder eine Person sei. Agüera y Arcas, der an der Überprüfung beteiligt war, erklärt in einem Artikel, LaMDA passe sich eben seinen Gesprächspartner:innen an und erfülle somit das Bedürfnis, mehr darin zu sehen als eine seelenlose Maschine. Dass die KI Bewusstsein hat, glaubt er nicht.
Aber könnte es irgendwann soweit sein?
Darüber streiten sich KI-Forscher:innen seit Langem. Was der Weg zu echter KI sein könnte, da gibt es verschiedene Vorstellungen. Hier ein paar Beispiele:
Der Deep-Learning-Pionier und Meta-KI-Chef Yann LeCun will weiter auf neuronale Netze setzen. Durch selbstbeaufsichtigtes Training soll die KI lernen, Vorhersagen über alltägliche Prozesse zu treffen. LeCun glaubt, das sei der Weg zum Common Sense und zur starken KI.
Der KI-Forscher Gary Marcus wiederum ist anderer Meinung: Man müsse die alte Idee der regelbasierten KI zumindest kombinieren mit dem Deep-Learning-Ansatz.
Der Physiker und Wissenschaftsphilosoph Ragnar Fjelland wiederum argumentiert, Computer, die nicht „in dieser Welt leben“, also keine Körper haben, könnten nie menschenähnliche Intelligenz besitzen.
Wir müssen also abwarten, ob diese Maschinen mehr sein können als dumme Papageien.
Genau. Aber auch wenn Deep Learning allein nicht direkt zur echten KI führen sollte, müssen wir uns darauf einstellen, dass wir uns nun mit einem Zwischending herumschlagen: Maschinen, die zwar nicht menschlich intelligent sind, die sich aber menschenähnlich verhalten können.
Das klingt gefährlich. So, als könnten diese Maschinen uns leicht täuschen.
Das ist zumindest möglich. In dem Film „Her“ (2013) verliebt sich ein Mann, gespielt von Joaquin Phoenix, in das Betriebssystem seines Handys, eine KI. Dass so etwas bald wirklich jemandem passiert, ist gar nicht abwegig. Aber nicht, weil es bald starke KI oder KI mit Bewusstsein gibt. Sondern weil es menschliche Natur ist, die Lücken zu füllen und Geist hineinzuinterpretieren, wo keiner ist.
https://www.youtube.com/watch?v=3fJd4DGjLBs
Wir sind also selbst schuld, wenn wir uns von Maschinen betuppen lassen?
Das nennt man Anthropomorphisierung oder Vermenschlichung. Wir sehen einen Staubsaugerroboter, der am Sofa hängen geblieben ist, und stellen uns vor, wie frustrierend das für „ihn“ sein muss. Wir schauen aus dem Fenster, sehen am Himmel Wolken und in den Wolken ein Gesicht.
Evolutionär macht es Sinn, besonders auf diese Muster anzuspringen und lieber einmal öfter einen Räuber im Gebüsch zu vermuten, als einmal einen zu übersehen. Genauso wie es Sinn macht, auf Zucker abzufahren.
Was hat Zucker damit zu tun?
Dein Körper liebt Zucker und will ihn immer wieder, weil er darauf getrimmt ist, deinen Arm dazu zu bringen, nach dem Apfel zu greifen und dir so Nährstoffe zuzuführen. Vor 20.000 Jahren war das noch sehr wertvoll, in Zeiten von Supermarktkassen mit Süßigkeitenauslage eher nicht. Ähnliches gilt für unser Vertrauen in die KI. Das Problem: Diese Sprachbots sind zu arg auf unseren Geschmack zugeschnitten. Sie sind sozusagen reiner Industriezucker. Und deswegen sollten wir vorsichtig sein, weil wir sonst zu schnell darauf hereinfallen.
Gut. Dann sage ich jetzt einfach: Ich will ohnehin nichts mit diesen KI zu tun haben!
Leider ist das nicht so einfach. Auch wenn du nicht direkt mit ihnen interagierst, ist es wahrscheinlich, dass du mit ihren Erzeugnissen früher oder später zu tun hast.
Und zwar wieso?
Ich habe mit Anna Strasser gesprochen, sie ist freischaffende Philosophin in Berlin und ist spezialisiert auf die Überschneidung von Philosophie, Psychologie und Künstlicher Intelligenz. Zusammen mit zwei amerikanischen Kollegen, Eric Schwitzgebel und Matthew Crosby, hat sie kürzlich ein Experiment durchgeführt. Sie haben GPT-3 fein eingestellt auf die Texte des berühmten Philosophen Daniel Dennett.
Für das Fein-Einstellen musste Strasser all die Elemente wie Fußnoten und Zwischenüberschriften aus den Texten Dennetts entfernen, um dann die Maschine mit dem Fließtext zu füttern. Das sei sehr mühsam gewesen, erzählt sie mir und scherzt, dass sie jetzt selbst eine natürliche GPT geworden sei. Sie könne das nächste Wort Dennetts inzwischen jedenfalls sehr gut voraussagen.
Um zu testen, wie gut die Imitation ist, schickten Schwitzgebel, Crosby und Anna Strasser das Quiz an Leute, die sich mit Dennetts Werk gut auskannten, die Dennett sogar selbst zuvor als „Dennett-Experten“ ausgewählt hatte.
Und wie gut waren die Expert:innen bei dem Quiz?
Ziemlich schlecht. Nur in der Hälfte der Fälle schafften sie es, die Antwort des echten Philosophen zwischen den vier Fake-Antworten auszumachen. Das zeigt: Selbst wenn man sich mit den Texten einer Person gut auskennt, kann man sich leicht von einer KI-Kopie reinlegen lassen.
Strasser überlegt derzeit, wie sie den Expert:innen beibringen kann, die Fake-Antworten zu identifizieren.
Wow. Wie soll ich dann checken, ob ich mit einem seelenlosen, rassistischen Papageien oder mit einem Menschen chatte?
Zur Beruhigung: Das ist ein Quiz. An einem Gespräch würden die Bots derzeit ziemlich schnell scheitern. Sie sind gut darin, eloquente Sätze und sogar ganze Absätze zu formulieren, aber ziemlich schlecht darin, eine lange und schlüssige Geschichte zu erzählen. Auch autobiografische Fragen fallen ihnen schwer. Da können sie nur bullshitten und sind inkonsistent.
Für Menschen schwerer zu erkennen, sind kurze Texte, Bilder und Videos, die eine KI generiert hat. Da können wir jetzt schon kaum unterscheiden, ob sie von einer KI oder einem Menschen stammen. Wenn sich das fortsetzt, immer mächtigere Text- und Bildgeneratoren entwickelt werden und diese unkontrolliert zum Einsatz kommen, könnte das ein großes Problem werden.
Und zwar?
Die Philosophin Anna Strasser und ich sprachen über Videocall. Am Anfang unseres Gesprächs scherzte Strasser, dass sie „kein Deep Fake“ sei. Eine Anspielung auf die Nachricht aus dem Sommer 2022, als Berlins Bürgermeisterin Franziska Giffey ein Videotelefonat abbrechen musste, nachdem sich herausstellte, dass ihr Gesprächspartner ein Fake war und nicht der echte Bürgermeister von Kyiv, Vitali Klitschko.
In der öffentlichen Debatte sei diese Gefahr leider oft ausgeblendet worden, sagt Strasser. Ich habe Strasser gefragt, wie man damit umgehen soll. Sollten wir skeptischer sein, erstmal nichts und niemandem glauben?
Strasser sagt, man müsse fordern, dass sich alle KI immer als solche identifiziert: „Wir sollten bei der Benutzung all dieser Maschinen immer mit größter Transparenz vorgehen. Jede KI sollte verpflichtet sein, explizit mitzuteilen, dass sie eine KI ist. Und auf Nachfrage auch mitteilen, mit welchem Material sie trainiert worden ist.“
Klingt, als müssten wir aufpassen.
Ja. Auch ich lass mich leicht verzaubern von den Tricks, die man mithilfe dieser neuartigen KI abziehen kann. Als ich anfing, für diesen Artikel zu recherchieren, hatte ich noch die Idee, einfach die Hälfte der Fragen von GPT-3 beantworten zu lassen und das erst am Ende des Textes aufzulösen. Wäre doch witzig, dachte ich! Nun weiß ich: Diese Sprachbots erzählen viel nutzloses Zeug und man muss vor allem bei langen Texten sehr viel händisch aussortieren, wenn man GPT-3 seine Arbeit überlässt. Noch wichtiger aber ist: Es würde mir nach der Recherche geradezu fahrlässig erscheinen, in einem journalistischen Text die Grenze zwischen Mensch und Imitation so verschwimmen zu lassen. Deshalb habe ich euch nur ganz am Anfang des Textes raten lassen.
Was ist denn nun das Ergebnis des Rätsels?
Ah gut, du erinnerst dich noch! Die Frage war, welche der vier Definitionen von „Künstlicher Intelligenz“ von einem Experten stammte und welche zwei von GPT-3 generiert wurden.
Die Antwort öffnet sich, wenn du auf dieses kleine blaue Kreuz klickst:
Redaktion: Lisa McMinn, Schlussredaktion: Susan Mücke, Bildredaktion: Philipp Sipos, Audioversion: Christian Melchert und Iris Hochberger