Am besten ist wohl, man bezeichnet Jürgen Geuter als eine Art freien Zukunftsexperten. Unter dem Pseudonym tante schreibt er auf seiner Homepage, Twitter und in zahlreichen Medien über Technologie: Blockchain, Web3 – und seit einiger Zeit viel über Künstliche Intelligenz. Er war Berater der Bundespolitik, sprach auf zahlreichen Netz-Konferenzen und bezeichnet sich selbst nicht nur als „unabhängigen Theoristen“, sondern auch als „Ludditen“.
Der Luddismus war eine Arbeitendenbewegung, die sich Anfang des 19. Jahrhunderts gegen die Industrialisierung und den damit einhergehenden Jobverlust eingesetzt hat. Im Deutschen wird der Begriff häufig mit dem Wort „Maschinenstürmer“ gleichgesetzt, weil die Anhänger:innen der Bewegung auch nicht davor zurückschreckten, Maschinen wie Webstühle zu zerstören. Jürgen Geuter will zwar nichts zerstören, weder das Internet noch KIs. Doch den Fortschritt um des Fortschritts willen kritisiert er dennoch: Nicht die Zukunftsvisionen zählen, sagt er, sondern die Auswirkungen im Hier und Jetzt. Ich habe mit ihm darüber gesprochen, wie ethisch ChatGPT und Midjourney sind und ob sich die Entwicklung überhaupt noch aufhalten lässt.
Wir haben bei Krautreporter kürzlich eine Umfrage unter unseren Leser:innen gemacht: Welche KI-Tools nutzt ihr und wofür? Rund 300 Menschen haben sich beteiligt. Manche von ihnen nutzen ChatGPT, um Geschichten für die eigenen Kinder zu schreiben, ein Anschreiben zu formulieren, für ein Brainstorming oder um eine Hausarbeit zu gliedern. Benutzen Sie solche Werkzeuge?
Ich benutze Bildgeneratoren manchmal, wenn ich einem Designer etwas erklären möchte; ich arbeite in einer Designagentur. Früher hat man häufig Moodboards erzeugt, also eigene Inspiration gesammelt, dann Pinterest abgegrast und ein paar frei verfügbare Bilder zusammengefügt, um auszuprobieren: Wo will ich hin? Das kann ich natürlich heute genauso gut mit einem solchen Generator machen. Und natürlich macht es wahnsinnig viel Spaß, die zu benutzen. Aber ich habe gleichzeitig große Bauchschmerzen dabei.
Weil Sie sich damit beschäftigen, wie diese Werkzeuge entstanden sind und was ihre Verbreitung bedeutet?
Wäre ich Designer, würde ich sie wahrscheinlich deshalb nicht einsetzen. Ich würde wahrscheinlich weiter auf Pinterest nach Ideen suchen, auch wenn ein KI-Tool das Leben so viel einfacher macht, weil es so viel spezifischer ist. Aber ich weiß ja trotzdem: Das Ding, das ich gerade benutze, ist gegen den Willen vieler meiner Mitmenschen entstanden, deren Arbeit da drinsteckt.
Was meinen Sie damit: gegen den Willen vieler Menschen?
Wer ein Werkzeug wie Midjourney baut, nimmt sich dafür die Trainingsdaten oft einfach aus dem Internet. Und das passiert teilweise gegen den Willen der Person, die die Arbeit in die zugrundeliegenden Bilder und Texte gesteckt hat. Ihre Arbeit wird dann in eine Statistikmaschine hineingequetscht.
Machen Sie sich Sorgen wegen dieser Bildgeneratoren oder wegen ChatGPT? Oder ist das ein Hype, der sowieso vorübergeht?
Es geht nicht darum, ob ein Large Language Model so gut ist wie ich. Wenn mein Boss glaubt, dass die Maschine so gut ist wie ich, dann kann das schon ausreichen.
Jürgen Geuter
Beides. Zum einen ist es offensichtlich ein großer Hype. Diese ganzen Tools sind sehr zugänglich, man macht sich einen Login und kann damit spielen. Der Hype führt zu Heilsversprechungen: Wir müssen ab nächster Woche alle nicht mehr arbeiten. Und zu Angstszenarien: Wir können ab nächster Woche gar nicht mehr arbeiten. Meine Sorge ist aber nicht, dass diese Systeme tatsächlich besser sind als Menschen und uns darum ersetzen. Ich mache mir Sorgen, weil sie als besser bezeichnet werden. Es geht nicht darum, ob ein Large Language Model so gut ist wie ich. Wenn mein Boss glaubt, dass die Maschine so gut ist wie ich, dann kann das schon ausreichen.
Passiert das?
Wir sehen das in vielen Branchen. Gerade in der Kreativindustrie, beim Grafikdesign etwa. Da schmeiße ich halt Midjourney an, das soll mir Bilder generieren. Eins wird schon passen. In Zukunft werde ich vielleicht noch Leute bezahlen, die den sechsten Finger wegretuschieren.
Macht es Ihnen Angst, was das mit der Gesellschaft anstellen könnte?
Mir macht Angst, was es mit einzelnen Menschen anstellt, wenn sie keine Möglichkeit mehr haben, Geld zu verdienen. Über gesellschaftliche, langfristige Konsequenzen philosophieren kann man immer. Aber ich glaube, es drängt nicht so sehr, darüber zu reden, ob sich jetzt unsere Vorstellung von Wahrheit oder von Intelligenz anpassen muss. Das sind die feuilletonistischen Beschäftigungen von meist mittelalten, weißen Männern. Nein, wir müssen auf das gucken, was gerade real passiert. Und da geht es um größere Gruppen der Gesellschaft, die werden massiv ökonomisch unter Druck gesetzt.
Sie bezeichnen sich mit dieser Betrachtungsweise als Luddite – im Deutschen wird der Begriff oft mit „Maschinenstürmer“ gleichgesetzt, was sie aber ablehnen. Was bedeutet es, Luddite zu sein?
Der US-Historiker David Noble hat ein Buch über die Ludditen geschrieben. Es ist 1995 erschienen und heißt: „Progress without People“, also: Fortschritt ohne Menschen. In seinem Buch argumentiert er, dass die Ludditen die letzte politische Bewegung waren, die Technologie in der Gegenwart verhandelt haben. Es waren Personen, die gesagt haben: „Das, was ihr tut, hat Auswirkungen im Hier und Jetzt, auf uns.“ Wir reden, wenn wir heute über Technologien sprechen, immer nur über die Zukunft. Die Befürworter sagen: „Wir müssen jetzt KI entwickeln, in Jahrzehnten werden wir alle von deren Arbeit leben.“ Auch die Kritik operiert häufig in Zukunftsdystopien: „Wenn jetzt Facebook weitermacht (oder Meta heute), dann gibt es in zehn Jahren keine freien Wahlen mehr!“
Aber es ist doch gut, wenn nach vorne gedacht wird.
Die Ludditen haben sich eben nicht darauf eingelassen, was in der Zukunft sein könnte. Wichtig war für sie: Was macht das jetzt? Heute? So ganz konkret.
Vielleicht hilft uns hier ein kleiner Sprung in die Geschichte: Die Ludditen waren eine Gruppe von Textilarbeiter:innen im frühen 19. Jahrhundert, die ihre Arbeit bedroht sahen durch die zunehmende Maschinisierung ihres Gewerbes. Diese Arbeiter:innen haben eine Reihe von Aufständen veranstaltet in England, in der Region von Nottingham. Und dabei, dafür sind sie letztlich berühmt geworden, haben sie Maschinen zerstört, also Webrahmen und mechanische Webstühle zertrümmert.
Ich würde das anders einordnen. Die Weber protestierten nicht unbedingt gegen den Einsatz von Maschinen generell, sondern gegen die massive Verschlechterung ihrer Arbeitsbedingungen. Diese Arbeiter waren keine Leute, die bisher von Hand gewebt oder noch nie eine Maschine gesehen hatten. Sondern gut ausgebildete Leute, die teils an der Entwicklung der Maschinen mitgearbeitet hatten, da sie teilweise sogar die Hoffnung hatten, die Maschinen könnten ihre Arbeit leichter machen, körperlich weniger anstrengend. Aber plötzlich merkten sie, dass ihre politische Macht, als Arbeiter gemeinsam fairere Löhne und fairere Arbeitsbedingungen auszuhandeln, durch die Maschinisierung unterlaufen wurden. Das war der Grund, die Maschinen zu zerstören.
Sie sehen die Aufstände der Ludditen also als eine Art Arbeitskampf?
Absolut. Die Ludditen wollten ihre Rechte im Arbeitskontext schützen. Deswegen wollten sie ihre Macht als Arbeiter behalten. Um weiterhin eine Verhandlungsposition zu haben. Zu ihrer Zeit war es so, dass der Besitzer einer Fabrik eigentlich gar nicht wusste, wie alles funktioniert. Er war voll abhängig davon, dass ihm sein Vorarbeiter sagte: Hier, wir brauchen das, das brauchen wir nicht, das dauert so lange, das kann man nicht ändern. Und so weiter. Aber dadurch, dass bestimmte Prozesse maschinisiert wurden, entzog das den Arbeitern einiges an Macht.
Letzten Sommer sind die KI-Bildgeneratoren wie DALL-E 2 und Midjourney Mainstream geworden. Im August kam Stable Diffusion raus, eine Open-Source-Variante, die jeder herunterladen und modifizieren kann. Diese Entwicklung hat für Empörung bei manchen Künstler:innen gesorgt. Ein Twitter-Thread eines Künstlers vergleicht die Situation mit den Ludditen im 19. Jahrhundert. Ist der Vergleich angebracht?
https://twitter.com/stealcase/status/1558133209606590464
Wir haben eigentlich eine vergleichbare Situation zu den Textilarbeitern in England. Vor eins, zwei Jahren konnte nur eine eher kleine Gruppe von Menschen Bilder automatisiert generieren. Es kostete viel Zeit, um sich reinzudenken und Bilder zu erzeugen. Jetzt hat jemand eine Maschine – Midjourney oder Stable Diffusion eben – gebaut und gesagt: „Ich kann das ganze Wissen, das die Leute sich erarbeitet haben, in ein statistisches Modell schieben. Und das generiert Werke, die sind stilistisch ungefähr ähnlich.“ Damit ist jetzt die Macht der Künstlerinnen unterlaufen, die ursprünglich diese Arbeit machten.
Und es kommt eigentlich noch eine Spitze hinzu. Maschinen wie Stable Diffusion und Midjourney wurden trainiert mit Bildern, die zumindest teilweise auch von den Künstler:innen kamen, die sich nun in Konkurrenz sehen. Es gibt inzwischen sogar eine Website, auf der ich nachschauen kann, ob meine Bilder in einem Trainingsdatensatz drin waren oder nicht.
Genauso wie man die Maschinen damals in der Textilwirtschaft eben auch nicht ohne die Weber hätte bauen können. Nur hätte man damals anders als heute nicht gesagt, das sei eine Demokratisierung gewesen. Ich finde das eine geschmacklose Argumentation.
Wieso demokratisieren, was bedeutet das? Und wer sagt das denn?
Es gibt Leute, die behaupten, dadurch, dass wir jetzt Bild- und Textgeneratoren haben, ist das Handwerk demokratisiert. Denn jetzt kann jeder und jede selber Bilder generieren.
Die Schwelle ist doch tatsächlich gesunken. Ich kann jetzt beeindruckende Bilder mit Textkommandos erzeugen, ich muss ein bisschen herumprobieren, aber es ist doch vergleichsweise einfach für meine Ansprüche.
Mit Demokratie hat das nichts zu tun. In einer Demokratie geht es darum, wie wir politische Macht verteilen. Und wenn diese KI-Systeme etwas tun, dann konzentrieren sie mehr politische Macht in den Händen von wenigen.
Jürgen Geuter
Mehr Leute haben Zugang zu einer Dienstleistung. Die ist jetzt potenziell billiger geworden. Und ausbeuterischer, weil eben nicht mehr die Leute bezahlt werden, die eigentlich arbeiten und die die Trainingsdaten, also die ursprünglichen Bilder oder Texte, erzeugt haben. Mit Demokratie hat das nichts zu tun. In einer Demokratie geht es darum, wie wir politische Macht verteilen. Und wenn diese KI-Systeme etwas tun, dann konzentrieren sie mehr politische Macht in den Händen von wenigen. Wir erleben gerade eine extreme Zentralisierung: Es gibt jetzt drei, vier große Anbieter: OpenAI in Kooperation mit Microsoft, Google und vielleicht noch Firmen wie Midjourney und Stability AI.
Es gibt natürlich diese Zentralisierung, aber das heißt nicht, dass es nicht auch Alternativen gibt: ChatGPT hat Open-Source-Alternativen, und bei den Bildgeneratoren gibt es Stable Diffusion, auch Open Source. Frei zum Runterladen für jede und jeden, läuft auf einer Mittelklasse-Grafikkarte, also auf einem Gaming PC zum Beispiel, der einigermaßen erschwinglich ist.
Aber das ist nicht gleichbedeutend mit einer Demokratisierung. Bilder zu malen oder sich malen zu lassen, ist bloß billiger geworden. Bei Demokratisierung aber geht es darum, wie Macht verteilt wird, wie Minderheiten geschützt werden. Zu Demokratie gehört Teilhabe und garantierte Rechte. Ist es mein Menschenrecht, schöne Bilder selbst erzeugen zu können? Wenn ich nicht die eigentliche Arbeit reingesteckt habe? Ich weiß, dass da gerne so ein Privilegiendiskurs daraus gehäkelt wird.
Ein was?
Ein Privilegiendiskurs. Nach dem Motto: Es gibt eine privilegierte Gruppe, die Bilder erzeugen kann. Aber diese Menschen haben eben auch die Arbeit reingesteckt, genauso ihre Lebenszeit.
Würde das aber nicht für alle möglichen Werkzeuge gelten? Zum Beispiel: Wieso darf ich Bus fahren? Wieso darf ich mich schneller fortbewegen, als ich es von meiner natürlichen Veranlagung mit meinen Beinen könnte? Ist nicht genau das Tolle an Technologie, dass sie uns einen erweiterten Möglichkeitsraum gibt? Dass sie unsere Fähigkeiten erweitert?
Einfach nur die Erfindung des Busfahrens ist nicht zwingend eine demokratische Sache. Öffentlicher Nahverkehr ist ja keine technische Innovation, sondern der Ausdruck unseres gesellschaftlichen Verständnisses, dass wir Mobilität für alle wichtig finden. Und wir versuchen deshalb, subventionierten öffentlichen Nahverkehr aufzubauen, damit möglichst viele Zugriff darauf haben. Das ist eine andere Diskussion als zu sagen, diese KI-Technologie, die vielen anderen Leuten auch ihren Lebensunterhalt nimmt, demokratisiert etwas. Ich halte das für eine fundamental falsche Anwendung eines Demokratiekonzeptes.
Mir wird aber erstmal nicht die Fähigkeit genommen, weiterhin originelle Kunstwerke zu erstellen, wenn ich Künstler:in bin. Es gibt jetzt nur vielleicht in manchen Fällen eine Alternative, die möglicherweise billiger ist.
Das hat aber Konsequenzen im Jetzt: Man hat ein Werkzeug, das man einsetzt – es gibt aber Menschen, die man sonst vielleicht bezahlt hätte. Und die können jetzt nicht mehr ihre Miete bezahlen.
Nach EU-Recht und auch nach US-Recht ist es erstmal legal, Bilder und Texte aus dem Internet für KI-Training zu verwenden, auch ohne die explizite Einwilligung von Urhebern, von der Künstlerin oder dem Autor. Es ist die Frage, ob es immer ethisch ist, aber es ist vermutlich legal.
Ob es tatsächlich legal ist, ist auch fraglich: Es wird gerade geklagt, weil Künstler:innen explizit sagen: „Ihr habt gegen meine Lizenz verstoßen!“ Das kann keine faire Nutzung sein im Sinne des Gesetzes. Wir werden also in der nächsten Zeit sehen, ob das Training tatsächlich legal ist. Und zu der ethischen Frage: Wenn wir als Gesellschaft sagen würden: Es gibt einen Bild-Datensatz, der genau fürs Training von KI von Urheber:innen freigegeben wird, und da geben Menschen ihre Daten hinein, ihre Bilder, ihre Kunst, und werden dafür vielleicht bezahlt, dann hätten wir auch eine ganz andere Debatte an dieser Stelle.
Ich schreibe als Journalist selber Texte, die für ein Training von KI verwendet werden könnten. Was kann ich selbst denn machen? Wenn ich mir nochmal das Wort Maschinenstürmer in den Sinn rufe: Ich kann ja nicht wirklich eine Maschine wie ChatGPT zerstören, oder?
Ich als Einzelperson nicht. Ein Staat kann das schon.
Italien hat zum Beispiel ChatGPT zumindest vorübergehend gesperrt, wegen Datenschutzbedenken.
Genau. Also man sieht, man kann das schon tun. Es gibt natürlich auch Wege, wie man das Problem vermeintlich auf technische Weise lösen kann: Die University of Chicago hat ein Tool vorgestellt, mit dem ein Künstler oder eine Künstlerin die eigenen Bilder so behandeln kann, dass neuronale Netzwerke deren Stil nicht mehr lernen können. Aber irgendwann passen sich die Trainingsalgorithmen an; es ist ein ewiger Kampf, der auch zu nichts führt. Es muss ein politischer Kampf sein. Wenn wir uns als Gesellschaft darauf einigen, dass wir diese Technologien haben wollen, müssen wir politische Lösungen finden. Vielleicht bekommen Künstler jetzt vom Staat jeden Monat ein paar Tausend Euro überwiesen.
Das Tempo, mit dem diese KI-Systeme entwickelt werden, ist aber sehr hoch: Letzten Sommer verbreiteten sich die großen Bildgeneratoren, im darauffolgenden November wurde ChatGPT veröffentlicht, mittlerweile gibt es eine noch neuere Version mit GPT-4, die Text und Bild als Input nehmen kann. Ist der deutsche Staat bezüglich des Tempos zu träge?
Unsere Gesetze sollen ja eigentlich politische Werte ausdrücken und nicht sagen: ChatGPT ist doof. Super spezifische Gesetze versuchen wir zu vermeiden. Das Argument, es gehe alles so schnell und sei so schwer zu regulieren, ist auch eine Schutzbehauptung, um nichts unternehmen zu müssen. In der Politik will niemand als Verhinderer von Fortschritt dastehen.
Kürzlich haben viele prominente Expert:innen aus dem Tech- und Wissenschaftsbereich eine sechsmonatige Pause des Trainings sehr großer KI-Modelle gefordert. Unterzeichnet haben den offen Brief unter anderem Elon Musk, der Historiker Yuval Noah Harari und Yoshua Bengio, der als einer der Väter der modernen KI gilt. Eigentlich könnte man meinen, in dem Brief steckt eben der Gedanke, den auch Luddismus teilt: Fortschritt ist keine Naturgewalt, sondern eine kulturelle und politische Entscheidung – wir können auch anders. Trotzdem haben Sie den offenen Brief kritisiert. Warum?
Dieser Brief behauptet, die KI-Entwicklung sei so schnell und so gefährlich, auch für die menschliche Existenz gefährlich, dass wir eingreifen müssen. Alle, die an den großen KI-Modellen forschen, sollten jetzt freiwillig sechs Monate pausieren, damit man die Zeit nutzen könne, um zu überlegen, was man für mehr Sicherheit tun kann. Wenn aber die Analyse stimmt und diese Technologie wirklich so gefährlich ist, dann müsste man fordern, die KI-Entwicklung zurückzubauen, zum Beispiel den Zugang zu ChatGPT abzuschalten. Das machen die Unterstützer:innen der Petition aber nicht, sondern sie sagen, ChatGPT soll weiterlaufen, die Forschung soll weiterbetrieben werden nach der Pause. Das scheint mir widersprüchlich.
Aber die Forderung ist doch, Kontrollmechanismen zu entwickeln. Also Tests zu entwickeln, um zu prüfen, was gefährlich ist.
Da geht es aber darum, dass sich die KI-Community quasi selbst Kontrollmechanismen vorschlagen soll. Also die sollen als technokratische Expert:innen miteinander ausmachen, wie reguliert werden muss. Und dann machen sie gemeinsam weiter, so die Idee. Ich finde es ein antidemokratisches Vorgehen zu sagen: „Wir sind die Expert:innen, wir entscheiden jetzt, wie es geht. Die Regierungen dürfen mit dabei sein, aber wir legen jetzt fest, wie man damit umgeht und dann wird das ein regulativer Rahmen.“
Wie könnte denn Ihrer Meinung nach eine demokratische Regulierung aussehen?
Man müsste zunächst schon bestehende Regularien anwenden: Das, was ich durch menschliche Arbeit nicht tun darf, dürfen Maschinen auch nicht tun. Und für neue Regulierungen könnte das heißen: Eine Firma wie OpenAI darf nicht mehr forschen, ohne dass jemand von außen die KI-Modelle und die Trainingsdaten untersuchen kann. Zum Beispiel könnte ein Staat sagen: „Okay, ihr wollt das anbieten, wir regulieren das aber, erlauben es nur für bestimmte Anwendungen und bestimmte Fälle. Ihr müsst die Modelle untersuchen lassen und genau zeigen, was da drinsteckt, damit wir das einschätzen können, ob euer Produkt dem regulativen Rahmen entspricht. Und dann bekommt ihr ein Siegel und könnt das bis zur nächsten Überprüfung machen.“
Halten Sie die Weiterentwicklung von KI generell noch für vermeidbar?
Die ludditische Antwort auf diese Frage ist: Alles ist vermeidbar. Und anders als die Ludditen damals können wir heute sagen: „Wir entscheiden uns, dass wir die KI nicht wollen, und dann wird im Parlament abgestimmt und der Einsatz untersagt.“ Es braucht dazu nur ein wenig wertegeleiteten politischen Gestaltungswillen. Die Behauptung, KI-Entwicklung ließe sich nicht regulieren, ist die Behauptung von Firmen, die nicht ernsthaft reguliert werden wollen. Wir können das machen und wir haben das immer wieder gemacht: Man könnte Embryonen genetisch modifizieren oder privat Nuklearwaffen bauen. Aber das erlauben wir nicht. Es gibt keinen Grund, warum ausgerechnet KI-Entwicklung unvermeidbar und unregulierbar sein sollte.
Redaktion: Esther Göbel, Bildredaktion: Philipp Sipos, Schlussredaktion: Susan Mücke, Audioversion: Christian Melchert und Iris Hochberger