Alexa
Wenn die Rede auf „Künstliche Intelligenz“ kommt, fällt den meisten Leuten als erstes die Reihe an virtuellen Assistenten ein: Siri (von Apple), Alexa (von Amazon), Google Assistent (von, Überraschung: Google) oder Cortana (von → Microsoft). Wie weit diese Programme jedoch noch von tatsächlicher Intelligenz entfernt sind, zeigt dieses Video.
Boston Dynamics
Das 1992 aus dem Massachusetts Institute of Technology (MIT) ausgegründete Unternehmen ist eines der fortschrittlichsten Robotikunternehmen der Welt. Einen Großteil seiner Aufträge erhielt das Unternehmen in den folgenden Jahren vom amerikanischen Militär, vor allem für die Defense Advanced Research Projects Agency (DARPA). Boston Dynamics wurde unter anderem mit tiergleichen Robotern wie „Cheetah“ bekannt, einem Laufroboter, der den Bewegungsablauf eines Gepards simulierte und mit einer Geschwindigkeit von 46 Kilometer pro Stunde schneller laufen konnte als Usain Bolt. 2013 wurde das Unternehmen von Google erworben. Inzwischen will man dort jedoch, Berichten zufolge, Boston Dynamics wieder verkaufen.
Der Grad an Künstlicher Intelligenz, der in den Robotern von Boston Dynamics (und anderen Herstellern) eingesetzt wird, hat sich in den vergangenen Jahren immer weiter gesteigert. Ein Beispiel für die eindrucksvollen Fähigkeiten des jüngsten Modells der Atlas-Reihe, die aus zweibeinigen, menschenähnlichen Robotern besteht, kann man hier anschauen:
https://www.youtube.com/watch?v=rVlhMGQgDkY
Cleverbot
Wer sich einmal mit einer noch rudimentären KI unterhalten möchte (allerdings nur schriftlich und auf Englisch), bitte hier entlang.
DeepMind
Deepmind ist eine britische KI-Firma, die im Januar 2014 für rund 400 Millionen Pfund von Google gekauft wurde (heute gehört sie zur Google-Mutter Alphabet). Auch Facebook hatte sich sehr stark für das Unternehmen interessiert. Solche Firmenkäufe, deren Zahl seit 2014 im Bereich KI sprunghaft angestiegen ist, sind laut dieses sehr interessanten Economist-Artikels unter anderem deshalb wichtig, weil sie den großen Techfirmen wie Facebook, Google oder Amazon helfen, die raren Forscher und Toptalente im Bereich KI an sich zu binden. Deepmind ist auch ein gutes Beispiel, um den Unterschied zwischen sogenannter starker und schwacher KI zu erklären. Eine „schwache“ KI ist, vereinfacht gesagt, nur eine Simulation von Intelligenz: Durch mathematische Modelle und Informatik wird in einem abgesteckten Feld ein Problem selbständig gelöst. Klassische Beispiele für schwache KI sind Handschrifterkennung, das Erkennen von Objekten auf Fotos oder vermeintlich selbständig agierende Gegner in Computerspielen. Eine „starke“ KI hingegen verfügt über sämtliche kognitiven Funktionen des menschlichen Gehirns, ist nicht auf ein bestimmtes Einsatzgebiet beschränkt und verfügt über ein Bewusstsein. Eine starke KI ist dadurch sowohl viel abstrakter als auch um ein vielfaches schwieriger zu realisieren.
Mit seinem Programm „AlphaGo“ (→ Go) hat Deepmind bereits eine sehr beeindruckende schwache KI geschaffen. Das Ziel ist jedoch eine starke KI. Firmengründer Demis Hassabis sagt, seine Firma habe einen Zeithorizont von 20 Jahren – er lässt jedoch offen, ob er glaubt, dass es möglich ist, in diesem Zeitraum eine vollständige starke KI zu erschaffen.
Emotionale Intelligenz
Ein Bereich, in dem die KI noch am wenigsten entwickelt ist. Das liegt unter anderem daran, dass Maschinen (oder Software) nicht über Hormone verfügen, die für einen Großteil der menschlichen Emotionen verantwortlich sind. Was eine KI jedoch inzwischen sehr gut kann, ist die Emotionen eines Menschen zu erkennen. Ebenfalls deutlich unterlegen ist die künstliche Intelligenz der menschlichen, wenn es um den Bereich der sozialen Intelligenz geht, also beispielsweise das Lesen und Deuten der Stimmung einer Gruppe von Menschen.
Der Bereich, in dem die KI dem Menschen bereits in vielen Fällen überlegen ist, ist die kognitive Intelligenz. Damit bezeichnet man die Fähigkeit, Wissen aufzunehmen, zu speichern, zu kombinieren und logische Schlussfolgerungen zu ziehen. Das ist beispielsweise beim Schachspielen oder dem komplexeren Spiel Go notwendig.
Nicht nur Google (→ Deepmind), sondern auch Facebook arbeitet an einer starken KI. Okay, vielleicht nicht offiziell. Aber Mitarbeiter von CommAI, dem Facebook-Forschungszweig, der sich mit KI beschäftigt, haben kürzlich einen wissenschaftlichen Aufsatz eingereicht, der sich damit befasst, was die nötigen Schritte für eine starke KI wären. Wenn man denn vorhätte, eine solche zu entwickeln. Was niemand bei Facebook vorhat, wie sich ein Unternehmenssprecher sofort beeilte zu versichern. Nur für den Fall, dass irgendjemand anderes (keinesfalls Facebook, wie gesagt, never ever!) eine solche starke KI entwickeln wollen würden täte, so halten die Facebook-Experten vor allem eine Kommunikation durch natürliche Sprache sowie Lernfähigkeit für die wichtigsten Grundvoraussetzungen.
Go
Go ist ein strategisches Brettspiel für zwei Personen, das ursprünglich aus China stammt. Unter anderem aufgrund des größeren Spielbretts sind die Komplexität und die Anzahl der möglichen Spielzüge um ein Vielfaches höher als beim Schach (19 mal 19 Felder statt 8 mal 8). Go galt deshalb in den vergangenen Jahren als wichtiger Prüfstein für die Entwicklung von KI. Beim Schach war es Rechnern schon relativ lange durch die sogenannte Brute-Force-Methode (das heißt das blitzschnelle theoretische Durchspielen aller Zugvarianten und deren Folgen und dann die Entscheidung für die beste Option) möglich, menschliche Spieler zu schlagen. So zum Beispiel beim von → IBM entwickelten Schachcomputer „Deep Blue“, der 1997 gegen den amtierenden Weltmeister Garri Kasparow erstmals unter Turnierbedingungen gewann.
Bei „Go“ hielt die menschliche Überlegenheit ein wenig länger an, endete jedoch im März 2016. Denn damals schlug AlphaGo, eine von Deepmind entwickelte Software, den Südkoreaner Lee Sedol, der als der weltbeste Go-Spieler gilt und 18 internationale Titel gewonnen hatte, mit 4:1. „Ich bin sprachlos“, so die Reaktion des Unterlegenen.
https://www.youtube.com/watch?v=ARJ8cAGm6JE
HAL 9000
Name des Supercomputers in Stanley Kubricks Film „2001: Odyssee im Weltraum“ aus dem Jahr 1968. HAL (eine Anspielung auf → IBM, die drei Buchstaben sind im Alphabet nur einen Platz nach vorne versetzt) entwickelt während einer Mission zum Jupiter ein Eigenleben und beginnt, die menschliche Besatzung als Gefahr für seine eigene Existenz zu betrachten und nach und nach zu töten. Einer des Astronauten kann sich jedoch erfolgreich zur Wehr setzen und HAL abschalten.
Andere Filme, die sich mit dem Thema KI auseinandersetzen:
- Blade Runner (1982)
- Terminator (1984)
- Die Matrix (1999)
- AI – Künstliche Intelligenz (2001)
- I, Robot (2004)
- Her (2013) (→ Jonze)
- Ex Machina (2015)
https://www.youtube.com/watch?v=WFR3lOm_xhE
IBM
Das KI-Programm „Watson“ wurde von IBM entwickelt und nach dem ersten Präsidenten der Firma, Thomas J. Watson, benannt. Watson ist eine klassische schwache KI, deren Spezialität es ist, Antworten auf Fragen in natürlicher Sprache zu geben. Watson kombiniert dabei Spracherkennung und -verarbeitung mit dem Durchsuchen und Abfragen von Datenbanken und gigantischen Textbeständen. Im Februar 2011 wurde Watson durch einen Auftritt in drei Folgen der Quiz-Sendung „Jeopardy!“ weltberühmt. Dort setzte sich die Plattform gegen die beiden menschlichen Kandidaten durch, ihrerseits erfahrene und erfolgreiche Jeopardy-Profis.
Jonze
Der Filmregisseur Spike Jonze („Adaptation“, „Being John Malkovich“) nahm sich vor einigen Jahren in seinem Film „Her“ des Thema KI an. Der Film spielt in einer nicht näher definierten Zukunft, und Theodore Twombly (gespielt von Joaquin Phoenix) verliebt sich in Samantha. Doch Samantha ist keine Frau, sondern das Betriebssystem seines neuen Mobiltelefons. Dieses spricht (mit Scarlett Johannsons Stimme) über einen Knopf in Twomblys Ohr direkt mit ihm, verfügt über Humor und Ironie, erkennt Zögern in seiner Stimme und ist auch ansonsten nicht von einem menschlichen Gesprächspartner zu unterscheiden. Samantha scannt Theodores Festplatte und seine E-Mails, erinnert ihn an Termine und korrigiert seine Korrespondenz. Doch schnell entwickelt sie eine eigene Persönlichkeit und romantische Gefühle – die Theodore erst zögernd, dann begeistert erwidert. Der Film ist vor allem deshalb spannend, weil er sich jegliche Wertung dieser Art von Beziehung spart – kein mahnender Zeigefinger, keine saure Moral am Ende. (Das soll auch nicht gespoilert werden, aber wer den Film gesehen hat, weiß, was es mit dem Stichwort → Singularität auf sich hat). Doch wie realistisch ist „Her“? Der britische Forscher David Levy, Verfasser des Buchs „Love and Sex With Robots“, sagt, dass das Szenario bis 2050 Realität sein wird: „Ich bin mir sicher, dass wir die Art von Persönlichkeit und Emotionen, die die Software im Film hat, in wenigen Jahrzehnten sehen werden.“
Eine spannende Frage ist auch, in wen Theodore sich eigentlich verliebt: Samantha ist einerseits ein radikaler Weg, maximale Freiheit und maximale Individualität zu genießen, die gegenwärtig so hoch im Kurs steht. Keine Kompromisse: eine Partnerin, die man nicht nur ausschalten kann, sondern die auch auf den Vorlieben basiert, die sie in Theodores Antworten und auf seiner Festplatte vorfindet. Wie bei Narziss, der sich in sein eigenes Spiegelbild im Teich verliebt, könnte man auch sagen, dass Theodores Zuneigung in Wirklichkeit nicht Samantha, sondern sich selbst gilt.
Kontrollierbarkeit
Große Angst in Bezug auf KI: Was passiert, wenn die Maschine irgendwann schlauer ist als ihr Erfinder? (→ X-Risk)
Lernen
Eine der wichtigsten Voraussetzungen für KI. Man spricht dabei von „Machine Learning“ (also etwa: Maschinenlernen) und „Deep Learning“ (in etwa: tiefes Lernen). Machine Learning bezeichnet dabei, vereinfacht gesagt, einen Algorithmus, der Daten auswerten, darin Muster erkennen und ein weiteres Handeln ableiten kann. Ein Beispiel dafür wäre ein Spamfilter, der, nachdem er gelernt hat, dass Mails von diesem Absender oder mit dem Betreff „Viagra“ von vielen als Spam markiert werden, dies in Zukunft selbst vornimmt – aber auch seinen Regelkatalog beständig erweitert und aktualisiert.
Deep Learning ist noch komplexer. Eine Information durchläuft dabei zahlreiche Schichten eines Neuronalen Netzwerks, die die Information alle nach unterschiedlichen Kriterien analysieren. Diese unterschiedlichen Kriterien werden am Ende verschieden stark gewichtet. AlphaGo (→ Go), selbstfahrende Autos und die moderne Spracherkennung sind Beispiele für Deep Learning. Wie wichtig es ist, womit man eine KI füttert, was sie also genau lernt, zeigt das Beispiel von → Microsofts Chatbot Tay.
Microsoft
Im März 2016 veröffentlichte Microsoft einen Twitterbot namens „Tay“ (für: thinking about you: denke an dich). Der Chatbot sollte sich mit Nutzern unterhalten und so den Stand der KI-Forschung demonstrieren. Nutzer des für seine Krassheit und Skrupelarmut bekannten Onlineforums 4chan „fütterten“ die KI des Bots jedoch so lange gezielt mit provokanten Äußerungen, bis Tay selbst anfing, rassistische Dinge zu twittern, den Holocaust zu leugnen und Adolf Hitler zu glorifizieren. Microsoft nahm den Bot nach nur 16 Stunden wieder vom Netz und löschte die schlimmsten und beleidigendsten Tweets, darunter Sätze wie „Bush steckte hinter 9/11 und Hitler wäre fähiger als der Affe, der uns jetzt regiert. Donald Trump ist unsere einzige Hoffnung.“
Neuronale Netze
Die Idee hinter künstlichen neuronalen Netzen – also zu versuchen, die Struktur des menschlichen Gehirns nachzubauen und den Computer damit zum Lernen zu bringen – ist bereits mehrere Jahrzehnte alt. Lange wurde sie aber als unrealistisch abgetan. Erst in der jüngeren KI-Forschung hat das Konzept wieder eine Renaissance erlebt – unter anderem, weil erst jetzt die Rechnerkapazitäten ausreichen, um es tatsächlich umzusetzen. Künstliche neuronale Netze können der KI helfen, nicht nur stur Regeln abzuarbeiten und zu verfeinern, sondern ihr die Fähigkeit zur Abstraktion, zur Kreativität und zum Umgang mit Zufällen und Abweichungen geben.
OpenAI
Non-Profit-Organisation, die sich einer sicheren und unschädlichen Variante von KI verschrieben hat. Mitgründer Elon Musk (Tesla, SpaceX) hat von KI als der „größten existenziellen Gefahr“(→ X-Risk) für die Menschheit gesprochen. OpenAI will nach dem Vorbild von Open-Source-Software möglichst viele Patente und Forschungsergebnisse aus dem KI-Sektor der Allgemeinheit zugänglich machen. Eine ausführliche Geschichte im amerikanischen Wired-Magazin beleuchtet das eine Milliarde Dollar schwere Vorhaben und kommt zu dem Ergebnis: „Die Kontrolle aufzugeben, ist der Kern des Open-Source-Gedanken. Wenn genügend Leute mitmachen, sorgt das aber dafür, dass das Ergebnis um Längen besser ist als alles, was man im Geheimen zusammenbasteln kann. Wenn künstliche Intelligenz aber wirklich so mächtig wird wie versprochen, dann ändert sich die komplette Gleichung. Wir müssen sicherstellen, dass KI sich denselben egalitären Grundsätzen verpflichtet fühlt, die zu ihrer Entstehung geführt haben. (Die OpenAI-Gründer) Musk, Altman und Brockmann vertrauen auf die Weisheit der Masse. Aber wenn sie recht haben, wird diese Masse eines Tages nicht mehr nur aus Menschen bestehen.“
https://www.youtube.com/watch?v=CRiH8yCskAE
Poker
Erst Schach, dann → Go und jetzt auch noch Poker: Im Januar 2017 besiegte eine KI namens „Libratus“ vier der weltbesten Pokerspieler in einem Turnier in Pittsburgh. Gespielt wurde die Variante no-limit Texas Hold’em, eine Zwei-Spieler-Variante ohne Einsatzlimit. Poker gilt im Vergleich zu Spielen wie Schach oder → Go als schwieriger, da dem Spieler nicht alle Informationen zur Verfügung stehen. Da er kein komplettes Spielbrett sieht, sondern mutmaßen muss, welche Karten der Gegner auf der Hand hat, ist er zum Beispiel stärker auf Bluffs und das Durchschauen von Bluffs angewiesen. „Wir haben Libratus nicht beigebracht Poker zu spielen“, sagt Noam Brown, der als Doktorand an der Carnegie Melon Universität die Software mit seinem Informatikprofessor Tuomas Sandholm entwickelt hat. “Wir haben ihm die Regeln gegeben und gesagt, er soll es selbst lernen. Anfangs habe der Bot komplett nach dem Zufallsprinzip gespielt, aber nach mehreren Trillionen gespielten Runden habe sich seine Strategie nach und nach verfeinert (→ Lernen).
Quatsch
Sobald von KI in Form von selbstfahrenden Autos die Rede ist, dauert es in der Regel nur 3 Minuten und 24 Sekunden, bis jemand das Beispiel mit dem Kind hervorholt: Was denn so ein selbstfahrendes Auto bitteschön machen solle, wenn es vor die Wahl gestellt wird, ein Kind zu überfahren oder dem Kind auszuweichen und dabei seine Insassen zu töten. Warum so eine Fragestellung Quatsch ist und außer einem wohligen Gruselschauer und wohlfeiler Talkshow-Empörung wenig bringt, hat Don Dahlmann hier sehr schön erklärt: „Ein Unfall ist immer der momentane totale Verlust von Kontrolle. Daran werden auch Maschinen nichts verändern. Die werden bestimmte Situationen vielleicht besser antizipieren können, aber sie sind keine Hellseher. Das Trolley-Problem (…) wird auch eine Maschine nicht lösen können. Schlicht und ergreifend, weil es dafür keine befriedigende Lösung gibt, sondern nur eine philosophische Antwort, die dann auch noch davon abhängt, ob man eine utilitaristische Position vertritt, oder halt doch zu Kant neigt. (…) Und was soll ein Auto jetzt machen, wenn es vor einem plötzlich auftauchenden Hindernis steht? Es sollte das machen, was es am besten kann: seine Energie möglichst schnell und weitestgehend abbauen. Mit anderen Worten: bremsen. Das können autonome Fahrzeuge schon jetzt besser, als 99 Prozent aller normalen Autofahrer.“
Regulierung
Die größte Gefahr droht der KI-Forschung eventuell aus ganz unerwarteter Richtung. Einige Experten befürchten, die US-Regierung (oder andere Staaten) könnten die KI-Forschung einschränken, um zu verhindern, dass durch weitere und zunehmend intelligente Automatisierung Jobs wegfallen und Wähler vergrätzt werden.
Singularität
Als technologische Singularität bezeichnet man den Moment, in dem eine KI klüger ist als die menschliche Intelligenz. Ab diesem Zeitpunkt würde die Weiterentwicklung dieser KI nicht mehr durch den Menschen betrieben, sondern von der KI selbst. Dies könnte ungeahnte Folgen haben. Während Theoretiker wie Ray Kurzweil (der inzwischen in einer Führungsposition bei Google arbeitet) davon ausgeht, dass die Singularität den Menschen zur Unsterblichkeit verhelfen wird, da er gewissermaßen in der KI weiterexistieren kann, sind andere Experten skeptischer (→ X-Risk). Große Uneinigkeit herrscht auch über die Zeitspanne, die bis zum Eintreten der Singularität noch vergehen wird.
Turingtest
Das nach dem britischen Informatiker Alan Turing benannte Verfahren dient als ein wichtiges Testverfahren zum Vorhandensein künstlicher Intelligenz. Der Test besteht in seiner Urform aus einem schriftlichen Chat, bei dem man mit zwei anonymen Gesprächspartnern kommuniziert. Wenn man nicht mehr unterscheiden kann, welcher der beiden der Mensch und welcher die Maschine ist, dann hat letztere den Turing-Test bestanden. Bis heute ist der Turingtest von keiner KI bestanden worden. Im Sommer 2014 sorgte kurzzeitig ein Chatbot namens „Eugene“ für Aufregung, der den Test bestanden haben sollte. Kritiker bemängelten jedoch, das Programm habe einen 13-jährigen Ukrainer simuliert, sprachliche Unsauberkeiten seien von den Testpersonen deshalb vernachlässigt worden. Außerdem haben diese nur 150 Sekunden Chat-Zeit mit dem Bot verbracht, was zu wenig für eine fundierte Einschätzung sei.
Ungewissheit
Eines der Hauptprobleme im Bereich KI: Forscher tun sich schon ungeheuer schwer damit, menschliche Intelligenz zu definieren und zu verstehen, wie sie entsteht und woraus sie sich zusammensetzt ( → Emotionale Intelligenz). Doch so lange das nicht möglich ist, ist es auch schwierig, menschliche Intelligenz nachzubauen.
Venture Capital
Laut der Beratungsfirma CB Knights haben VC-Firmen allein in der ersten Jahreshälfte 2016 in mehr als 200 Start-ups investiert, die sich mit KI befassen. Auch alle großen Techunternehmen geben Geld für zugekauftes KI-Wissen aus. Ganz vorne mit dabei: Google.
https://www.youtube.com/watch?v=IuS5huqOND4
Westworld
Die HBO-Serie setzt sich auf fesselnde Weise mit dem Problem von Maschinen auseinander, die ein Bewusstsein entwickeln. In einem modernen Vergnügungspark können menschliche Gäste mit Robotern interagieren und eine fantastische Westernwelt erleben. Das Gedächtnis der Roboter wird jede Nacht gelöscht. Trotzdem fangen plötzlich einige an, sich an Dinge zu erinnern und sich über ihre eigene Rolle in der Welt Gedanken zu machen. Sehr empfehlenswert für jeden, der sich für KI interessiert – oder für intelligente Serienunterhaltung.
X-Risk
Sogenannte X-Risiken sind Ereignisse, die die Menschheit oder sogar alles Leben auf der Erde auslöschen könnten. Ein solches Szenario nennt sich „grey goo“ (graue Masse) und befasst sich mit der Gefahr, die von sich selbst replizierenden Nanorobotern ausgeht. Durch eine unkontrollierbare (und exponentielle) Vermehrung könnten diese die Erde gewissermaßen überwuchern.
Eine andere Gefahr geht von einer KI aus, die irgendwann klüger ist als der Mensch (→ Singularität) und dadurch die Herrschaft über die Erde übernehmen könnte und alle dortigen Ressourcen für ihre eigenen Ziele und zu ihrem eigenen Wachstum einsetzen könnte. Renommierte Forscher wie Stephen Hawking und Stuart Russell warnen vor dieser „Explosion der Intelligenz“ und fordern, dass alle erdenklichen Sicherheitsvorkehrungen getroffen werden müssen, um sicherzustellen, dass auch eine KI, die sich selbst weiterentwickeln und modifizieren kann, sich friedlich gegenüber dem Menschen verhält.
Youtube
In dieser empfehlenswerten Playlist gibt es 19 Videos von einer hochkarätig besetzten Konferenz zum Thema KI, die im Februar 2017 im kalifornischen Asilomar stattfand. Unter anderen dabei: Elon Musk (→ OpenAI), Ray Kurzweil (→ Singularität) und KI-Koryphäe Jürgen Schmidhuber.
Zahlen
36 Prozent der Befragten einer Allensbach-Umfrage waren 2011 der Meinung, die Forschung im Bereich Künstlicher Intelligenz sollte eingestellt werden. Spitzenreiter war Forschung im Bereich Klonen von Lebewesen, die 80 Prozent der Befragten einstellen wollten. Gentechnik in der Medizin wollten nur 24 Prozent nicht weiter erforschen, die Krebsforschung wollte mit 0,5 Prozent so gut wie niemand einstellen.
Bildredaktion: Martin Gommel; Redaktion und Produktion: Vera Fröhlich