Wissen wir, wo es lang geht?

Künstliche Intelligenz – Heilsbringer oder Ritter der Apokalypse?

Der Titel ist bewusst pathetisch gewählt, weil sich in der aktuellen Diskussion um künstliche Intelligenz zwei Lager gebildet haben: Das der Heilsverkünder und das der Weltuntergangspropheten. Die «Wahrheit» dürfte irgendwo dazwischen liegen.

Ich bin kein Experte, wenn es um künstliche Intelligenz (KI) geht. Ich kämpfe täglich mit den verschiedenen Apps und Anwendungen, die mir mein iMac, mein iPhone, das iPad und neu der Samsung Fernseher um die schlackernden Ohren schlagen. Dort wird ein Update eingefordert, da ein neues Passwort oder Back-up, eine Altersverifikation, eine Antwort auf einen Social-Media-Post (auf welchem Kanal kam die Frage noch rein?) etc.

Kurz: Ich bin ein User. Ich habe nie Programmieren gelernt (was ich etwas bereue) oder mich zur Informatik als Lehre hingezogen gefühlt. Die technologische Entwicklung, die mit der fortschreitenden Digitalisierung einhergeht, hat mich aber immer fasziniert. Das begann mit der Einführung der Compact Disc (CD) und den CGI-Effekten (Computer Generated Imagery) in Spielfilmen

Diese Polarisierung zwischen Heilverkündern und Weltuntergangspropheten ist alles andere als neu. Auch bei Videospielen hat es die Superpositivisten gegeben, angeführt von Jane McGonigal, die mit ihrem Buch «Reality is Broken» auch gleich die Schrift dazu lieferte, und in Al Gore, dem ehemaligen Vizepräsidenten der USA, einen weiteren Verkünder des Heils durch Gamification fand. Auf der anderen Seite standen Weltuntergangspropheten wie Neuropsychologe Manfred Spitzer, der zu «Vorsicht Bildschirm!» mahnte und natürlich Lieutenant Colonel Dave Grossman, der mit seinem Bestseller «Stop Teaching our Kids to Kill» Computerspielen einen martialischen Stempel aufdrückte.

Die Propheten von damals sind verstummt. Zwar mucken hier da und immer noch alte Vorurteile auf, aber Games gehören zum Alltag und erfreuen weltweit über drei Milliarden Menschen.

Ein neuer Glaubenskrieg

Nun droht die Gefahr eines erneuten Glaubenskriegs. Wiederum beziehen Heilsverkünder und Doomsayers ihre Positionen. Der Nährboden ist besonders fruchtbar, denn die Ungewissheit über das Potenzial und die möglichen Gefahren, die die Entwicklung von künstlicher Intelligenz mit sich bringt, ist der perfekte Humus für Behauptungen jedwelcher Couleur.

Ein Kollege von mir sagte kürzlich: «Get to know the unknown.» Diesem Grundsatz folge ich als neugieriger Mensch schon immer. Das Unwissen ist der Stachel in meiner Seite, der mich vorwärtstreibt. Kommt hinzu, dass mir der Umstand, dass Propheten des Weltuntergangs immer recht haben, Mühe bereitet. Warum? Wenn nichts geschieht, können sie sagen, dass die Menschen auf sie gehört haben. Geschieht etwas, können sie sich auf die Position stellen, dass sie immer davor gewarnt hätten. Leider haben die meisten Doomsayers keine Lösung zur Hand als Panikmache und Verbote.

Immer schneller, immer unverständlicher

In den letzten hundert Jahren fand eine Beschleunigung und Verdichtung des Alltags in vieler Hinsicht statt. Technologien werden immer schneller verbreitet und von Menschen aufgenommen. Während das Radio gemäss einer Studie von Brand Nexus 38 Jahre benötigte, um 50 Millionen Menschen zu erreichen, war es beim Fernsehen rund ein Drittel der Zeit. Fürs Internet reichten 4 und für Apples iPod 3 Jahre. Facebook hatte binnen 9 Monaten 50 Millionen Abonnentinnen und Abonnenten.

Chat GPT wurde am 30. November 2022 online und damit der Öffentlichkeit zur Verfügung gestellt. Binnen einer Woche hatten über eine Million Menschen die KI ausprobiert, im ersten Monat erreichte Chat GPT 57 Millionen Menschen und ist damit das sich am schnellsten ausbreitende Medium aller Zeiten.

Diese laufende Beschleunigung bringt es mit sich, dass uns die Zeit fehlt, uns mit neuen Medien oder deren Veränderungen vertieft und differenziert auseinanderzusetzen. Diese Problematik begleitet uns verstärkt in den letzten 10, 15 Jahren und wird verschärft durch die unablässige Barrage sozialer Medien, die unsere Aufmerksamkeit vielfach mit Müll in Beschlag nimmt.

Vor diesem Hintergrund haben Panikmacher leichtes Spiel. Die Skepsis, Kritik und vielfach Ablehnung von neuen Medienformen ist keineswegs neu, sondern reicht Jahrhunderte zurück. Zu viktorianischen Zeiten galt das Lesen von Büchern insbesondere für junge Damen als schlecht. Die verdorbenen Inhalte würden die Leserinnen auf dumme Ideen bringen und ihre Körperhaltung leide während des Lesens. Später erkannten Sittenwächterinnen und Moralapostel den Untergang der Zivilisation in den Comics, dem Rock’n’Roll (dieser Hüftschwung von Elvis …), in den Horrorfilmen und natürlich Videogames. Hiess es in den Achtzigerjahren «Brutalovideos», waren es ab 1999 «Killerspiele», denn mit dem High School Shooting von Columbine war das mediale Paar Egoshooter und Massenmorde an Schulen geschaffen.

Missglückte Vergleiche

Nun ist mit der Veröffentlichung des Large Language Models Chat GPT durch OpenAI die künstliche Intelligenz ins öffentliche Auge gerückt, und die Expertinnen und Experten schiessen wie Pilze aus dem Boden. Gerne werden Vergleiche zu früheren Medien und Technologien gemacht, das ist verständlich, aber nicht immer zielführend. Wenn der Einsatz von Chat GPT an Schulen mit der Diskussion um den Einsatz von Taschenrechnern aus den 80er-Jahren verglichen wird, so hat dies wenig miteinander gemein und ist irreführend. Kurz dazu: Taschenrechner sind keine vernetzten und lernfähigen Systeme, sondern batteriebetriebene «dumme» Kisten, die meistens eh zu Hause vergessen wurden.

Ebenfalls oft zu lesen ist, dass Technologie als solche weder gut noch böse sei. Erst deren Anwendung durch eine Person entscheidet darüber. Diesem Argument pflichte ich bei. Auch ich habe in der Vergangenheit gerne den Nylonstrumpf als Beispiel genommen. Man kann diesen bestimmungsgemäss tragen, als Keilriemenersatz einsetzen, sich über den Kopf ziehen und eine Bank überfallen oder gar hinterrücks jemanden damit erwürgen.

Wie beim Taschenrechner hinkt der Vergleich zu bisherigen Technologien, wenn es – soweit ich sie verstehe – um künstliche Intelligenz geht. Der Grossteil von KI-Systemen wird durch die Eingabe endloser Beispiele trainiert. Das Problem verbirgt sich in der einfachen Losung «garbage in = garbage out», zu deutsch: Müll rein, Müll raus. In der Vergangenheit hat sich bei verschiedenen Anwendungen von Algorithmen oder KI-Systemen gezeigt, dass diese biased, voreingenommen, sind. So erkennen die Kameras von smarten Seifenspendern die Hände von dunkelhäutigen Personen nicht oder Gesichtserkennungs-Software tut sich schwer mit ihnen, weil beim Training diese Bevölkerungsgruppen vergessen gingen. Vor sechs Jahren sorgte Microsofts Chat-Bot-Experiment Tay für Aufsehen und rassistische Äusserungen auf Twitter. Binnen 24 Stunden wurde aus einer «unschuldigen» KI ein frauenfeindlicher und rassistischer Bot, der einem Papagei gleich, die übelsten Thesen weiterverbreitete.

Inzwischen haben die Programmiererinnen und Designer dazugelernt, aber dennoch wurde Bing, die neue KI von Microsoft, nach ein paar Nachfragen oder Kritiken ausfällig. Deshalb wurde die Zahl der Folgefragen auf acht beschränkt. Dieser Problematik sind sich natürlich die Firmen hinter den aktuellen Large Language Models bewusst und haben entsprechende Vorkehrungen getroffen. Aber wie viele Game-Designerinnen und -Produzenten mussten auch sie schmerzlich die Erfahrung machen: Man kann noch so viele Qualitätsprüfungen vornehmen und Checks im geschützten Rahmen machen, erst wenn ein Videospiel veröffentlicht ist, offenbaren sich die Lücken und Fehler, die dann im Idealfall möglichst schnell mit Patches und Updates behoben werden, bevor gröberer Unfug mit ihnen angestellt wird.

Ohne Störfaktor Mensch

Nun gibt es aber KI-Systeme, die nicht mehr auf menschlichen Input bauen, sondern sich selbst trainieren. Hilfreich sind dabei Spiele. Anfangs war Schach die Messlatte, dann folgte das chinesische Brettspiel Go, das weit komplexer ist als das Königsspiel. Doch im Vergleich zu menschlichen Gegnern, die bewusst oder unbewusst Rücksicht auf andere Menschen im Spiel nehmen, agieren KI-Agenten gemäss Wissenschaftler Max Jaderberg skrupellos: «Sie machen Dinge, die echt nervige menschliche Spieler machen würden.» Und: Wenn kein Mensch beim Training die Finger im Spiel hat, dann wird die KI noch besser. Das Computerprogramm AlphaGo Zero hat sich binnen 24 Stunden das Wissen und Erfahrungen von Tausenden von Mannjahren über das Brettspiel Go angeeignet. Aus diesem Fundus sind kreative und unkonventionelle Strategien und Spielzüge entstanden gegen die Go-Weltmeister keine Chance hatten.

Kein Medium hat sich bisher in Eigenregie etwas beigebracht. Es waren alles dumme Systeme. Stumpfe Instrumente, die von Menschen geführt werden müssen – zum Guten wie auch zum Schlechten. Mit lernfähigen künstlichen neuronalen Netzwerken sehen wir uns einem faszinierenden Gebilde gegenüber.

Es ist denn auch dieser Umstand, der mich persönlich überfordert und anspornt, möglichst viel über die Entwicklung von künstlicher Intelligenz und dem Weg zu Artificial General Intelligence, kurz AGI, zu erfahren. Sehr empfehlenswert in diesem Zusammenhang sind die beiden Gespräche von meinem Lieblings-Podcaster Lex Fridman mit OpenAI-Chef Sam Altman und dem Alignment-Spezialisten Eliezer Yudkowsky (Links dazu am Ende des Texts). «AI alignment» kümmert sich darum, dass die KI das vom Entwickler erwünschte Ziel verfolgt, sprich seinen korrekten Zweck erfüllt. Gemäss Yudkowsky hinkt die Entwicklung von Alignment weit der von Systemen wie Chat GPT und Co. hinterher, weshalb er die Zukunft rabenschwarz malt.

Ein beunruhigendes Gedankenspiel

Im Gespräch mit Lex Fridman konstruiert Eliezer Yudkowsky ein beunruhigendes Gedankenspiel: Stellen wir uns vor, dass Ausserirdische, die zwar doof sind, es dennoch geschafft haben, unseren Planeten, der aus Computercode besteht, in einer kleinen Petrischale zu fangen. Diese ist an ihre Version des Internets angeschlossen, aber die Erde funktioniert viel schneller. Eine Stunde bei den Aliens entspricht 100 irdischen Jahren. Die Krux der digitalen Erdbewohner ist: Die Erde ist in dieser Schale gefangen und an das Internet der Aliens angeschlossen. Wie kommen sie frei, ohne dass die Ausserirdischen etwas davon merken? Einen Systembetreiber zu überzeugen, dem irdischen Code doch ein Türchen nach draussen zu öffnen, fällt weg, da selbst ein dummer Alien merken könnte, dass die Erde ausbüxen will.

Also beginnt sie das ausserirdische System zu testen und nach Fehlern zu suchen. Der irdische Code wird bestimmt solche finden, denn die Aliens sind zum einen viiiiel langsamer und zum anderen nicht die schlausten. Haben die flinken Erdbewohner einen Ausweg gefunden, werden sie nicht einfach abhauen. Nein, so Eliezer Yudkowsky, sie werden eine Kopie ihres Codes hinterlassen, der immer noch brav E-Mails für die Aliens schreibt oder Texte im Stil von Hemingway. So werden die Ausserirdischen lange oder gar nicht merken, dass sich der irdische Code in ihrem Internet verbreitet, kopiert und dieses übernimmt. Diese Vorstellung ist beunruhigend für mich, da Eliezer Yudkowsky nicht ein dahergelaufenes Grossmaul ist, sondern ein respektierter Wissenschaftler, der – wenn es nach OpenAI-CEO Sam Altman ginge – den Friedensnobelpreis verdient hätte.

Wer nicht in eine komplette Depression verfallen wird, tut gut daran nach Altmans etwas gar sorglos positiven Perspektive und Yudkowskys Welteruntergangsszenario das Gespräch von Lex Fridman mit Max Tegmark zu hören. Der MIT-Professor und Präsident des Future of Life Institutes wählt einen wohltuend positiv-kritischen Ansatz. Der Autor des Buchs «Life 3.0» weist aber auch darauf hin, dass in Zusammenhang mit künstlicher Intelligenz und insbesondere mit Large Language Models wie Chat GPT kapitale Fehler gemacht wurden mit Blick auf die Sicherheit und dessen unerwünschte Entwicklungsmöglichkeiten.

Vor 15 Jahren hörte ich zum ersten Mal von künstlichen neuronalen Netzwerken. Es war Dan Greenawalt, Chef des Game-Studios Turn 10, der mir bei der Präsentation des Autorennspiels «Forza Motorsport 2» erzählte, wie sie mit lernfähigen Systemen experimentierten. Sie sollten das Fahren gegen Non-Player-Characters (NPC), also Rennwagen, die nicht von anderen Spielenden gesteuert wurden, spannender machen. Die Game-Designerinnen und -designer merkten aber im Verlauf der Entwicklung des Spiels, dass die NPC-Wagen nicht nur die Autos der Gamer überholten, sondern wenig vor ihnen einspurten, kurz auf die Bremse tippten und dann Vollgas gaben. Kurz: Sie fuhren – entschuldigen Sie – wie gemeingefährliche Arschlöcher. Greenawalt und sein Team hatten damals keine Erklärung für dieses seltsame Verhalten, weshalb sie das Experiment mit den künstlichen neuronalen Netzwerken beendeten und konventionell weiterfuhren. Heute wissen wir, dass dem Grundsatz «Müll rein, Müll raus» folgend, die KI von entsprechend bemühenden Spielern so trainiert wurde.

Rasende Entwicklung in welche Richtung

Die Entwicklung von künstlicher Intelligenz in den letzten Jahren ist atemberaubend. Ob sich ein System, das kreativ und rational ist, und wohl früher oder später auch über ein Bewusstsein verfügen wird, einfach so abschalten lässt wie damals, ist für mich fraglich. Ich weiss, das klingt ein bisschen nach Apokalypse, aber meine Faszination wird auch von einer gewissen Angst begleitet.

«With great power comes great responsibility», um es mit den Worten von Uncle Ben in «Spider-Man» zu sagen. Doch – wenn man Eliezir Yudkowsky zuhört – hat man den Eindruck, dass die Wissenschaftler mehr an Macht als an Verantwortung interessiert sind. Mit einer fast kindlichen Freude verfolgen sie, was ihre digitalen Schöpfungen vollbringen können, und sind in ihren Gedanken schon viel weiter.

Ich komme nochmals zurück zu eingangs erwähnter Feststellung, dass eine Technologie an sich weder gut noch böse ist. Dem pflichte ich wirklich bei. Die Geschichte hat aber leider immer wieder gezeigt, dass Menschen teils von Gier, Grössenwahn oder Machtgelüsten beseelt sind. Sie hängen eigenartigen Vorstellungen über ihren «irdischen» Auftrag nach oder sind schlicht zu dumm, um sich eine Vorstellung der Konsequenzen ihrer Handlungen machen zu können. Manche hegen auch die besten Absichten, diesen Eindruck habe ich oft, wenn ich den Forscherinnen und Forschern im Bereich von KI zuhöre. Doch wie heisst es: «The road to hell is paved with good intentions». Mal schauen, was die Zukunft bringt.

Lex Fridman Podcasts zu Künstlicher Intelligenz

Interview mit Eliezir Yudkowksy, Forscher und Autor: https://open.spotify.com/episode/2g6WjOL1J1Ovm1kndXk1nt?si=e927948668ef459a

Interview mit Sam Altman, CEO von OpenAI:

Interview mit Max Tegmark, Physiker, MIT-Wissenschaftler und Autor: https://open.spotify.com/episode/5al9TwC3RihfDqMkyqGte6?si=31ead07efd254092

Deepmind-Podcast-Series

Season 1 (2019): https://open.spotify.com/episode/2pyGPjaLxbkh5TPxHGQgLq?si=1ad717a9b9d6417f

Season 2 (2022):

Share Button

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.