Ein riesiges Sozialexperiment
Die Service-Links zum Thema KI finden Sie am Ende des Artikels.
Am 30. November 2022 veröffentlichte das amerikanische Unternehmen OpenAI eine Kombination aus Chatbot und KI namens ChatGPT. Dabei handelt es sich um Werkzeug, das scheinbar professionell Texte produziert und in der Lage ist, mit dem Anwender in einen Dialog zu treten. Es wurde vorab mit Daten trainiert und basiert auf dem Transformer-Modell von Google - daher der Name Generative Pretrained Transformer, kurz GPT.
Das war zunächst einmal in technischer Hinsicht bemerkenswert. Denn die zugrunde liegende, seit 2020 in Entwicklung befindliche Version 3 dieses Modells verfügt über 175 Milliarden Parameter. Diese Stellschrauben, die die Funktion der Knoten in einem künstlichen neuronalen Netzwerk - vergleichbar den Synapsen im menschlichen Gehirn - beeinflussen, sind ein direktes Maß der Leistungsfähigkeit der KI. Zum Vergleich: Die Vorgängerversion 2 aus dem Jahr 2019 hatte gerade mal 1,5 Milliarden Parameter. Googles in der Entwicklung begriffenes Modell Switch Transformers soll mit 1,6 Billionen Parametern arbeiten - die nächsten Systeme werden also noch mal um Klassen leistungsfähiger und noch bessere Ergebnisse bereitstellen.
Mit der Veröffentlichung von ChatGPT gab es erstmals einen kostenfreien Zugang zu dieser Technologie für alle Interessierten - und damit setzte ein breiter Diskurs ein um Möglichkeiten und Konsequenzen der Entwicklung von Künstlicher Intelligenz auf der Basis von realen Erfahrungen in Wissenschaft und Zivilgesellschaft.
Und quasi nebenbei erleben wir einen revolutionären Schritt im Verhältnis zwischen Menschen und Maschinen: Es war ein weiter Weg von den Lochkarten zur Eingabe in Computer Mitte des letzten Jahrhunderts über Tastaturen, Mäuse und zuletzt Wisch- und Tipp-Gesten auf Smartphone oder Tablet. Der bislang letzte Schritt war die Umsetzung von natürlicher Sprache, zum Beispiel zur Steuerung der Navigation im Pkw oder bei Sprachassistenz-Systemen wie Alexa, Siri & Co. Diese waren allerdings an bestimmte Befehle und Einsatzzwecke gekoppelt. Nun findet die Interaktion auf völlig neuer Ebene statt, da tatsächlich die Verarbeitung natürlicher Sprache unabhängig von einem bestimmten Thema oder einer speziellen Funktion möglich ist.
Sprunghafte Dynamik
Auf einer Website wie theresanaiforthat.com finden sich täglich neue Anwendungen auf Basis generativer KI zur Text-, Bild- oder Videoverarbeitung. Neben der Erzeugung von Texten oder Präsentationen oder Suchmaschinen-Add-ons gibt es auch Coaches für die Erledigung der persönlichen To-do-Liste, zur Unterstützung bei der Personalgewinnung und zahlreiche hilfreiche Tools für den Alltag. Von der Code- und Website-Erstellung bis hin zur Generierung von Kinderbüchern scheint momentan alles möglich zu sein.
Auch in bereits bekannte Produkte zieht längst KI ein. Die bekannte Bildbearbeitungssoftware Photoshop von Adobe verfügt dadurch u. a. um atemberaubende Fähigkeiten beim "generativen Füllen", also dem Austausch von Flächen oder sogar vorhandenen Bildelementen. Aber auch Standardsoftware wie MS Office oder die Suchmaschine Bing wurde massiv mit KI ergänzt. Denn Microsoft gehörte 2015 (neben u. a. Elon Musk) zu den Gründern von OpenAI - und hat sich eine exklusive Lizenz gesichert. Der ursprüngliche Gedanke einer offenen, für alle nutzbaren Technologie ist damit leider dahin. Konsequenterweise ist die aktuelle Version 4 von ChatGPT auch nur kostenpflichtig nutzbar.
Nun sag: Wie hältst du’s mit der Intelligenz?
Das alles kann und darf nicht darüber hinwegtäuschen, dass die Maschinen keineswegs "intelligent" im Sinne der menschlichen Eigenschaft "Intelligenz" sind. Ob der Begriff Künstliche Intelligenz als Übersetzung aus dem Amerikanischen (artificial intelligence) überhaupt korrekt ist, gilt unter Informatikern als ebenso umstritten wie die Frage, ob es sachlich überhaupt angemessen ist, von KI zu reden. Denn letztlich sind es komplexe Algorithmen, die auf Basis großer Mengen von Trainingsdaten Vorhersagen für neue Daten treffen. Konkret: Eine Bilder erstellende KI wie Stable Diffusion oder Dall-E hat absolut keine Ahnung von dem, was sie da macht. Sie arbeitet Befehle ab und produziert ein Ergebnis, das - wenn die Parameter stimmen und die Trainingsdaten hinreichend gut waren - unsere Erwartungen erfüllt.
Ebenso wenig weiß ChatGPT, was es da an Texten produziert. Es fügt schlicht Wörter aufgrund von Wahrscheinlichkeiten aneinander. Auch bei einer Rechenaufgabe rechnet das System keineswegs, sondern erstellt aus seiner Datenbasis die wahrscheinlichste Antwort. Dabei gibt es in diesen Systemen immer auch einen "Temperatur"-Regler, mit dem die Abweichung von der höchsten Wahrscheinlichkeit eingestellt werden kann, damit die - tatsächlich meist mindestens auf den ersten Blick beeindruckenden - Ergebnisse nicht zu vorhersehbar werden. Das kann aber nicht darüber hinwegtäuschen, dass ChatGPT eine Art "Autovervollständigen auf Steroiden" sei, so die Informatikerin Katharina Zweig.
Grenzen und Gefährdungen
Insofern sollte die Debatte weniger von der Sorge vor einer dystopisch starken KI mit einem Bedrohungspotenzial, vergleichbar mit der Klimakatastrophe oder dem Atomkrieg, geprägt sein, vor der KI-Prominente effektheischend warnen. Vielmehr muss sich die Weiterentwicklung der derzeit bereits auf dem Markt befindlichen Werkzeuge auf die Verbesserung der vorhandenen Systeme und Ausmerzung der zahlreichen Fehler richten. Denn ChatGPT gibt bereits auf der Startseite die Grenzen des Systems an: Neben der bis Ende 2021 begrenzten Datenbasis kann es eben "gelegentlich falsche Informationen produzieren" oder "gelegentlich gefährliche Informationen oder voreingenommene Inhalte" wiedergeben. Wo doch der Kampf gegen Fake News und Desinformationen in sozialen Netzwerken und Messengern jetzt schon an den Sisyphos-Mythos erinnert. Und während das viral gegangene Foto von Papst Franziskus im weißen Designer-Daunenmantel noch witzig scheinen mag, bergen die nahezu zeitgleich viral gegangenen Fotos von der angeblichen Verhaftung Donald Trumps deutlich mehr gesellschaftspolitischen Sprengstoff.
Praktische Versuche, die Mustererkennung und darauf basierende Klassifikation im wirklichen Leben auszuprobieren, führen bislang zu äußerst unschönen Ergebnissen. Zum Beispiel kann der Einsatz einer Gesichtserkennung am Berliner Südkreuz kaum als "Erfolg" gelten. Denn zum einen gab es rund 30 Prozent nicht erfasste Straftäterinnen und Straftäter (false negatives). Zum anderen wurde aber auch ein Prozent unschuldiger Bürgerinnen und Bürger fälschlich als gesuchte Kriminelle eingestuft (false positives). Letztere sehen das System sicherlich als inakzeptabel an - ebenso wie die Insassen von selbstfahrenden E-Autos, die bisweilen in tödliche Unfälle verwickelt sind.
Daneben sind auch die Trainingsdaten selbst ein Problem, denn es dürfte fast unmöglich sein, diese komplett vorurteilsfrei zusammenzustellen. In der Konsequenz gibt es bei - hierzulande schon aus Datenschutzgründen unzulässigen - automatisierten Bewerbungsverfahren eine wenig überraschende Bevorzugung weißer männlicher Bewerber. Und umgekehrt ist bei der Rückfallprognose von Straftäterinnen und Straftätern in den USA eine überproportionale Benachteiligung Schwarzer Bürgerinnen und Bürger belegt.
"KI ist ein inhärent konservatives Instrument", sagt die Philosophin Judith Simon, die als Mitglied im Ethikrat die Bundesregierung berät. Der Kern von KI sei: "Sie lernt aus alten Daten und schreibt sie in die Zukunft fort." Neue Ideen, um die Welt zu verbessern, entwickelt ein solches System nicht. Stattdessen reproduziert es eine altmodische Weltsicht, in der ausgeschlossene Menschen ausgeschlossen bleiben.
Regulierungsbedarf und Menschenwürde
Damit das riesige Sozialexperiment, nämlich der willkürliche Einsatz von KI zu Zwecken, die allein die Hersteller definieren, auf Dauer nicht aus dem Ruder läuft, braucht es Regulierung. Die EU arbeitet an einer AI Act genannten Regulierung; im Prinzip geht es dabei um eine Einstufung von KI in Risikoklassen, die dann entsprechende Konsequenzen haben, die von einem freiwilligen Verhaltenskodex, zum Beispiel beim Einsatz in Spam-Filtern, über Transparenzpflicht (z. B. bei Chatbots) bis hin zum Verbot reichen, etwa beim Social Scoring, wie es in China seit einigen Jahren praktiziert wird. Allerdings ist die Frage, ob die etablierten Verfahren schnell genug sind, um eine derart dynamische Entwicklung zu regulieren. Schließlich darf Elon Musks Firma Neuralink in den USA nun eine klinische Studie durchführen, bei der Menschen Chips in das Gehirn implantiert werden.
Die wesentlichen Fragen sind jedenfalls bekannt - und müssen in einer breiten gesellschaftlichen Debatte einer Lösung zugeführt werden: Wie kann ein Vorrang menschlichen Handelns und menschlicher Letztentscheidung tatsächlich realisiert werden? Wenn doch KI-Systeme genau dazu eingesetzt werden, den tendenziell in der Aufnahme und Verarbeitung großer Informationsmengen überforderten Menschen zu unterstützen? Wie können Datenschutz, Datensicherheit und auch Urheberrecht gewahrt bleiben, wenn große Menge von Trainingsdaten unerlässlich für die Entwicklung von KI-Systemen sind? Wie lässt sich vermeiden, dass die Technologie überwunden geglaubte Haltungen wieder aufleben lässt mit der Folge von Diskriminierungen und Benachteiligungen marginalisierter Gruppen? Wie kann es gelingen, Technologie so einzuhegen, dass sie nicht für einen weiteren Ausbau des "Überwachungskapitalismus" (Shoshana Zuboff) genutzt wird? Wie kann mit den sozialen und ethischen Herausforderungen von KI konstruktiv umgegangen werden, und welchen Beitrag können sie zur Lösung sozialer, ökonomischer und ökologischer Probleme leisten?
Die Position der katholischen Kirche zu KI findet sich in einem Thesenpapier der Publizistischen Kommission aus dem Jahr 2020. Unter dem Titel "Technik im Dienst des Geist-begabten und Selbst-bewussten Menschen" heißt es da: "Weil diese Digitalen Kulturen die Menschen bis in ihr Innerstes angehen, muss Kirche wenigstens grob verstehen, was technisch passiert und wie sich diese Phänomene auf Gemeinschaft und Fortschritt (‚Communio et Progressio‘, 1971) auswirken." Das lässt sich auch auf die Caritas übertragen. Denn Digitalität stellt Menschen in ein Spannungsverhältnis zu Maschinen: "Einerseits nutzen wir digitale Technik und neigen dazu, sie bzw. die Artefakte, mit denen wir interagieren, zu anthropomorphisieren. … Andererseits passen Menschen sich immer stärker den Strukturen des Digitalen an und werden zu einer Art ‚Computer auf zwei Beinen‘ - die Kehrseite der Anthropomorphisierung digitaler Technik ist die Technisierung des Menschen. Dies führt schließlich dazu, dass sich viele Menschen durch die Digitalisierung und die partielle Überlegenheit technischer Systeme sowie die Intransparenz von Datenerhebung, -speicherung und -verarbeitung unterlegen und ausgeliefert fühlen."
Medienbildung als Schlüssel
Letztlich braucht es neben einem breiten gesellschaftlichen Diskurs und vorausschauender politischer Regulierung massive Bildungsanstrengungen, um eine weitere soziale Spaltung in Gewinner und Verlierer der Entwicklung zu verhindern. Denn ein Entwicklungs- oder Nutzungsverbot ist ebenso unrealistisch wie ein weltweites Moratorium.
Daher muss es um die Vermittlung eines grundlegenden Verständnisses von Technologie zur Mustererkennung und Entscheidungsfindung gehen, um (medien-)pädagogische Projekte für alle Alters- und Zielgruppen zur Nutzung von KI und um eine differenzierte Reflexion wünschenswerter und problematischer Anwendungsfälle. Denn angesichts der disruptiven Veränderungen durch KI stehen durchaus grundlegende Fragen unseres Zusammenlebens, unserer Werte und unserer demokratischen Grundordnung zur Diskussion.
Service-Links zum Thema KI
- Einstiegsseite zum kostenlos nutzbaren Chatbot ChatGPT von OpenAI:
https://chat.openai.com
- Eine von ChatGPT gefütterte Übersicht mit KI-basierten Apps und Diensten:
https://theresanaiforthat.com
- Technik im Dienst des Geist-begabten und Selbst-bewussten Menschen. Thesenpapier der Publizistischen Kommission der Deutschen Bischofskonferenz:
https://medienkompetenz.katholisch.de/thesen-digitalitaet-ki
Transparenzhinweis: Der Autor dieses Artikels hat an dem genannten Thesenpapier mitgewirkt.
- Downloadmöglichkeit für einen freien ChatBot wie ChatGPT, der aber lokal installiert und ohne Internetanbindung mit verschiedenen Sprachmodellen betrieben werden kann:
https://gpt4all.io
- Gina Neff: Eines der größten sozialen Experimente aller Zeiten (27.05.2023)
https://netzpolitik.org/2023/kuenstliche-intelligenz-eines-der-groessten-sozialen-experimente-aller-zeiten
- Statement vom 30.05.2023 zum Risiko der KI:
https://www.safe.ai/statement-on-ai-risk
- EU-Vorschläge für ethische Leitlinien (2019):
https://germany.representation.ec.europa.eu/news/kunstliche-intelligenz-eu-kommission-lasst-vorschlage-zu-ethischen-leitlinien-der-praxis-testen-2019-04-08_de
- Kompromissvorschlag des EU-Ministerrats (2022):
https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/de/pdf
- Die größte deutsche Konferenz zur digitalen Gesellschaft findet seit 2007 jährlich in Berlin statt:
https://re-publica.com/de