· 

Lasst uns KI entdämonisieren!

Wer vor der tödlichen Zerstörungskraft neuer Technologien warnt, verfolgt damit in der Regel eigene Interessen, das sollten wir uns stets bewusst machen. Möglicherweise hat er ein eigenes Geschäftsmodell im Sinn, dass durch die neue Technologie bedeutungslos zu werden droht. Auch moralische Vorbehalte wurden seit Beginn der Moderne, also vor rund 250 Jahren, gerne gegenüber neuen technologischen Entwicklungen ins Feld geführt. Das führte nicht selten dazu, dass Technologien mystifiziert und dämonisiert wurden. 

 

In den vergangenen Jahren haben wir erlebt, dass technische Innovationen wie Internet, Vernetzung oder Mobilfunk ganz im Gegenteil aber auch als Erlösungsinstrumente gefeiert wurden, was auch wenig hilfreich ist. 

 

Hilfreich ist es aber, Technologien zu entmystifizieren.

 

Jaron Lanier, Internet-Vordenker, VR-Pionier, Schriftsteller, Musiker, Fellow bei Microsoft Research, ist nicht als Technophobiker bekannt. Ihm geht es darum, technologischen Fortschritt für eine humane Gesellschaft operationalisierbar zu machen. Deswegen sollte man ihn nicht als Tech-Guru bezeichnen. Lanier schlägt vor, angesichts des beispiellosen Hypes um ChatGPT und Künstliche Intelligenz (KI) einfach davon auszugehen, dass es Künstliche Intelligenz gar nicht gibt

 

KI lässt sich auch undramatisch als Ergebnis sozialer Interaktion betrachten

 

Das Potenzial und die gigantische Aufmerksamkeit, die ChatGPT für das knapp 70 Jahre alte Thema der KI geschaffen hat, möchte er damit jedoch keinesfalls in Abrede stellen. Lanier geht es um Folgendes: Um zu einem konstruktiven und weniger echauffierten Dialog über KI zu kommen und einer Mythisierung entgegenzuwirken, sollten wir uns klar machen, dass das „Large Language Model“ (LLM) von ChatGPT zunächst - wie Algorithmen oder Software auch - das Ergebnis sozialer Kooperation ist: ein neuronales Netzwerk, das mit menschlicher Sprache trainiert wurde. Das Faszinierende an den LLMs besteht darin, dass es neuerdings auch in der Lage ist, daraus - menschenähnlich - Sätze und ganze Abhandlungen zu formen. Mehr aber auch nicht! 

 

Lanier sieht KI also grundsätzlich als ein Resultat sozialer Interaktionen. Das hat den Vorzug, einen allgegenwärtigen KI-Mythos zu dekonstruieren, wonach ChatGPT eine transhuman intelligente Wesenheit, einen Konkurrenten menschlicher Intelligenz schaffe, HAL 9000 (Kubricks „Space Odyssey“) oder Ähnliches. Dass die Large Language Models bei wiederholter Eingabe einer Anfrage unterschiedliche Antworten ausspucken, liefert laut Lanier also nicht den Beweis dafür, dass die Software plötzlich menschelt, sondern dass sie sich immer und ausschließlich (!) auf Dokumente menschlicher Interaktion und Intelligenz bezieht. 

 

Im Gegensatz zum vorherrschenden Apokalypse-Diskurs sieht Lanier hierin einen Fortschritt: die Maschinen erziehen nicht den Menschen, sondern der Mensch profitiert von der Maschine. Gegenüber der inhumanen Befehlsapparatur eines Parkscheinautomats, so Lanier, ist der charmante Kommunikator ChatGPT eine kulturelle Errungenschaft. 

 

Digitale Bürgerrechte: das Recht, nicht manipuliert zu werden

 

Lanier geht es darum, Menschen die Kontrolle gegenüber Technologien zurückzugeben, Technologie sollte nicht zur Manipulationsmaschine oder zur Befehlsinstanz (der Parkscheinautomat) verkommen. Dafür muss es möglich gemacht werden, jedem einzelnen die Souveränität über seine Daten (ohne die ChatGPT letztlich nicht funktionieren würde) zurückzugeben. Grundlegendes Bürgerrecht in Zeiten der Digitalisierung: Wir haben das Recht, nicht manipuliert zu werden! Entsprechend sollten Deepfakes und destruktive Kommunikation von Bots kennzeichnungspflichtig werden.  

 

Rückverfolgbarkeit aller personenbezogenen Daten, die das Internet erst zum Internet gemacht haben (mithilfe von Blockchains ist das grundsätzlich möglich), damit würden sich die Besitzverhältnisse in der digitalen Welt grundlegend ändern. Lanier: “Big Model AI is made of people – and the way to open the blackbox is to reveal them.”

 

Warum sich BigTech, die Herrscher des Internets, daran keine Interesse hatten, liegt auf der Hand: so konnten sie die Dienstleistungen im Netz kostenlos anbieten und sicherten durch die Nutzung personenbezogener Daten ihren unfassbaren Reichtum und ihre gesellschaftliche Macht. 

 

Eine VG Wort für ChatGPT 

 

Laniers weiterführender Vorschlag für den Umgang mit KI bezieht sich auf das Konzept der „Digital Dignity“. Hierbei kommen quasi digitale Gewerkschaften, „Mediators of Individual Data“ (MID), eine VG Digital-Wort ins Spiel, die Tantiemen immer dort einklagen, wo ein neues LLM entsteht.

 

Nur so können wir KI für eine humane Gesellschaft aneignen: Indem der Nutzer (wieder) zum Eigentümer wird, indem Treuhänder die Interessen von Inhalteproduzenten (von uns allen!) vertreten. Und indem Menschen im sozial-digitalen Raum ihre Interessen und die anderer („Self-Police“) vertreten, können sinnvolle, neues Vertrauen erzeugende Institutionen für eine digitale Gesellschaft entstehen. Wie ich finde, eine bedenkenswerte Alternative gegen obrigkeitliche Kontrolleingriffe des Staates und lächerliche Zensurmaßnahmen von BigTech.   

 

Ja, ChatGPT weckt Phantasien, in denen Sturzbäche automatisierter Fakenews Weltkriege auslösen, selbstlernende Systeme irgendwann ausbrechen und Waffen gegen uns selbst richten. Die Phantasien davon sind älter als KI.

 

Die Blackbox der KI muss geöffnet werden

 

In Zusammenhängen gibt es immer eine Rettung. Wir können die Blackbox der KI zertrümmern, indem wir dem einzelnen die Souveränität über seine Daten zurückgeben. BigTech hat daran kein Interesse, das haben wir verstanden. Aber ohne Rückverfolgbarkeit - wir behaupten nicht, dass das von heute auf morgen möglich wird – werden wir KI und die Large Language Models nicht kontrollieren und nachhaltig nutzen können. Digitale Inhalte brauchen Kontexte. Ohne Einblick in den Herstellungszusammenhang der KI werden wir die Kontrolle über den Cyberspace verlieren: „When you lose context, you lose control“. Technologien sind nicht per se zerstörerisch, es ist ihre Anwendung in der Gesellschaft. 

 

Nehmen wir diese Überlegungen ernst, müssen wir noch einen Schritt weiter gehen und dafür sorgen, dass auch die Forschung zu LLMs und KI „sozialisiert“ wird und nicht nur in privater Hand bleibt. Die Europäische Organisation für Kernforschung in Frankreich und der Schweiz (CERN) ist ein Beispiel dafür, wie öffentlich-rechtliche Forschung an Zukunftstechnologien funktionieren kann.

 

Fazit 

 

Verabschieden wir uns von den Apokalypse-Erwartungen, auch wenn sie spooky sind und so schön Angstlust erzeugen. „Anything engineered – cars, bridges, buildings – can cause harm to people, any yet we have built a civilization on engineering. It’s by increasing and broadening human awareness, responsibility, and participation, that we can make automation safe (…).” Technologien mit Erlösungsversprechen sollten wir ebenso misstrauen wie der Dämonisierung von Technologie. Machen wir uns auf, das emanzipatorische Potenzial von KI zu entdecken.