· 

Weswegen KI, wie wir sie kennen, uns nicht wirklich weiter hilft, aber die Macht der BigTechs absichert

Liebe Freundinnen und Freunde der Zukunft!

 

Der Zug ist wohl nicht mehr aufzuhalten, Künstliche Intelligenz (KI) wird das next big thing. Microsoft, Amazon, Alphabet, Facebook, Nvidia und andere werden dadurch noch (einfluss-)reicher. 

 

Der Wert der KI für die Zukunft unserer Gesellschaft bleibt jedoch bescheiden bis fragwürdig.

 

Wie lässt sich die Voreingenommenheit (bias) von Modellen der Künstlichen Intelligenz bekämpfen, wenn sich laut Forschung Opfer von Internet-Hass nach Angriffen aus dem Netz zurückziehen, die Täter das jedoch deutlich weniger tun, sie kippen ihren verbalen Müll weiter ins Internet. Über reißerische Themen wie Naturkatastrophen oder Shootings wird (gerade in den audiovisuellen Medien der 10er und 20er Jahre, reichlich Futter für die KI!) nachweisbar häufiger berichtet als über soziale Bewegungen wie beispielsweise "Black Lives Matter". Heißt: die Internetdaten, mit denen die Sprachmodelle gefüttert werden, bestätigen tendenziell den Status Quo. 

 

Die für viele beeindruckende Größe der KI-Datenbanken steigert vor allem die Menge an Hass und Desinformation. Sie macht die Sprachmodelle nicht klüger, sondern tendenziell rassistischer und minderheitenfeindlicher, weil Minderheiten in dem in Daten abgelegten Wortmorast des Netzes signifikant weniger vorkommen. Der flotte Spruch „there is no data like more data“ ist deshalb zumindest fragwürdig.

 

Wenn wir gegenüber Wikipedia – zurecht – skeptisch sind, warum vertrauen wir dann ChatGPT? Die großen Sprachmodelle (LLMs) bauen ihre selbstlernende Intelligenz auf der Gegenwart und Vergangenheit der Internetdaten auf. Sie lernen also keinesfalls vom Guten, Wahren und Zukunftsorientierten, ganz im Gegenteil! Ruha Benjamin, eine Afrikanistin aus Princeton, hat das Dilemma so beschrieben: “Feeding AI systems on the world’s beauty, ugliness, and cruelty, but expecting it to reflect only the beauty is a fantasy.” Und nach wie vor ist es so, dass junge Menschen aus der sogenannten ersten Welt im Netz überdurchschnittlich repräsentiert sind. Nach wie vor ist ungelöst, wie dieser bias den digitalen Sprachmodellen „aberzogen“ werden kann.

 

Auch ökologisch ist das next big thing eine Belastung. Wie können künftig nachhaltige Bedingungen für die KI-Produktion aussehen, wenn der Energieaufwand für die Rechnerleistung von LLMs bereits zwischen 2015 und 2021 um das 300.000-fache angestiegen ist? Das Trainieren eines KI-Modells überschreitet den jährlichen Strombedarf von hundert US-Haushalten Nach-wie-vor-noch-OpenAI-Chef Sam Altman hat schon mal die Bereitstellung von viel zu teuren Kernkraftwerken für seine Unternehmungen gefordert. 


 

Hier liegt der Kern des Problems. Wir sollten LLMs nicht mit unserer natürlichen Wortsprache verwechseln. LLMs setzen mehr oder weniger zufällig Versatzstücke von Inhalten nach mathematischen Wahrscheinlichkeitsprinzipien zusammen – erzeugen aber keinen Sinn mit Realitäts- und Wahrheitsbezug. LLMs sind das genaue Gegenteil von kreativ (doch dadurch nicht weniger gefährlich). Für unsere Zukunft brauchen wir Kreativität und Ideenreichtum - und nicht das wiedergekäute Internet. Emily M. Bender et. al. sprechen deshalb von den LLMs als „stochastischen Papageien“ – brauchen wir die?

 

LLMs verstehen keine Sinnzusammenhänge, weil sie – bislang - nicht in der Lage sind, menschliche Lebenswelten zu rekonstruieren (was 5-Jährige mühelos beherrschen). LLMs sind deshalb auch nicht ironiefähig, sie verstehen keine Zweideutigkeiten und Metaphoriken, was sie - da sie hauptsächlich aus Daten der „weißen“ ersten Welt bestehen – noch mehr für Zynismus, Rassismus, Ausgrenzung, Sexismus (und vor allem ihre subtilen Formen) anfällig macht.

 

Was bleibt zu tun? 1. KI dort stattfinden zu lassen, wo Strom nachhaltig und günstig ist, was darüber hinaus nicht nur die 1. Welt in Kontakt mit KI bringen würde. 2. Trainingsdaten für KI müssen schnellstmöglich kuratiert werden; 3. die Arbeit an digitalen Wasserzeichen für KI muss bevorzugt gefördert werden; 4. KI-Forscher müssen so früh wie möglich „Risiken und Nebenwirkungen“ ihrer geplanten KI-Modelle benennen; 5. ebenfalls schnellstmöglich sollten die Stakeholder involviert werden, auf die die KI abzielt; 6. Dokumentation, Kuratierung und andere Transparenzmechanismen müssen von Anfang an in Kostenkalkulationen für LLM-Projekten vorgesehen sein.

 

Indem wir ein paar smarte Detailantworten von ChatGPT feiern, gehen wir ihrer eindimensionalen Automatisierungslogik auf den Leim. Indem wir die LLMs aufgrund ihrer Datengigantomanie intellektuell überschätzen, sichern wir BigTech das nächste big business. Und ich wette, BigTech wird es beizeiten grinsend von sich weisen, mit LLMs etwas Sinnstiftendes geschaffen zu haben.