Warum das Silicon Valley neuerdings hyperoptimistisch und apokalyptisch zugleich ist

Mit „moralischer Mathematik“, obskuren philosophischen Sentenzen und hochspekulativen intergalaktischen Märkten versuchen die Akteure des Silicon Valleys noch einmal auf dem Fahrersitz der Geschichte zu kommen. Ihre Risikobereitschaft wird von Oxford-Professoren und leichtsinnigen Altruisten gestärkt. Es geht – wie immer – um eine neue Wachstumserzählung

 

Star-Investor Marc Andreessen hat jüngst mit seinem „Techno-Optimist-Manifesto“ für Aufsehen und Kopfschütteln zugleich gesorgt. Aber im Grunde werden darin nur nochmals die Irrtümer der technologiebesoffenen 1990er Jahre wiedergekäut.

 

In seiner Venture-Capital-Firma Andreessen Horowitz hält er unbeirrt an luftigen Visionen wie dem Metaverse und dem Web3 fest, Begriffe, die vor zwei Jahren ins Spiel kamen, um die um sich greifende Midlifecrisis im Silicon Valley zu bekämpfen und vom Platzen der SocialMedia-Blase (gefolgt von Massenentlassungen) abzulenken. Von wo lässt sich ein neues Wachstums-Narrativ (Andreessen: „Techno-Optimists believe that societies, like sharks, grow or die“) herbeizaubern? Es müssen neue Nebelkerzen gezündet werden. In seinem Manifest erklärt Andreessen neue Technologien noch einmal zu Erlösungsreligionen. Dieses Mal ist die KI „unsere Alchemie (...), unser Stein der Weisen“ 

 

Woher kommt dieser überdrehte Optimismus und - manchmal noch im gleichen Satz - das apokalyptische Wehklagen der Silicon Valley-Elite? Die Geschäfte müssen ja irgendwie weitergehen. Es darf zu keinem Zeitpunkt der Eindruck entstehen, dass wir Energie sparen oder langsamer machen sollten. Die Wachstums-Story muss weitererzählt werden. Das Drehbuch hierfür liefern Philosophen aus Oxford. Der Klimawandel ist für sie keine wirklich existenzielle Bedrohung. Vielmehr geht es um Künstliche Intelligenz (KI). Und es geht darum, Gutes zu tun.

 

Elon Musk, Jeff Bezos, Peter Thiel, Marc Andreessen und viele andere sind sich darin vollkommen einig, dass nur Technologie die Welt wird retten können. Und nur indem wir neue Spitzentechnologien kritiklos umarmen und ungeprüft durchwinken, können wir eine gute Zukunft bis 2100 und darüber hinaus garantieren. Nur indem wir das Steigerungsspiel entfesselter Technologien weiterspielen, werden wir den „Herausforderungen der Zukunft“ gerecht. Im medialen Begleitprogramm zu diesem ungebremsten, auf freien Märkten sich entfaltenden Techno-Futurismus warnen Elon Musk und Sam Altmann (OpenAI) gleichzeitig vor der Apokalypse durch das zerstörerische Potenzial der Künstlichen Intelligenz. 

 

Longtermism: Philosophischer Eskapismus für extraterrestrisches Wachstum 

 

Irgendwann im vergangenen Jahr ist Elon Musk über den Begriff des Longtermism gestolpert. Auf seinem eigenen Herrenklo namens X (aka SocialMedia-Plattform Twitter) bestätigte er umgehend (2. August 2022), dass sich der Longtermism mit großen Teilen seiner Philosophie decke. Der Longtermism ist eine Denkbewegung, die es für moralisch angeraten hält, sich um die großen und wirklich langfristigen Risiken zu kümmern, die die Existenz der Menschheit künftig in Frage stellen werden. 

 

Das klingt auf den ersten Blick nach einem ethisch tadellosen Konzept. Schaut man genauer hin, ist der Longtermism ein Debattierklub ziemlich junger weißer Männer an der Universität Oxford, die sich – irgendwie - über das ewige Leben, die Zukunft der Menschheit oder die Unzerstörbarkeit des menschlichen Bewusstseins Gedanken machen. 

 

Ihre Thesen sind bizarr. Trotzdem kann ihr Einfluss auf die Silicon-Valley-Gurus gar nicht hoch genug eingeschätzt werden. Eine der zentralen Denkfiguren des Longtermism geht so: Wenn es uns um die Zukunft der Spezies Mensch geht, dann dürfen wir uns nicht nur um die jetzt lebenden Menschen kümmern, nein, wir müssen vor allem für die kommenden Generationen optimale Bedingungen dafür schaffen, dass menschliches Leben auch in den kommenden Millionen von Jahren den Kosmos mit Bewusstsein erleuchtet. 

 

Für die Silicon-Valley-Genien klingt die Rettung der Menschheit über das Jahr 2100 hinaus und dann auch noch in extraterrestrischen und galaktischen Techno-Szenarien höchst verlockend. Bekanntlich träumt nicht nur Elon Musk von der Mondbesiedelung und würde dafür gerne zunächst einmal die Transportmittel zur Verfügung stellen. Jeff Bezos ließ sich angeblich bei einer Tasse Kaffee mit William MacAskill, einem der jungen Superstars des Longtermism, zum hochspekulativen Denken in großen Bögen bekehren. MacAskills Buch „Was wir der Zukunft schulden: Warum wir jetzt darüber entscheiden, ob wir die nächste Million Jahre positiv beeinflussen.“ avancierte schnell zum Weltbestseller. Musk spendete zehn Millionen US-Dollar für Nick Bostroms “Future of Humanity Institute” an der University of Oxford.

 

Das Szenario, das einem sofort in den Kopf schießt: Peter Thiel, Elon Musk und Jeff Bezos in einer Raumkapsel unterwegs zum Mars, um dort den elitären humanen Geist zu repräsentieren, um den sich die jungen weißen Männer in Oxford so sorgen. Nur die Besten kommen mit, wenn die Erde nicht mehr bewohnbar ist, um für die unsterbliche Existenz des menschlichen Geistes in den Galaxien einzutreten. Peter Thiel käme dann auch womöglich weiter bei seinem Versuch, selbst Unsterblichkeit zu erlangen. Das ist alles krude Science-Fiction. Für die nachdenklichen Oxford-Professoren jedoch ein moralisches Happy-end.  

 

Nun ist es nicht so, dass MacAskill und Bostrom nur im universitären Elfenbeinturm philosophieren und das Silicon Valley mit einem neuen Zukunfts-Narrativ beglücken. Längst haben sie auch Ex-Premierminister Boris Johnson (ein Oxford-Absolvent) und den aktuellen Premier Rishi Sunak (studierte in Oxford Philosophie) für ihre Phantastereien begeistert. Mit dem Ergebnis, dass Sunak gerade dabei ist, Investitionen in die Energiewende radikal zurückzufahren und stattdessen in den Umgang mit KI zu stecken, wie die gerade zu Ende gegangene internationale KI-Konferenz im englischen Bletchley (nahe Oxford) unter Beweis stellte, die ausdrücklich unter Sunaks Schirmherrschaft stand.  

 

Musk war lange Zeit insbesondere darin ein Vordenker, sich Steuernachlässe in Milliardenhöhe zu sichern sowie staatliche Subventionen und Kredite abzugreifen In den diffusen Zukunftsgemälden der Oxford-Philosophen hat er wohl vor allem eines entdeckt: gigantische neue, wenn man so will: multiplanetare - Absatzmärkte und die erlösende philantrophe Begründung für die Entfesselung neuer Beschleunigungsrekorde von Innovationen und extraterrestrischer Produktivitätsexplosionen. (MacAskill, den die Londoner Times kürzlich als „wallet whisperer“ bezeichnete, hat sich dessen ungeachtet gegen die Vereinnahmung durch den Techno-Libertär Musk verwahrt.) 

 

Für die Silicon-Valley-Elite liefert der Longtermism jedoch schlicht ein alternatives Zukunfts-Narrativ zur mühseligen Dekarbonisierung. Der Schalter soll einfach wieder umgelegt werden. Endlich gibt es wieder eine Begründung für ungehinderte Wachstumsperspektiven: von dem mittelfristigen, von Leidensdruck geprägten Ringen mit dem Klimawandel hin zu einer fernen Zukunft, in der die freie Entfaltung der Produktivkräfte der Künstlichen Intelligenz alle Probleme – möglicherweise - von selbst löst. 

 

Effektiver Altruismus: die mathematische Moral der Eliten

 

Der Einfluss des Longtermism ist nicht zu verstehen ohne die in den USA entstandene philantrophische Bewegung des „Effektiven Altruismus“ (EA). Der Longtermism ist quasi der philosophische Science-Fiction-Roman für Silicon-Valley-Milliardäre, die nach einem tieferen Sinn für ihre Gier nach Wachstum und Profiten suchen. Der Effektive Altruismus („earn to give“) erhebt den Techno-Kapitalismus zusätzlich in den Stand von barmherzigen Samaritern für die Menschen in Gegenwart und Zukunft. Bekanntlich wären große Teile der US-amerikanischen Zivilgesellschaft und der Wissenschaftskultur ohne die Milliarden Dollar von betuchten Spendern nicht überlebensfähig.

 

Sich zum EA zu bekennen, das heißt, sich als verantwortungsbewusste Elite zu entwerfen, die von sich verlangt, möglichst effektiv und in kürzester Zeit möglichst viel Gutes für das Schicksal des Menschen (nicht des Planeten, ein kleiner, aber feiner Unterschied!) zu tun. Für die Lebenswelt privilegierter US-Bürger heißt dies: in den Finanzmarkt einzusteigen, Investmentbanker oder ähnliches zu werden und in kürzester Zeit möglichst viel Geld anzuhäufen, von dem man Bruchteile steuergünstig in Wohltätigkeitszwecke anlegt. Das Prinzip lautet Werde reich und tue Gutes! Dustin Moskovitz, Mitgründer von Facebook, und seine Frau Cari Tuna gehören zu den bekanntesten Aktivist:innen der Bewegung.

 

Stellt sich die Frage, was das „Gute“ in Zeiten der Polykrise eigentlich ist. Die Bekämpfung des Klimawandels jedenfalls spielt in der Wohltätigkeits-Sophisterei von Longtermism und Effektivem Altruismus keine Rolle. Zu Beginn der Popularisierung des EA wurden die Spenden primär in die Ausstattung der armen Menschen mit Moskitonetzen investiert. Als weiteres Betätigungsfeld zur Rettung der Menschheit galten Projekte gegen atomares Wettrüsten und für die globale Pandemieprävention.

 

Angesichts des Klimawandels macht es eigentlich wenig Sinn, viele Ressourcen in den Versuch zu investieren, die ferne Zukunft aus dem Hier-und-Jetzt positiv zu beeinflussen. Aber wer könnte daran ein Interesse haben? Natürlich die Milliardäre und ihre BigTech-Unternehmen. Derweil tröstet sich der elitäre Philosophen-Club der jungen weißen Männer, ausgestattet mit einem Freifahrtschein für kosmischen Eskapismus, mit der Hoffnung auf das ewige Leben und stellt zur Begründung seines Longtermism waghalsige Berechnungen an. 

 

Sollte die Menschheit so lange auf der Erde überleben, wie der Planet bewohnbar ist, wären das, so MacAskill, mehr als eine Billion Menschen, für die frühzeitig gesorgt werden sollte. Gesteht man dieser steilen These nur die Eintrittswahrscheinlichkeit von einem Prozentpunkt zu, ergibt das zusammengerechnet schon deutlich mehr Menschen als gegenwärtig auf der Erde leben. Gelingt es dann irgendwann, außerhalb der Erde menschliches Leben anzusiedeln, so Oxfords Jungstar weiter, wären das noch einmal unfassbar mehr Menschen, für deren Lebensqualität wir als gute Erdenbewohner schon jetzt vorsorgen sollten. 

 

Vielen von Ihnen, liebe Leserinnen und Leser, wird es wie mir gehen. Ich kann nicht einmal präzise vorhersagen, was ich in einem Jahr tun werde oder was in 100 Jahren der Fall sein wird. Die Hypothese ist hanebüchen und enthält bedenkliche Implikationen. In der moralischen Mathematik der Longtermisten ergibt es auch Sinn, das Leben von einer Million Menschen aufs Spiel zu setzen, wenn sich damit gleichzeitig die Wahrscheinlichkeit des Aussterbens der Spezies Mensch um 0,0001 Prozent verringern lässt.    

 

Die Botschaft von Longtermism und Effektivem Altruismus ist klar: Lasst uns endlich Schluss machen mit unserer kleinkarierten Gegenwartsverhaftetheit. Das ist lächerlicher Status-Quo-Bias. Wer als moderner Mensch des 21. Jahrhunderts wirklich in langen Zeiträumen denkt (und Jeff Bezos, Peter Thiel, Elon Musk und Marc Andreessen behaupten das von sich), für den spielen die ersten hundert oder tausend Jahre der Menschheitsgeschichte nur eine untergeordnete Rolle.

 

Damit sollte auch klar sein, dass EA kein kleinstädtischer Wohltätigkeitsbasar ist. EA-Organisationen werden derzeit von einer wahren Geldschwemme (die Rede ist von rund 26,6 Milliarden US-Dollar) heimgesucht. Es ist also mehr als genug Geld für kurzfristige und langfristige Projekte vorhanden. 

 

Sam Bankman-Fried: ein Prachtkerl aus dem Haus der Effektiven Altruisten

 

Eine weitere Zahl ist für die Longtermisten von großer Bedeutung. Sie gehen davon aus, dass künstliche Intelligenz in einigen Jahrzehnten dem menschlichen Intellekt überlegen sein wird. Laut KI-Forschern bestehe dabei eine fünfprozentige Wahrscheinlichkeit, dass menschliches Bewusstsein komplett ausgelöscht wird. 

      

Ohne Frage ist diese „moralische Mathematik“ nichts anderes als eine Einladung zu Eugenik und Massenmord. Klimaflüchtlinge an unseren Grenzen, haben wir keine Zeit für, denn wir müssen gerade für das transplanetare Weiterexistieren der Gattung sorgen, die – irgendwann vielleicht - von KI ausgelöscht werden könnte. Selbst wenn Armut, Krankheit und die extremen Wetterbedingungen des Klimawandels schon heute Millionen von Menschen schweres Leid zufügen, muss ein Effektiver Altruist nicht zwangsläufig darauf reagieren, wenn er der Meinung ist, dass der beste Weg zur Maximierung des humanen Wohlergehens darin besteht, das Leid von Hunderten Milliarden künftiger Menschen auszuschließen (die dafür allerdings erst einmal geboren und zum Mars gebracht werden müssen). 

 

Wer sich bei all den Weltschmerzen der Oxford-Philosophen und philantrophen Silicon-Valley-Multimilliardäre an jüngste Sauereien in der Kryptoszene erinnert fühlt, trifft den Nagel auf den Kopf. Sam Bankman-Fried, der mit seiner Handelsfirma Alameda Research und der Krypto-Börse FTX die nach Expertenmeinung desaströseste Pleite der jüngeren Börsengeschichte hinlegte, ist ein bekennendes Mitglied der Effektiven Altruisten. MacAskill persönlich soll den hochbegabten Mathematiker im Alter von 18 Jahren an seinen elitären Auftrag erinnert haben. Bankman-Fried selbst plante nach seinem Harvard-Studium Gutes auf dem Gebiet des Tierwohls tun zu wollen. MacAskill erkannte, dass hier mathematisches Ausnahmetalent vergeudet wird und legte Bankman-Fried die (verhängnisvolle) Karriere auf dem Finanzmarkt nahe. 

 

Altruismus, der im Dienst einer nebulösen Zukunft Lebensentwürfe im Hier-und-Jetzt zerstört. Bankman-Fried hat das Geld von rund fünf Millionen Menschen veruntreut. Seine hochriskanten Wetten, davon gehen Insider aus, waren unmittelbar der Logik des Effektiven Altruismus verpflichtet: Werde reich und tue Gutes! Wie Bankman-Fried, dem 150 Jahre Gefängnis drohen, es schildert, bestand seine ursprüngliche Idee darin, mit seiner Krypto-Handelsfirma Alameda Research und der Krypto-Börse FTX Milliarden zu verdienen und den Erlös in bescheidene Dinge wie „Schlafnetze gegen Malaria“ zu stecken und damit das Leben armer Menschen ein bisschen besser zu machen.

 

Wenn risikoaffine Zukunftsorientierung menschenverachtende Züge annimmt 

 

Sollte die ferne, hoch spekulative Zukunft des Menschen eine zentrale moralische Priorität sein oder ist sie vielleicht sogar die wichtigste moralische Priorität, wie es Anhänger des Longtermism nahelegen? Ist es wirklich wichtiger, den Menschen in der möglichen Zukunft zu helfen – den Hunderten von Milliarden Menschen, die womöglich leben werden – oder der definitiv kleineren Zahl von Menschen beizustehen, die gerade leiden? Der Altruismus des Longtermism folgt einer verqueren „Ethik der größten Zahl“. Der beste Weg, möglichst vielen Menschen zu helfen, bestehe darin, auch die langfristige Zukunft der Menschheit einzubeziehen und entsprechend für das Wohlergehen der vielen Milliarden Menschen zu sorgen, die noch geboren werden müssen. Denn wenn alle Leben gleich wertvoll sind, schlussfolgern die „Langzeitisten“, muss sich das dann ja auch auf die potenzielle resp. die hochspekulative Zukunft beziehen.

 

Sigal Samuel hat drei Eskalationsstufen für den Longtermism identifiziert: Die erste lautet: „Die langfristige Zukunft ist wichtiger, als wir ihr derzeit zutrauen, und wir sollten mehr tun, um ihr zu helfen.“ Zweitens: „Die langfristige Zukunft ist wichtiger als alles andere und sollte daher unsere absolute oberste Priorität sein.“ Die dritte Stufe: „Die langfristige Zukunft ist wichtiger als alles andere, daher sollten wir auch hohe Risiken eingehen, um sicherzustellen, dass diese Zukunft nicht nur existiert, sondern auch im Sinne eines utopischen Paradieses ausgestattet ist.“

 

Betrachtet man es so, ist die Vermeidung des – noch einmal: hochspekulativen - Aussterbens der menschlichen Spezies so etwas wie ein kategorischer Imperativ. Überzeugte „Langzeitisten“, die fest entschlossen sind, die Menschheit in eine hochgradig spekulative, multiplanetare Utopie zu führen, sind dann auch bereit, gigantische Risiken dafür einzugehen. 

 

Hier finden wir das Erklärungsmuster dafür, weswegen das philantrophe Mathe-Genie Bankman-Fried zum Betrüger wurde. Um möglichst viel Gutes zu tun, war er bereit, irrwitzige Risiken einzugehen. Tatsächlich hat Bankman-Fried in einem Podcast mit dem Ökonomie-Professor Tyler Coen folgendes zugestanden: Wenn es eine 51-prozentige Chance gäbe, die Welt zu verdoppeln, würde er, Bankman-Fried das tun, auch wenn gleichzeitig ein 49-prozentige Wahrscheinlichkeit bestehe, dass dabei die Erde komplett zugrunde geht. Man nennt dieses Gedankenspiel auch das St. Petersburg-Paradoxon (hoher Erwartungswert schlägt minimale Eintrittswahrscheinlichkeit). 

 

Es war die Hybris, ein Auserwählter zu sein, der die Welt erlöst, die Bankman-Fried zum Straftäter machte. Und diese Hybris erklärt auch das merkwürdige Schwanken der Andreessens, Musks und Altmans zwischen Tech-Optimismus und -Apokalypse. KI (und nicht der Klimawandel) ist für sie die eine große existenzielle Bedrohung. Sie halten sich für auserwählt, das hohe Risiko einzugehen und beispielsweise in die Arbeit an der sogenannten „Allgemeinen Künstlichen Intelligenz“ (AGI) zu investieren, die womöglich irgendwann in der Lage ist, menschliches Bewusstsein maschinell zu reproduzieren. Obwohl Musk, Altman und andere dies als größtes existenzielles Risiko betrachten, sind sie fest davon überzeugt, dass wir es uns nicht leisten können, AGI nicht zu entwickeln. Denn - wenn es gutgeht - könnte sie das Potenzial entfalten, die Menschheit aus ihrer prekären erdgebundenen Frühzeit in ein blühendes interstellares Erwachsenenalter zu katapultieren. 

 

Das erdverbundene Bewusstsein des Verfassers dieser Zeilen möchte dann doch lieber hinieden im Zustand der humanen Jugendlichkeit zurückgelassen werden. 

 

Die offensichtlichsten Schwächen des Effektiven Altruismus und des Longtermism bestehen in Folgendem:

 

• Das Streben nach moralischer Output-Optimierung in EA und Longtermism führt dazu, dass Aspekte wie Gerechtigkeit und Empathie unter den Tisch fallen. Für die Verteilung von Geldern im Rahmen von EA sollte es künftig eine Bottom-Up-Kontrolle geben.

 

• EA und Longtermism sind elitär, da beide Konzepte davon ausgehen, dass diejenigen, die im Sinne von EA handeln, ihre Entscheidungen nicht in zusätzlichen Kontexten reflektieren. Das führt zur erwähnten Hybris bei Bankman-Fried wie auch bei Musk, Altman et cetera in Bezug auf KI.

 

• Desweiteren sind EA und Longtermism in einem gefährlichen Ausmaß naiv, da sie 1.) davon ausgehen, dass ihnen selbstredend ausreichendes Wissen über zukünftige Verläufe zur Verfügung steht und sie sich weigern, künftige Verläufe zuvorderst als von politischen Prozessen geprägt anzuerkennen. 

 

• Kritiker von EA und Longtermism fordern eine. Weltanschauungsdiversifizierung der Bewegung. Denn intellektuelle Abschottung ist für jede Bewegung schlecht, besonders ungeheuerlich ist sie für eine Bewegung, die vorgibt, die Interessen aller Menschen jetzt und für alle Ewigkeiten zu vertreten.

 

Doch es besteht Hoffnung. Carla Cremer, selbst Mitarbeiterin am Future of Humanity Institute in Oxford, fordert von dem elitären Ansatz Selbstreflexion und Diversifizierung. Neben unpräziser Begriffsbildung und dem Nichtvorhandensein angemessener Instrumente zur Risikobewertung verweist sie auf die Eindimensionalität sowie den Alleinvertretungsanspruch des „techno-utopischen Ansatzes“ und fordert eine schnelle Demokratisierung der Empfehlungsstrukturen.