print print
favorites-circle favorites-circle
favorites-circle-full favorites-circle-full
Fortschritt

Émile Torres über Longtermismus: „Die Ideologie ist bei vielen mächtigen Personen beliebt.“

Émile Torres forscht als Philosoph:in und Historiker:in zu Ideen über das Aussterben der Menschheit. Auch Longtermismus will das radikal verhindern.
Émile Torres forscht als Philosoph:in und Historiker:in zu Ideen über das Aussterben der Menschheit. Auch Longtermismus will das radikal verhindern. – Foto: Privat
Unter einflussreichen Menschen macht sich zunehmend eine Ideologie breit: der Longtermismus. Ihr Vertreter:innen halten eine extrem ferne Zukunft für moralisch wichtiger als die Probleme heutiger Menschen. Historiker:in und Philosoph:in Émile Torres hat sich mit dem Phänomen beschäftigt. Im Gespräch mit MOMENT.at erklärt Torres, warum diese Ideologie gefährlich ist.

Bekannte und einflussreiche Longtermisten in der akademischen Welt sind unter anderem die Oxford-Philosophen Nick Bostrom und William MacAskill. In der Tech-Welt sympathieren etwa Elon Musk und Sam Bankman-Fried damit.

MOMENT.at: Fangen wir einfach an. Wenn im Longtermismus von der Zukunft gesprochen wird – welche ist das?

Émile Torres: Longtermist:innen schätzen, wir könnten die Erde noch etwa eine Milliarde Jahre bewohnen. Und wenn wir uns ausbreiten, könnten wir Menschen im Universum für mindestens zehn Sextilliarden Jahre leben (Anmerkung: zehn Sextilliarden werden auch als 10^40 geschrieben. Das ist eine 1 mit 40 Nullen).

MOMENT.at: Warum ist den Longtermist:innen diese ferne Zukunft so wichtig?

Torres: Die ferne Zukunft zählt aufgrund ihrer Größe. Das Ziel der Longtermist:innen ist, die größtmögliche Anzahl an Personen positiv zu beeinflussen. Und da die meisten Menschen, die es geben könnte, in ferner Zukunft existieren werden, sollten wir uns in erster Linie auf sie konzentrieren und nicht auf die Menschen von heute – wobei die meisten dieser Personen aus Platzgründen in Computersimulationen leben würden. Insgesamt könnte laut diesen Prognosen in der Zukunft noch 10 Nonilliarden (10^58) Personen leben.

Heute leben über 
8.000.000.000 (8 Milliarden)
Menschen.

Longtermist:innen glauben, in der Zukunft könnten noch bis zu 
10.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000 (10 Nonilliarden)
menschliche Wesen leben.

MOMENT.at: Anders gefragt: Ist Ihnen die ferne Zukunft denn egal?

Torres: Eine bestimmte Langzeitperspektive ist sehr wichtig. Wenn jemand in der Zukunft lebt, zählt diese Person im selben Ausmaß wie eine Person, die heute lebt oder in der Vergangenheit gelebt hat. Jedoch halte ich das Vorhersagen der fernen Zukunft für unmöglich. Daher ist der Fokus auf sie unangebracht. Longtermistische Ideologie geht weit über Langzeitdenken hinaus. Die Ideologie beinhaltet das Ersetzen der Menschheit durch eine digitale Welt, da nur so die maximale Anzahl an Personen existieren kann. 

MOMENT.at: Welche Risiken erscheinen Longtermist:innen als besonders wichtig?

Torres: Die Schlüsselidee ist die der existentiellen Risiken. Damit werden Risiken bezeichnet, die eine techno-utopische Zukunft mit einer astronomischen Zahl von digitalen Personen gefährden würden. Für Longtermist:innen hat es höchste Priorität, diese Risiken zu minimieren.

Für das wichtigste existentielle Risiko halten viele Longtermist:innen momentan eine bösartige künstliche Intelligenz, die nicht mit menschlichen Werten übereinstimmt und uns daher auslöscht.

Nicht-existentielle Risiken werden als viel weniger wichtig angesehen, da sie die longtermistische Utopie nicht gefährden. Dazu gehört beispielsweise globale Armut, sie wird deshalb den existentiellen Risiken untergeordnet. 

MOMENT.at: Themen wie sichere künstliche Intelligenz und Pandemieprävention sind wichtig. Ist es nicht auch gut, dass jemand sie in den Fokus rückt? 

Torres: Ich finde es gut, dass sich Personen auf diese vernachlässigten Risiken fokussieren. Wir haben in den letzten Jahren gesehen, was passiert, wenn solche ignoriert werden. Man braucht jedoch nicht den longtermistischen Rahmen, um sich um diese Themen zu kümmern. Pandemien verursachen enormen Schaden an tatsächlich existierenden Personen und höchstwahrscheinlich an jenen, die in der nahen Zukunft leben werden. Der ideologische Ballast des Longtermisms muss nicht in Kauf genommen werden, damit diese Themen relevant sind.

„Ich mache mir Sorgen, dass nicht-existentielle Risiken ignoriert und kleingeredet werden.“

MOMENT.at: Können wir den Einfluss von Longtermism bereits spüren?

Torres: Ja, bestimmt. Zum Beispiel ist Elon Musk angetan von Longtermism. Ich denke, dass viele seiner Unternehmen den meisten Sinn aus dieser Perspektive machen. Sein Unternehmen SpaceX soll der Menschheit zum Teil dabei helfen, eine Katastrophe auf der Erde durch das Übersiedeln auf den Mars zu überleben. Der Mars ist ein Zwischenschritt zur Ausbreitung auf andere Planeten. Und sein Unternehmen Neuralink hat als Ziel, unsere Gehirne mit künstlicher Intelligenz zusammenzuführen. Am Ende können wir so vielleicht alles biologische Material durch Computer-Hardware ersetzen. Auch in der internationalen Politik spielen diese Ideen eine immer größere Rolle. 

MOMENT.at: Das scheint ein rasanter Aufstieg zu sein. Wo soll das enden? Wie sieht eine Welt aus, in der Longtermism dominiert?

Ich mache mir Sorgen, dass nicht-existentielle Risiken ignoriert und kleingeredet werden. Einige der wichtigsten Publikationen von Longtermist:innen machen genau das. Darüber hinaus könnte es zu einer Konzentration der Macht ohnehin mächtiger Personen kommen. So propagieren Tech-Eliten, dass man in sie investieren muss, weil nur sie das Problem bösartiger künstlicher Intelligenz lösen können. All das, während von ihnen verursachte Probleme wie Verbreitung von Desinformation und algorithmische Biases ignoriert werden.

„Die Tech-Elite ist von existenziellen Risiken auch selbst betroffen. Von Risiken wie Armut nicht.“

MOMENT.at: Warum sind gerade Tech-Giganten wie Elon Musk so angetan von der fernen Zukunft?

Torres: Ich denke, es verleiht vielen ihrer Unternehmen möglicherweise einen Scheingrund. Es ist schwierig, herauszufinden, warum genau Musk auf den Mars will. Vielleicht ist es ein Kindheitswunsch von ihm, für den er Longtermism dann als ethische Ausrede gefunden hat. Vielleicht glaubt er aber auch wirklich an longtermistische Werte. Das ist absolut möglich.

Darüber hinaus spricht das Thema „existentielles Risiko“ die Tech-Elite auch an, weil sie von solchen logischerweise auch direkt betroffen wären. Eine böse KI würde auch sie auslöschen. Andere Risiken wie globale Armut betreffen sie nicht.

MOMENT.at: Momentan bekommen Longtermist:innen aber auch negative Berichte ab. Was passiert da?

Torres: Am Anfang des vergangenen Sommers haben Longtermist:innen versucht, ihre Ideologie öffentlich zu verbreiten. Ein paar Faktoren haben dabei zu einem Backlash geführt. Etwa der Untergang des Krypto-Milliardärs und Longtermisten Sam Bankman-Fried. Darüber hinaus haben einige Personen wie ich begonnen, über die Abgründe einer auf den ersten Blick plausibel scheinenden Ideologie zu schreiben und die Öffentlichkeit zu informieren.

MOMENT.at: Könnte das den Aufstieg bremsen?

Torres: Gute Frage. Ich vermute, nicht. Longtermism ist bei vielen mächtigen Personen, vor allem im Silicon Valley, beliebt. Deren Macht ist dermaßen groß, dass ihre Entscheidungen die Welt auf lange Zeit beeinflussen werden. Ich denke daher, dass Longtermism einflussreich bleiben wird. Ich hoffe aber, dass das nicht so ist.
 

Émile P. Torres (they/them) beschäftigt sich als Historiker:in und Philosoph:in mit dem menschlichen Aussterben und die Ideen, die sich darum ranken. Torres arbeitet an der Leibniz Universität Hannover an seinem Doktor und schrieb zuletzt das Buch „Human Extinction: A History of the Science and Ethics of Annihilation“. Es erscheint in englischer Sprache im Juli. Torres publiziert regelmäßig Beiträge in bekannten Medien wie der Washington Post, Salon oder Thruthdig.

    Neuen Kommentar hinzufügen

    Kommentare 0 Kommentare
    Kommentar hinzufügen

    Neuen Kommentar hinzufügen

    Es gibt noch keine Kommentare zu diesem Beitrag!