print print
favorites-circle favorites-circle
favorites-circle-full favorites-circle-full
Fortschritt

Miriam Fahimi: “Wir sollten keine Maschinen brauchen, um die Welt fairer zu gestalten.”

Künstliche Intelligenz kann unseren Alltag erleichtern, aber birgt auch viele Herausforderungen. Pixabay/Placidplace
Künstliche Intelligenz erleichtert bereits heute unseren Alltag. Die Systeme können aber auch sehr problematisch sein. Diskriminierende Aussagen und die Verbreitung von Stereotypen, wie durch den neuen „Berufsinfomat“ des AMS, machen sichtbar, wo die großen Herausforderungen liegen. Wir haben mit Miriam Fahimi, Doktorandin am Digital Age Research Center der Uni Klagenfurt und Teil des Projekts „NoBIAS - Artificial Intelligence without Bias“, über Künstliche Intelligenz, dessen Zukunft und Konfliktfelder gesprochen.

MOMENT.at: Kommt mit Künstlicher Intelligenz jetzt die nächste große digitale Revolution?

Miriam Fahimi: KI wird im allgemeinen Sprachgebrauch aktuell meist als Maschine verstanden, die ein eigenes Bewusstsein hat. Davon sind wir noch sehr weit entfernt. Ich habe aber schon die Hoffnung, dass das Ganze nicht nur reiner Techno-Optimismus ist. Mit der neuen KI-Strategie der EU wird es hoffentlich in die Richtung gehen, dass wir uns erst mal überlegen: „Wofür wollen wir diese Systeme eigentlich verwenden?” – anstatt einfach Daten zu sammeln, Technologien wie Chat-GPT zu entwickeln und uns erst danach Gedanken über die Einsatzmöglichkeiten und Auswirkungen zu machen.  

MOMENT.at: Viele halten KI für neutral: Ein Computer hasst oder liebt ja nicht. Warum sind diese Systeme teilweise aber diskriminierend?

Miriam Fahimi: Zum einen spielen die Interessen der entwickelnden Unternehmen und wofür die KI überhaupt genutzt werden soll eine Rolle. Wir leben in einem kapitalistischen System, den Firmen geht es meistens also primär um Profit.

Zum anderen enthalten die Daten, die für das KI-Training verwendet werden, bereits gewisse Vorurteile und Tendenzen. Und auch die Entwickler:innen haben einen großen Einfluss: Die Ausbildung dieser Personen, ihr Bewusstsein für verschiedene Formen der Diskriminierung, ihr Reflexionsvermögen. Für manche ist das auch einfach nur ein Job und es wird nicht weiter über Vorurteile nachgedacht.

Es wurde auch jahrzehntelang verabsäumt, sich das genauer anzuschauen. Diskriminierung durch KI ist jetzt ein großes Forschungsfeld, aber das ist erst seit wenigen Jahren so. Davor hat es niemanden wirklich interessiert. Da ging es um ganz andere Themen, wie Effizienz und Skalierbarkeit. 

MOMENT.at: Was hat das für Auswirkungen auf die Gesellschaft?

Miriam Fahimi: Da gibt es zwei Tendenzen, die einander entgegenstehen. Sexistische Berufsempfehlungen wie durch den AMS-Berufsinfomat können Stereotype reproduzieren und verstärken. Eine junge Frau geht dann vielleicht wirklich in die Pflege, ein junger Mann hingegen in die IT. 

Was aber auch gerade passiert: Uns wird bewusster, wie stark Vorurteile in unserer Gesellschaft vertreten sind. Die KI funktioniert wie ein Spiegel. Warum enthalten die Trainingsdaten solche Stereotypen? Haben Mitarbeiter:innen vielleicht ähnlich geantwortet? Wenn wir uns diesen Fragen stellen, kann das auch positive Auswirkungen haben.

MOMENT.at: Kann man KI überhaupt so bauen, dass sie fair ist und nicht diskriminiert? 

Miriam Fahimi: Was Fairness überhaupt bedeutet, ist sehr schwer festzulegen. KI wird meist für Vorhersagen und Klassifizierungen verwendet. Wie können wir etwas auf gerechte Weise klassifizieren? Also wie können wir zum Beispiel entscheiden, ob eine Person besser geeignet ist für einen Job als eine andere? Um solche Informationen in die KI einzuspeisen, müssen wir komplexe Sachverhalte vereinfachen und abstrahieren, dabei geht auch immer etwas verloren.

Ich halte es nicht für möglich, eine KI zu entwickeln, die frei von jenen Hierarchien und Machtverhältnissen ist, die auch in unserer Gesellschaft existieren. Diese Systeme lernen ja durch die Daten, die wir produzieren.

Und wir sollten uns auch fragen, was das eigentliche Ziel ist. Sollten wir uns nicht darauf konzentrieren, als Menschen gerechter und vorurteilsfreier zu werden, anstatt die perfekte KI zu entwickeln? Es geht darum, die Erkenntnisse aus der KI-Forschung zurück auf die Menschen zu führen. Wir sollten keine Maschinen brauchen, um die Welt fairer zu gestalten.

Außerdem nehmen wir uns selbst aus der Verantwortung, wenn wir sagen, dass bald eine super gerechte KI kommt, die alles für uns entscheiden und die Gesellschaft transformieren wird. Wir müssen handlungsfähig bleiben und unsere Zukunft aktiv mitgestalten.

MOMENT.at: Wo siehst Du die wichtigsten Anwendungsfelder für die KI-Systeme, die wir heute schon haben und in den nächsten Jahren noch bekommen werden?

Miriam Fahimi: Es geht nicht um das Anwendungsfeld allein, sondern immer auch darum, wie Künstliche Intelligenz dort genau eingesetzt wird und was das Ziel ist.

Als Erstes fällt mir da der medizinische Bereich ein. Alles, was mit Bilderkennung zu tun hat, beispielsweise Krebsfrüherkennung, die Analyse von Röntgenbildern, Kameraeinsatz bei Operationen und so weiter. Da könnte mehr Forschung dazu führen, dass KI das besser und schneller schafft als das menschliche Auge.

Das zweite wichtige Feld ist der Verkehr. Da zeigt sich sehr gut, dass es eben auf die Gestaltung ankommt. Wird KI so eingesetzt, dass es mehr Individualverkehr gibt , weil wir alle in unseren selbstfahrenden Autos sitzen, geht es natürlich in die falsche Richtung. Aber wenn es dazu führt, dass wir effiziente öffentliche Verkehrssysteme haben, wo wir schneller an unser Ziel kommen und es weniger Unfälle gibt, dann ist das begrüßenswert.

Ähnlich ist es in der Industrie: Setzen wir KI-Systeme so ein, dass sie langweilige Routineaufgaben übernehmen und wir alle weniger arbeiten müssen? Oder verwenden wir sie, um Arbeitskräfte zu ersetzen und zu kontrollieren?

MOMENT.at: Welche großen Probleme sind uns bei KI-Systemen wenig bewusst? 

Miriam Fahimi: Was wir oft übersehen, sind die Auswirkungen von KI auf unsere Umwelt. Zum Ressourcenverbrauch von solchen Systemen gibt es viel zu wenig Forschung. Es ist auch schwierig an Daten zu kommen, weil KI oft von privaten Unternehmen entwickelt wird. Die müssen gar nicht öffentlich machen, wie viele Ressourcen sie verwenden oder wie viel Energie sie brauchen. Eine Studie schätzt, dass allein das Training von OpenAIs GPT-3 genug Energie verbraucht, um ein durchschnittliches US-amerikanisches Haus für Jahrhunderte mit Strom zu versorgen. 

Dazu kommt Diskriminierung durch KI auf systematischer Ebene. Diese Technologien reproduzieren Stereotype, weil unsere Gesellschaft unfair und diskriminierend ist. Aber bei KI ist die Auswirkung der Diskriminierung meistens viel größer, als wenn ein einzelnes Individuum mit Vorurteilen etwas entscheidet. Man kann das auch nicht so einfach beheben, weil wir bei so komplizierten Modellen oft nicht mehr wissen, woran es genau liegt, dass die KI zum Beispiel sexistisch ist.

Außerdem besitzen private Unternehmen Unmengen von Daten, die wir andauernd für sie produzieren – und das gratis. Die Firmen machen damit jedoch riesige Profite und entscheiden, wo der Fokus der Entwicklungen liegen soll. Da gibt es wenig Transparenz und Mitsprache.

MOMENT.at: Inwiefern hängen Ausbeutung und KI-Systeme zusammen?

Miriam Fahimi: Hinter KI steckt viel manuelle Arbeit. Das Training läuft gar nicht so automatisiert ab, wie man vielleicht denkt. KI-Unternehmen machen einfach das Gleiche wie viele andere Unternehmen – sie lagern die unangenehme Arbeit aus und profitieren davon, dass wir in einer extrem ungerechten Gesellschaft leben, die darauf beruht, dass wir Menschen im Globalen Süden und teilweise Osteuropa ausbeuten. 

Ein Beispiel: In Kenia mussten Arbeiter:innen sehr viele problematische Inhalte sichten, um diese für die KI als verstörend oder gewaltvoll zu klassifizieren. All das ohne psychologische Unterstützung und für nicht mal 4 US-Dollar am Tag.

Und man muss sich natürlich auch anschauen, wer in den Chefetagen – und ich gendere bewusst nicht – der Entwicklungsfirmen von KI sitzt.  Da treffen vor allem weiße Männer die Entscheidungen.

MOMENT.at: Was können KI-Systeme nicht oder nicht gut?

Miriam Fahimi: Zwischenmenschliche Interaktionen ersetzen. KI kann in Sekundenschnelle Tausende von Finanzdaten analysieren und zum besten Zeitpunkt Aktien kaufen und wieder verkaufen. Aber die Bedürfnisse ihres Gegenübers zu erkennen und darauf einzugehen, das kann sie sehr schlecht. Dabei geht es um emotionale Intelligenz und die ist schwer über Datensätze anzutrainieren.

MOMENT.at: Werden sie oder absehbare Nachfolger das lernen?

Miriam Fahimi: Prinzipiell ist sehr viel möglich, was wir uns jetzt vielleicht noch gar nicht vorstellen können. Aber vielleicht sollte KI gewisse Dinge auch gar nicht können. Wir wollen ja eher, dass sie uns Aufgaben abnimmt, die wir nicht gerne machen oder die sehr anstrengend sind, anstatt den Kontakt zwischen Menschen abzulösen.

MOMENT.at: Was kann die Politik für mehr Transparenz und Gerechtigkeit tun?

Miriam Fahimi: Zwei wichtige Dinge: Demokratisierung und Datensouveränität.

Wir brauchen eine Demokratisierung von KI, wie auch immer die dann genau ausschauen wird. Aktuell findet eine starke Privatisierung statt, das gehört geändert. Und wir brauchen auf jeden Fall nicht nur Datenschutz, sondern Datensouveränität. Wir sollten selbst entscheiden können, was mit unseren Daten passiert. Es braucht eine ganz andere Einbeziehung von uns Nutzer:innen.

Mehr Diversität in der Branche ist ebenfalls wichtig. Frauen und andere unterrepräsentierte Gruppen müssen bereits in die Entwicklung von KI eingebunden werden. Diskriminierte Menschen brauchen Detail- und Erfahrungswissen, um schon während des Prozesses Probleme zu erkennen. Dieses Wissen können sie sich nur aneignen, wenn sie von Anfang an dabei sind. Im Nachhinein Fehler zu beheben, ist meist komplizierter.

MOMENT.at: Wächst uns das gerade alles über den Kopf oder können wir die Entwicklungen noch unter Kontrolle bekommen und in eine positive Richtung lenken?

Miriam Fahimi: Die Politik und die Gesetzgebung hinken einfach hinterher. Es braucht globale Abkommen. Was die Umweltfrage angeht, wird es besonders schwierig. Wir unterschätzen einfach, wie hoch der Ressourcenverbrauch wirklich ist und dass er weiter ansteigen wird. Das wird schwierig in den Griff zu bekommen. 

Allgemein bin ich aber optimistisch. Nicht, weil ich denke, dass wir bald die perfekte KI entwickeln werden. Aber weil in zehn Jahren hoffentlich vieles besser sein wird als jetzt. Und Optimismus hilft dabei, handlungsfähig zu bleiben.

Miriam Fahimi, Wissenschaftlerin am Digital Age Research Center (D!ARC) der Universität Klagenfurt.

Paula Gottschalk

Miriam Fahimi ist seit 2021 Wissenschaftlerin am Digital Age Research Center (D!ARC) der Universität Klagenfurt, Doktorandin der Science and Technology Studies und forscht zum Projekt „NoBIAS – Artificial Intelligence without Bias“.

Miriam Fahimi, Wissenschaftlerin am Digital Age Research Center (D!ARC) der Universität Klagenfurt. Paula Gottschalk

    Neuen Kommentar hinzufügen

    Kommentare 0 Kommentare
    Kommentar hinzufügen

    Neuen Kommentar hinzufügen

    Es gibt noch keine Kommentare zu diesem Beitrag!