Max-Weber-Preis für Wirtschaftsethik
Warum es ein Wettbewerbsvorteil sein kann, wenn man KI von Anfang an reguliert
Interview: Michael Scheyer | Fotos: Dr. Sabine Wiesmüller
29.06.2024
People
Sabine Wiesmüller bei der Preisverleihung (z.v.l.)
Sabine Wiesmüller bei der Preisverleihung (z.v.l.)
Sabine Wiesmüller bei der Preisverleihung (z.v.l.)
© Sabine Wiesmüller
Max-Weber-Preis für Wirtschaftsethik

Warum es ein Wettbewerbsvorteil sein kann, wenn man KI von Anfang an reguliert

Interview: Michael Scheyer | Fotos: Dr. Sabine Wiesmüller
29.06.2024
People

Was für Vorteile hat es, wenn man ethische Fragen bei der Entwicklung und Anwendung von Künstlicher Intelligenz von Anfang an mitdenkt? Damit hat sich Dr. Sabine Wiesmüller in ihrer Dissertation mit dem Titel "The Relational Governance of Artificial Intelligence – Forms and Interactions" beschäftigt. Das wollten wir genauer wissen.

Frau Wiesmüller, zunächst mal herzliche Gratulation. Max-Weber-Preis für Wirtschaftsethik, so heißt es genau, ein toller Preis für Ihre Promotion. Wie fühlen Sie sich denn jetzt erst mal?


Ja, tatsächlich ist es ein sehr schönes Gefühl, es freut mich sehr, am Ende einer harten Zeit, die einem viel abverlangt, so eine Würdigung zu bekommen. Ich habe die Doktorarbeit berufsbegleitend verfasst, da waren die Abende und Wochenenden teilweise sehr lang. Deshalb ist es schön, im Nachgang zu sehen, dass es sich wirklich gelohnt hat. Und auch, dass meine Doktorarbeit einen echten Beitrag leisten kann für Gesellschaft und für die Wirtschaft.


Es ist immer schwierig, eine Dissertation in kurze Worte zu fassen. Ich versuche es mal, aber eher als Einleitung für die nächste Frage. Sie haben sich damit beschäftigt, dass man diese Künstliche Intelligenz, die wir jetzt vor der Tür haben, nicht einfach so unreguliert auf die Wirtschaft entlassen sollte, richtig? Was spricht denn da dagegen?

Man sieht ja, dass Unternehmen aktuell die Treiber sind, wenn es darum geht, Künstliche Intelligenz mit der Gesellschaft in Kontakt zu bringen. Zum einen gibt es Forschungsinstitutionen, die Lösungen entwickeln, zum anderen, häufiger, dann Unternehmen, die diese Lösungen in Produkte umwandeln. Erst dann kommt der starke Einfluss auf die Gesellschaft zustande. Was dann passiert, ist nicht immer leicht vorherzusehen. KI soll dabei helfen, Muster in komplizierten Strukturen zu finden, zu vereinfachen und anschließend Handlungsempfehlungen zu geben. Aber wenn in den Daten, mit denen die KI arbeitet, bestimmte Charakteristiken in Datensätzen stärker ausgeprägt sind, kann es dazu führen, dass diese Daten später bevorteilt werden – was aber gar nicht im Sinne des Anwenders ist.


Nehmen wir beispielsweise das Recruiting von Amazon: Das Unternehmen hat eine Zeit lang keine Bewerbungen von Frauen mehr erhalten, was daran lag, dass die Daten der Firmenhistorie zeigten, dass hauptsächlich männliche Mitarbeiter angestellt worden waren. Basierend auf diesem dominanten Muster in den historischen Daten entschied die KI-Lösung, dass es sinnvoller sei, männliche Bewerber zu bevorzugen. Über einen gewissen Zeitraum fiel dies nicht auf, erst bewusste Analysen brachten diesen Effekt zum Vorschein.


Deswegen ist es bei Künstlicher Intelligenz wichtig, von Anfang an Datensätze nach Verzerrungen zu untersuchen, die Stabilität der Performance einer KI-Lösung zu prüfen und aktiv anzuerkennen, was die Technologie kann und was sie nicht kann. Wenn man versteht, welche Charakteristiken KI-Technologien haben, kann man diese gezielt für sich nutzen und Herausforderungen durch gezielte Maßnahmen ausgleichen. Derartige Vorgehensweisen waren also einer der Hauptpunkte meiner Arbeit.

Das ist der Dauerkritikpunkt bei den Large Language Models, nicht wahr? Dass unsere Literaturgeschichte eigentlich frauenfeindlich ist und viele dieser Modelle frauenfeindliche Vorurteile reproduzieren. Das muss man denen erst abtrainieren. Unsere moderne Vorstellung von Ethik entspricht nicht den ethischen Vorstellungen, die im Datensatz der Geschichte abgespeichert sind.


Was Sie ansprechen, ist eine der großen Herausforderungen bei Large Language Models: Wie bilden sie Minderheiten und benachteiligte Gruppen ab? Es gibt auch den Begriff der digitalen Ungleichheit. Diese unterrepräsentierten Gruppen haben nicht denselben Zugang zu digitalen Medien und nicht das notwendige Wissen oder die erforderlichen Fähigkeiten wie privilegierte Gruppen. Das wiederum verstärkt bestehende Strukturen und führt zu einer kontinuierlichen Unterrepräsentierung.


Eine andere große Herausforderung ist es, überhaupt erst einmal zu verstehen, welche Muster und Tendenzen in den zahllosen Datensätzen stecken, die uns durch das Internet zur Verfügung stehen, um diese Modelle zu trainieren. Das lässt sich in Gänze gar nicht analysieren und transparent machen. Daraus entsteht die Herausforderung, dass gesellschaftliche Folgen resultieren wie die des sogenannten händischen "labelings" von Datensätzen. Konkret bedeutet das, dass irgendjemand die vielen Daten, die in das Internet geladen werden, auch ansehen, bewerten und kategorisieren ("labeln") muss. Diese Tätigkeit wird oft in Entwicklungsländer ausgelagert und hat schlimme psychologische Folgen für die Beschäftigten. Denn sie sind diejenigen, die die Dinge aussortieren, die in den Trainingsdaten der KI nicht auftauchen sollen – wie Gewalt oder Pornographie.


Der Einsatz Künstlicher Intelligenz stellt uns also vor Herausforderungen und wenn man all das berücksichtigt, wird es noch schwerer, vorherzusagen, welche Ergebnisee eine KI produziert. Umso wichtiger ist es deshalb, durch gezielte Governance-Maßnahmen Leitplanken für die erfolgreiche und verantwortungsvolle Entwicklung und den Einsatz KI zu entwickeln.


Unternehmen mögen eine solche Regulierung gar nicht so gern, weil sie sich dann immer sehr schnell beschnitten, begrenzt fühlen und Sorge haben, nicht mehr genug Geld verdienen zu können. Darauf gehen Sie in Ihrer Promotion ein und stellen als Antwort die Relationale Ökonomie vor, die auch den menschlichen Faktor berücksichtigt. Was hat es denn mit dieser Relationalen Ökonomie auf sich?

Professor Dr. Josef Wieland hat die Relationale Theorie entwickelt. Er ist einer der führenden Wirtschaftsethiker in Deutschland. Die zwei Theoriestränge dafür kommen zum einen aus der Ökonomie und zum anderen aus der Soziologie. Im Kern geht es um verantwortungsvolles Wirtschaften und damit die Vereinbarkeit von Wirtschaft und Ethik. Meine Doktorarbeit beschäftigt sich damit, was das für Unternehmen in Bezug auf KI bedeutet und wie sie für sich damit möglicherweise sogar einen Wettbewerbsvorteil generieren können. Ich bin der Meinung, dass das sehr wohl möglich ist. Wenn Unternehmer nachhaltig in ihr Unternehmen und ihre Mitarbeiter:innen investieren, sie beispielsweise nicht nur im Ausland unter schlechten Bedingungen beschäftigen, dann macht sich das auf lange Sicht natürlich bezahlt.


Das betrifft auch die Künstliche Intelligenz. Dass ein Bewusstsein dafür existiert, dass der erfolgreiche Einsatz von KI auch Leitlinien erfordert, zeigt auch die Verabschiedung des "EU-AI-Acts", der Anfang 2024 von der EU verabschiedet wurde. Als Nächstes müssen ihn die EU-Länder nun auf nationaler Ebene ausformulieren. Wir warten also gerade auf die finale, nationale Ausarbeitung dieser Regulierung. Das EU-Gesetz ist die erste Regulierung von KI weltweit. Damit hat sich die EU also entschieden, dass der europäische KI-Markt nicht unreguliert bleiben soll. Für die Nutzer:innen ist das zunächst positiv, aber wir müssen genau hinschauen, wie sich die Regulierung auf europäische Innovation auswirken wird.


Vor allem bei Gründungen und Start-ups wird die Regulierung enormen Einfluss auf die Neuentwicklung von Ideen nehmen und diese zunächst womöglich erschweren. Wie gehen wir damit um? Wie wenden wir die Regulierung an? Und wie lassen sich proaktiv Mechanismen einbauen, wie zum Beispiel wiederkehrende Audits, um Verzerrungen wie bei dem Amazon-Beispiel zu verhindern. Wenn wir es schaffen, einen pragmatischen, praktischen und innovationsfreundlichen Ansatz hierfür zu finden, könnte Europa Vorreiter werden für verantwortungsvolle und sichere KI-Lösungen.

titel

Weitere Artikel

Zeit, um zu entscheiden

Diese Webseite verwendet externe Medien, wie z.B. Karten und Videos, und externe Analysewerkzeuge, welche alle dazu genutzt werden können, Daten über Ihr Verhalten zu sammeln. Dabei werden auch Cookies gesetzt. Die Einwilligung zur Nutzung der Cookies & Erweiterungen können Sie jederzeit anpassen bzw. widerrufen.

Eine Erklärung zur Funktionsweise unserer Datenschutzeinstellungen und eine Übersicht zu den verwendeten Analyse-/Marketingwerkzeugen und externen Medien finden Sie in unserer Datenschutzerklärung.