Drei Fragen und Antworten: Wie entwickelt man eine ethische KI?

Entscheidungen von KI sollen für Menschen am besten erklärbar und vertrauenswürdig sein. Im Interview klärt iX, ob KI-Algorithmen auch ethisch sein können.

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen
Lesezeit: 4 Min.

Im Umgang mit Menschen ist es für KI-Systeme wichtig, dass Berechnungen nicht auf Vorurteilen beruhen und Entscheidungen nicht von ethischen Grundsätzen abweichen. Im Interview erklärt Gery Zollinger, Head of Data Science & Analytics bei Avaloq, was ethische KI leisten soll und wie sich eine solche entwickeln lässt.

Im Interview: Gery Zollinger

(Bild: 

Avaloq

)

Gery Zollinger ist Head of Data Science & Analytics bei Avaloq, einem Anbieter für Vermögensverwaltungstechnik und -dienstleistungen für Finanzinstitute.

Herr Zollinger, aktuell arbeitet die EU an Regularien für künstliche Intelligenz; die Kampfbegriffe Explainable AI, Trustworthy AI und Responsible AI ziehen sich durch Forschung, Gesetzgebung und Marketing. Sie bringen nun noch ethische KI ins Spiel. Was versteht man darunter?

Grundsätzlich geht es darum, dass eine KI vorurteilsfrei und ohne eine unbegründete, irrationale Diskriminierung agieren soll. Nur gibt es bisher keine weltweit einheitliche Definition oder global gültige Richtlinien dafür, was eine ethische KI ausmacht. Allerdings haben die meisten Definitionen und Research-Berichten gemeinsam, dass sie eine KI-Lösung danach beurteilen, ob sie Schäden verhindert und Kriterien wie Transparenz, Gerechtigkeit & Fairness, Verantwortung sowie Datenschutz & Privatsphäre erfüllt. Jeder einzelne dieser Punkte lässt aber großen Interpretationsspielraum. Die konkrete Umsetzung hängt immer davon ab, welcher Mensch oder welches Team dafür zuständig ist.

Was ist denn in diesem Kontext eine begründete oder rationale Diskriminierung?

In spezifischen Fällen ist es wichtig, dass das KI-System diskriminieren kann und zum Beispiel Datenquelle, -qualität oder -aktualität bewertet. Diskriminierung ist in der Statistik nur ein anderes Wort für Unterscheiden – es hat nichts Negatives an sich. Jedes Klassifizierungsmodell arbeitet mit statistischer Diskriminierung, zum Beispiel, ob jemand kreditwürdig ist oder nicht oder ob jemand an ESG-Investments interessiert ist. In diesem Kontext ist dies eine gewollte beziehungsweise begründete und rationale Diskriminierung.

Jetzt aber mal konkret: Wie müssen Unternehmen KI-Algorithmen entwickeln, damit diese vorurteilsfrei sind – und wie lassen sich bereits erhobene Datensätze von Stereotypen und Diskriminierung bereinigen?

Es lassen sich grob drei Phasen unterscheiden, in denen die Weichen für eine ethische KI gestellt werden. Erstens geht es vor der eigentlichen Entwicklung des KI-Modells darum, das Input-Datenset zu bereinigen. Zweitens gilt es, während der Entwicklung diskriminierende Features zu eliminieren. Und drittens ist es nach der Entwicklung des KI-Modells wichtig, die Ergebnisse zu überwachen. In der ersten, der Pre-Dev-Phase besteht die größte Herausforderung darin, überhaupt eine potenzielle Diskriminierung in einem Datensatz zu entdecken. Hier kann man gut mit Hypothesen arbeiten und diese statistisch überprüfen. Falls nötig, kann man solche diskriminierenden Beobachtungen als Ausreißer aus dem Trainingsdatensatz entfernen.

In der zweiten, der Dev-Phase, wäre es wichtig, alle potenziell diskriminierenden Variablen, auch Features genannt, aus der Entwicklung des KI-Algorithmus auszuschließen. Geschlecht wäre hier ein typisches Feature. Aber man muss auch weitere Features berücksichtigen, die eine hohe Korrelation mit der potenziell diskriminierenden Variablen aufweisen. Zuletzt geht es in der Post-Dev-Phase darum, festzustellen, ob das KI-Modell gegebenenfalls im Laufe der Zeit diskriminierend wird. Dies hat nichts damit zu tun, dass sich der KI-Algorithmus ändern würde. Vielmehr kann sich der Output des KI-Modells wandeln, wenn sich die Input-Daten nach und nach verändern. Ein technisches Monitoring-Framework kann dies diagnostizieren, indem es kontinuierlich den Output des KI-Modells in Abhängigkeit von diskriminierenden Variablen wie etwa dem Geschlecht beobachtet.

Herr Zollinger, vielen Dank für Ihre Antworten. Aktuell sind viele Aspekte von KI in aller Munde. In einem weiteren Interview wird die Frage beantwortet, warum man lieber teilhaben sollte, als sich abhängen zu lassen. Außerdem lässt sich diskutieren, ob Bildgeneratoren Diversität fördern können. In der kommenden iX 12/2022 findet sich eine erweiterte Fassung des Interviews mit Gery Zollinger.

In der Serie „Drei Fragen und Antworten“ will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.

(pst)