Ethik in der KI ist messbar

Ethik in der KI ist konkret umsetz- und messbar. In einer Studie zeigen der VDE und die Bertelsmann Stiftung, wie das Modell international anwendbar ist. Die Initianten wollen mit dieser Studie «made in Europe» zum Durchbruch verhelfen. Die «Hands-on»-Studie bietet Unternehmen ein Werkzeug, künstliche Intelligenz anzuwenden und liefert die notwendige Orientierung dazu.

In ihrer Studie zeigen die Initianten, wie sich Ethikprinzipien für Künstliche Intelligenz (KI) in die Praxis einbringen lassen. Im Unterschied zu einer Vielzahl von Initiativen, die ethische Richtlinien für die Gestaltung von KI veröffentlicht haben, werden Lösungen für die praktische Umsetzung dargestellt. Die «AI Ethics Impact Group» zeigt mit dem Beitrag «From principles to practice – an interdisciplinary framework to operationalise AI ethics», wie mit der geschickten Kombination dreier Werkzeuge – einem WKIO-Modell, einem KI-Ethik-Label und einer Risikoklassifizierung – allgemeine ethische Prinzipien messbar und konkret umsetzbar werden. Die Unschärfen und die unterschiedlichen Verständnisse von «Transparenz» und «Gerechtigkeit» waren die grössten Hindernisse dabei. Bis anhin führte dies dazu, dass die nötige Orientierung fehlte und eine wirksame Durchsetzung von KI-Ethik bis anhin schwierig war.

Messbarkeit und Sichtbarkeit

Das sogenannte WKIO-Modell (im Englischen VCIO: Value, Criteria, Indicators, Observables) schlüsselt Werte in Kriterien, Indikatoren und letztlich messbare Observablen auf. In der Studie wird dies für die Werte Transparenz, Gerechtigkeit und Verantwortlichkeit demonstriert. Das WKIO-Modell kann Politikentwickler, Regulierer und Aufsichtsbehörden unterstützen, Anforderungen an KI-Systeme zu konkretisieren und durchzusetzen.

Ethik-Label

Im Rahmen dieser Studie wurde gleichzeitig ein Ethik-Label für KI-Systeme entwickelt. Damit können Unternehmen die ethischen Eigenschaften ihrer Produkte klar und einheitlich kommunizieren. Das Label lehnt sich an das erfolgreiche Energieeffizienzlabel für Elektrogeräte an. Es schafft sowohl für Konsumenten als auch Unternehmen eine bessere Vergleichbarkeit der auf dem Markt verfügbaren Produkte.

«Mit dem Label legen wir die Grundlage für das Setze regulatorischer Grenzen und schaffen gleichzeitig die Voraussetzungen für einen funktionierenden Markt,» erklärt Dr. Sebastian Hallensleben vom VDE.

Das Label verdeutlicht eine abgestufte Kennzeichnung relevanter Eigenschaften eines Systems, bekräftigt Hallensleben. Welche Eigenschaften sich dabei z.B. hinter «Transparenz: Klasse C» oder «Gerechtigkeit: Klasse B» verbergen, lässt sich aufgrund des WKIO-Models eruieren.

«Für KI-entwickelnde Unternehmen bietet der Ansatz eine Möglichkeit, ethische Selbstverpflichtungen auszudifferenzieren und ihren Mitarbeitenden konkrete Orientierung für die Umsetzung der darin enthaltenen Prinzipien zu bieten», sagt Carla Hustedt von der Bertelsmann Stiftung.

Organisationen, die KI nutzen wollen, könnten das Modell auch dafür verwenden, Kriterien für die Beschaffung passender KI-Systeme zu definieren.

Risiko-Matrix

Welche Eigenschaften eines KI-Systems als «ethisch ausreichend» gelten, hängt vom konkreten Anwendungsfall ab. Der Einsatz eines KI-Systems zur Güterverteilung dürfte beispielsweise in der Möbellogistik ethisch weniger heikel sein als in der Belieferung von Krankenhäusern. Mit der «Risiko-Matrix» besteht ein Ansatz zur Klassifizierung des Anwendungskontexts. Während die niedrigste Klasse 0 keine weiteren ethischen Überlegungen erfordert, dürfen für die Klassen 1 bis 3 nur KI-Systeme eingesetzt werden, die das KI-Ethik-Label tragen. Innerhalb dieses Labels müssen bestimmte Mindestanforderungen erfüllt werden. Die Einstufung in Klasse 0, 1, 2 oder 3 berücksichtigt einerseits die Intensität des potenziellen Schadens, z.B. das Ausmass der Verletzung von individuellen Grundrechten, die Anzahl der betroffenen Personen oder mögliche negative Auswirkungen auf die Gesellschaft als Ganzes. Andererseits lässt sich damit die Abhängigkeit der betroffenen Personen bzw. deren Möglichkeit, sich einer KI-Entscheidung zu entziehen, ein anderes System zu wählen oder eine bestehende Entscheidung hinterfragen.

 

From Principles to Practice, An interdisciplinary framework to operationalise AI ethics (kostenlose Studie, PDF)

Vertrauenswürdige KI (Blog)

Die Macht der Intelligenz (Blog)

Wenn Algorithmen für uns entscheiden, Neue Studie der TA-Swiss (Artikel, bulletin.ch)

KI-Edge-Computer für den Extremeinsatz, KI Rugged Computer mit IP67 (Artikel, bulletin.ch)

 

Veranstaltungshinweise

 

Quelle: VDE
Bild: pixabay

 

Kommentare zum Beitrag

Noch keine Kommentare zu diesem Beitrag vorhanden.

Einen Kommentar schreiben


Weitere Beiträge