DUB Digital Think Tank
Künstliche Intelligenz
9/12
© Getty Images/4X-image

Pass auf, was du sagst

Text: Miriam Rönnau

Die Absichten waren ja gut: 1971 setzte Ford den ersten Crashtest-Dummy ein. Der Stereotyp eines Mannes, 1,75 Meter groß und 75 Kilo schwer. Er sollte dabei helfen, Szenarien im Straßenverkehr zu testen und Menschenleben zu retten. Und das tat er auch. Zumindest Männerleben. Die Verletzungswahrscheinlichkeit von Frauen bei Autounfällen war damals in den USA um 47 Prozent höher als bei Männern. Der Grund: Frauen sind meist kleiner und zierlicher als der eingesetzte Crashtest-Dummy. Entsprechend unpassend waren die getesteten Szenarien. Erst seit 2011 müssen auch weibliche Dummys zum Einsatz kommen. Das zeigt: „Menschengruppen auszuschließen geschieht schneller, als man glaubt“, sagt Alexander Britz, Head of Digital Business und Artificial Intelligence bei Microsoft Deutschland.

Unbewusste Diskriminierung vermeiden

Davon können auch Softwareentwickler ein Lied singen, wie die folgenden Beispiele zeigen:

  •  2015 stellte Google eine Foto-App mit Gesichtserkennung vor. Der US-Programmierer Jacky Alciné machte davon Gebrauch – und war schockiert: Bei mehreren Bildern dunkelhäutiger Menschen schlug die App das Schlagwort „Gorilla“ vor. Offenbar hatte man bei Google bei der Auswahl der Datengrundlage nicht beachtet, dass nicht alle Menschen gleich aussehen.
  •  2016 entwickelte Microsoft den Chatbot Tay, der – kaum online – begann, sich sexistisch und rassistisch zu äußern, da Menschen mit ihm auf diese Art und Weise kommunizierten. Die Folge: Microsoft nahm Tay innerhalb weniger Stunden offline.

Spätestens diese Beispiele zeigen: Bei der Entwicklung von Künstlicher Intelligenz (KI) ist die Qualität des verfügbaren Datensatzes essenziell. So muss sichergestellt sein, dass nicht nur eine ausreichende, sondern auch diverse Menge an Daten verfügbar ist, um (unbewusste) Diskriminierung zu vermeiden. „Es ist wichtig, grundsätzliche Prinzipien wie Gerechtigkeit, Inklusion, Zuverlässigkeit, Sicherheit, Transparenz, Datenschutz und Verantwortlichkeit von Beginn an mitzudenken“, sagt Britz. „Wir haben aus negativen Beispielen wie dem Chatbot Tay gelernt. Heute gibt es zahlreiche positive Beispiele für den Einsatz von KI. Die von einem Microsoft-Mitarbeiter entwickelte App ,Seeing AI‘ hilft beispielsweise Menschen mit visuellen Einschränkungen dabei, sich in ihrer Umgebung zu orientieren.“

Abseits der weitverbreiteten Science-Fiction-Vorstellungen von einer KI, die sich am Ende gegen ihre Macher wendet, stellt auch Chinas Social-Scoring-System ein Schreckgespenst unter den KI-Anwen­dungen dar. Es demonstriert, welche gesellschaftlichen Auswirkungen die Technologie haben kann: Per Gesichtserkennung identifizieren Kameras Bürger, machen Bilder, wenn sie etwa bei Rot über die Ampel gehen. Die Behörden ziehen ihnen Sozialpunkte ab und bestrafen sie, indem die „Erwischten“ beispielsweise nicht mehr per Flugzeug reisen dürfen.

Ethische standards setzen

„Es heißt oft, dass wir in Deutschland strenger reguliert haben und deshalb langsamer vorankommen“, sagt Ashok Kaul, Head of Analytics bei Roland Berger. Doch dafür gebe es einen Grund: „Deutschland hat strenger reguliert, weil sich die Menschen das wünschen.“ So habe etwa die Datenschutz-Grundverordnung zu mehr Akzeptanz von KI geführt.

2018 hat die Bundesregierung die Datenethikkommission eingesetzt, die ethische Maßstäbe und Leitlinien definieren sollte. Die Experten sehen etwa Handlungsbedarf bei „ethisch nicht vertretbaren Datennutzungen“. Dazu zählen die Totalüberwachung, eine die Integrität der Persönlichkeit verletzende Profilbildung sowie viele Formen des Handels mit personenbezogenen Daten.

Anfang 2019 wurde der Ethikbeirat HR Tech gegründet. „Besonders im Bereich Human Resources gibt es hochsensible Daten“, sagt Thomas Belker, Mitglied des Beirats und CEO von PRECIRE. „Mit unserer Arbeit wollen wir dem missbräuchlichem Einsatz von KI entgegenwirken und Standards schaffen. So haben wir Richtlinien erarbeitet, die sich mit HR-relevanten Themen wie Datenqualität und Diskriminierung oder der Zweckbindung und Datenminimierung beschäftigen“, so Belker.

Und Britz betont: „Die Verantwortung für den Einsatz von KI liegt immer beim Menschen.“ Daher sei es wichtig, Technologien transparent einzusetzen – mit Einverständnis der beteiligten Personen und im Rahmen von definierten Richtlinien. „Unternehmen müssen sich um Ethik kümmern: Welche Systeme sie entwickeln wollen, wie sie diese einsetzen und wie sie damit verantwortungsvoll umgehen. Es bedeutet, dass wir gesetzliche Regulierung und kluge Regelungen brauchen, die Innovation nicht totregulieren, sondern es ermöglichen, gesellschaftliche und wirtschaftliche Chancen zu nutzen.“

Selbst Thomas Belker, dessen Software PRECIRE die Äußerungen von Bewerbern im Recruiting-Prozess analysiert und daraus Schlüsse über deren kommunikative Wirkungsweise zieht, sagt: „Unsere Software ermöglicht im Prozess objektive Betrachtungsweisen. Sie sollte aber nie alleiniges Entscheidungskriterium sein. Am Ende hält immer noch der Mensch die Fäden in der Hand – und das ist gut so.“