Beispiele aus den letzten Jahren sagen etwas anderes. So tauchten etwa ein Recruiting Tool auf, welches Frauen aussortierte [1] oder Bilderkennungssoftware, die sich rassistisch gegenüber Afro-Amerikaner*innen verhielt [2]. Und vermutlich ist dies nur die Spitze des Eisbergs. Neben Herkunft und Geschlecht können Faktoren wie Alter, Religion, sozio-ökonomischer Hintergrund, sexuelle Orientierung und vieles mehr eine Rolle spielen. Die Stereotypen und Vorurteile sind tief in den Datenbergen, welche wir in der digitalen Gesellschaft hinterlassen, verankert. Es konnte gezeigt werden, dass Stereotypen aus dem 18. Jahrhundert in heutigen Sprachmodellen noch immer vorhanden sind [3]. So beispielsweise werden dort Charaktereigenschaften wie Gefühl, Empfinden und Verstehen den Frauen zugeordnet, und Eigenschaften wie Vernunft, Denken und Urteilen den Männern. Eine denkbar schlechte Voraussetzung für ein Computerprogramm, faire Entscheidungen zu treffen!
Während Menschen sich, idealerweise, selber reflektieren können und auch versuchen können, gegen ihren sogenannten unconscious bias (also unbewusste Voreingenommenheit) anzukämpfen, reflektieren sich Maschinen in keinerlei Art und Weise. Vorurteile, welche sie einmal gelernt haben, können dadurch durch wiederholte Anwendung verstärkt anstatt abgebaut werden. Doch wie können wir einer Maschine beibringen, sich zu reflektieren?
Der Schlüssel zu diesem Problem liegt in der Zusammenarbeit zwischen Menschen und Maschinen. Wenn Computer den Menschen als Entscheidungsträger ersetzen sollen, ist die fehlende Reflexion ein gravierender Mangel. Andererseits können die Informationen, welches ein solches System automatisiert beschaffen und analysieren kann, einer menschlichen Entscheidungsträger*in eine wertvolle Hilfestellung sein, und der Mensch kann diese Informationen vor der Entscheidung nochmals reflektieren und gegebenenfalls hinterfragen.
Diese Arbeitsteilung zwischen Computern und Menschen nennen wir deswegen augmented intelligence. Menschen profitieren von den Fähigkeiten des Computers, und lassen die Maschine das tun, was sie am besten kann. Und die Maschine überlässt die Reflexion dem Menschen.
Doch was bedeutet das jetzt für die Entwicklung oder den Einsatz von solcher Software?
Ein wichtiger Punkt ist hier die Awareness; also das Bewusstsein, dass solche Tools unfair sein können und dass die automatisierten Entscheidungen reflektiert werden müssen. Es sollten daher in solchen Projekten die richtigen Fragen gestellt werden, zum Beispiel die folgenden:
Durch die Berücksichtigung dieser potentiellen Diskriminierungen in Projekten und dem laufenden Betrieb solcher Anwendungen können die Synergien zwischen Menschen und Maschinen vollumfänglich ausgeschöpft werden. Damit wird ein wichtiger Beitrag zu einer fairen und inklusiven digitalen Gesellschaft geleistet.
mascha.kurpicz@bfh.ch
Twitter @SocietyData