Algor-Ethik gegen digitale Diskriminierung

Was wäre, wenn man Ver­bre­chen ver­hin­dern könn­te, bevor sie gesche­hen? Und was hat das mit Dis­kri­mi­nie­rung und mit unse­rer Ver­ant­wor­tung als Christ:innen zu tun?

Cam­pus­ge­mein­de
Algor-Ethik gegen digi­ta­le Diskriminierung
/

Was wäre, wenn man Ver­bre­chen ver­hin­dern könn­te, bevor sie gesche­hen? In Washing­ton, im Jahr 2054 gibt es die­se Mög­lich­keit. Drei mit hell­se­he­ri­schen Fähig­kei­ten begab­te Men­schen erken­nen im Vor­aus, wenn jemand einen Mord bege­hen möch­te. Dann wird der Betref­fen­de, ohne dass er tat­säch­lich schul­dig gewor­den ist, in Siche­rungs­ver­wah­rung genom­men. So schil­dert es der Scie­ne Fic­tion-Film „Mino­ri­ty Report“. Doch das ist längst kei­ne Scie­ne Fic­ton mehr und man braucht auch kei­ne Hell­se­her, um Ver­bre­chen vor­her­zu­sa­gen. Heut­zu­ta­ge erle­digt das künst­li­che Intel­li­genz mit selbst­ler­nen­den Algorithmen.

Andrea Eden­har­ter forscht als Juris­tin zu die­sem The­ma und erklärt uns, was es damit auf sich hat und wel­che recht­li­chen Pro­ble­me sich dar­aus ergeben.

Chancen und Risiken der Digitalisierung

Wenn wir über die Her­aus­for­de­run­gen nach­den­ken, die die Mensch­heit in den kom­men­den Jah­ren und Jahr­zehn­ten beschäf­ti­gen wer­den, müs­sen wir neben dem Kli­ma­wan­del auf jeden Fall an die Digi­ta­li­sie­rung den­ken. Sie bie­tet einer­seits gro­ße Chan­cen, etwa die Mög­lich­keit, auto­nom agie­ren­de Fahr­zeu­ge ein­zu­set­zen oder immer leis­tungs­fä­hi­ge­re Robo­ter zu nut­zen. Ande­rer­seits sind damit aber auch erheb­li­che Risi­ken ver­bun­den, die unse­re Ver­fas­sung und unse­re Wer­te­ord­nung ins­ge­samt vor gro­ße Her­aus­for­de­run­gen stel­len. Dies gilt beson­ders für den Ein­satz von soge­nann­ter Künst­li­cher Intel­li­genz, kurz KI.

KI unter­schei­det sich deut­lich von her­kömm­li­chen Algo­rith­men, die einem Wenn-Dann-Sche­ma fol­gen und bei denen der Quell­code Auf­schluss dar­über gibt, wie­so wel­che Ent­schei­dung zustan­de kam. [1] Bei der KI hin­ge­gen geht es dar­um, bestimm­te Ent­schei­dungs­struk­tu­ren des Men­schen nach­zu­bil­den, etwa, indem ein Sys­tem so gebaut und pro­gram­miert wird, dass es eigen­stän­dig han­deln kann, etwa Bewer­tun­gen abge­ben oder Ent­schei­dun­gen treffen.

So kön­nen durch KI anhand von gesam­mel­ten Daten Per­so­nen­grup­pen gebil­det wer­den, die sich in Bezug auf bestimm­te Merk­ma­le ähn­lich sind. Wen­det man die KI auf sehr gro­ße Daten­men­gen an, kann das Sys­tem Kate­go­rien fin­den, die einem Men­schen über­haupt nicht auf­ge­fal­len wären. Intel­li­gen­te Sys­te­me könn­ten die­se für uns Men­schen gar nicht erkenn­ba­re Kate­go­rien dann nut­zen und selb­stän­dig Men­schen mit bestimm­ten rele­van­ten Eigen­schaf­ten in sol­che Kate­go­rien ein­sor­tie­ren. [2]

So könn­te ein KI-Sys­tem auf Grund­la­ge der gesam­mel­ten und aus­ge­wer­te­ten Daten zum Bei­spiel zu der Ein­schät­zung gelan­gen, dass Per­so­nen, die gewöhn­lich nach­mit­tags in einem Super­markt X ein­kau­fen gehen, die zugleich im Stadt­vier­tel Y woh­nen und die außer­dem bestimm­te Musik­vi­de­os Z anse­hen, mit erhöh­ter Wahr­schein­lich­keit Brand­stif­tungs­de­lik­te bege­hen. War­um das Sys­tem zu einer der­ar­ti­gen Ein­schät­zung gelangt, ist für uns Men­schen nicht mehr nach­voll­zieh­bar, weil sein Wis­sen nicht in Form von Algo­rith­men besteht, son­dern weil die KI eigen­stän­dig Kri­te­ri­en ent­wi­ckelt und ent­spre­chend gewich­tet hat.

Was will die Polizei mit KI?

Anschei­nend kann also mit Hil­fe von KI-Sys­te­men die Gefähr­lich­keit von Men­schen beur­teilt wer­den. Dann liegt es nahe, dass die Poli­zei ger­ne dar­auf zurück­grei­fen möch­te. Ein Anwen­dungs­be­reich für sol­che selbst­ler­nen­de Sys­te­me ist daher das so genann­te Pre­dic­ti­ve Poli­cing. Dabei geht es dar­um, künf­ti­ges Ver­hal­ten vor­her­zu­sa­gen, um es ver­hin­dern zu kön­nen. [3] Auto­no­me Algo­rith­men tref­fen Vor­her­sa­gen, in Bezug auf künf­ti­ge Straf­ta­ten, Straf­tä­ter oder Tat­or­te. Durch die Aus­wer­tung gro­ßer Daten­men­gen wer­den Risi­ko­pro­fi­le für ein­zel­ne Per­so­nen oder für Per­so­nen­grup­pen erstellt. Außer­dem kann die Wahr­schein­lich­keit berech­net wer­den, ob eine Per­son rück­fäl­lig wird. [4] In Deutsch­land gibt es Pre­dic­ti­ve Poli­cing bis­lang vor allem in Form eng begrenz­ter Pilot­pro­jek­te und es wer­den ange­sichts des in Deutsch­land sehr stren­gen Daten­schutz­rechts kei­ne per­so­nen­be­zo­ge­nen Daten gesam­melt. In Mün­chen etwa aber wird Pre­dic­ti­ve Poli­cing schon im Regel­be­trieb ein­ge­setzt. In den USA ist Pre­dic­ti­ve Poli­cing in vie­len Bun­des­staa­ten mitt­ler­wei­le Stan­dard, d.h. Poli­zei­be­rich­te, Grund- und Han­dels­re­gis­ter, Web-Suchen, sozia­le Netz­wer­ke wie Face­book, Twit­ter oder Insta­gram wer­den gezielt mit KI-Sys­te­men aus­ge­wer­tet, um die Gefähr­lich­keit von Per­so­nen oder Ein­satz­or­ten ein­zu­schät­zen. [5]

Diskriminierung durch Algorithmen

Was hat Pre­dic­ti­ve Poli­cing nun mit Dis­kri­mi­nie­rung zu tun? Ist es nicht so, dass KI-Sys­te­me völ­lig wert­neu­tral ent­schei­den? Mit­nich­ten! Dies ist selbst bei her­kömm­li­chen Algo­rith­men nicht der Fall, da die­se von einem Men­schen pro­gram­miert wer­den, der selbst — bewusst oder unbe­wusst — bestimm­te Vor­ur­tei­le hat. Noch gra­vie­ren­der ist das Pro­blem jedoch bei KI, wo selbst dem Pro­gram­mie­rer oder der Pro­gram­mie­re­rin nicht mehr klar ist, auf­grund wel­cher Kri­te­ri­en das Sys­tem zu sei­ner Ein­schät­zung kommt. Daher kann es leicht pas­sie­ren, dass ein KI-Sys­tem an Kri­te­ri­en anknüpft, die ver­fas­sungs­recht­lich nicht als Grund für eine Dis­kri­mi­nie­rung her­an­ge­zo­gen wer­den dür­fen. Für Deutsch­land regelt Art. 3 III GG Fol­gen­des: „Nie­mand darf wegen sei­nes Geschlechts, sei­ner Abstam­mung, sei­ner Ras­se, sei­ner Spra­che, sei­ner Hei­mat und Her­kunft, sei­nes Glau­bens, sei­ner reli­giö­sen oder poli­ti­schen Anschau­un­gen benach­tei­ligt oder bevor­zugt wer­den. Nie­mand darf wegen sei­ner Behin­de­rung benach­tei­ligt wer­den.“ Außer­dem folgt aus dem all­ge­mei­nen Gleich­heits­satz des Art. 3 I GG ein Ver­bot der Dis­kri­mi­nie­rung etwa auf­grund des Alters, der Haut­far­be, der gene­ti­schen Merk­ma­le oder der sexu­el­len Orientierung.

Wenn es für Men­schen nicht mehr erkenn­bar ist, dass ein KI-Sys­tem bei sei­ner Ent­schei­dungs­fin­dung sol­che pro­ble­ma­ti­schen Kri­te­ri­en anwen­det, dann dro­hen die ver­fas­sungs­recht­li­chen Dis­kri­mi­nie­rungs­ver­bo­te ins Lee­re zu lau­fen, Auch eine gericht­li­che Sank­tio­nie­rung wird unmög­lich. So könn­te ein Sys­tem — ohne dass dies klar wird — eine Per­son etwa allein des­halb als beson­ders gefähr­lich ein­stu­fen, weil die­se Per­son regel­mä­ßig Kamil­len­tee kon­su­miert, blaue Socken trägt und homo­se­xu­ell ist. Es wür­de an ein ver­fas­sungs­recht­lich ver­bo­te­nes Dif­fe­ren­zie­rungs­merk­mal ange­knüpft, ohne dass dies vor Gericht gel­tend gemacht wer­den könn­te. Ergibt die Ein­schät­zung des KI-Sys­tems, dass in einer Gegend, in der vie­le Peop­le of Color leben, in Kür­ze mit gro­ßer Wahr­schein­lich­keit ein Ver­bre­chen began­gen wird, liegt es auf der Hand, dass die Poli­zei mit ent­spre­chen­der Här­te gegen sämt­li­che auch nur irgend­wie auf­fäl­lig erschei­nen­de Men­schen vor­ge­hen wird, und mögen die­se noch so fried­lich sein. Dass es dabei leicht zu Poli­zei­ge­walt gegen bestimm­te Per­so­nen­grup­pen kom­men kann, wie etwa im Fall des ermor­de­ten Afro­ame­ri­ka­ners Geor­ge Floyd, ist mehr als nur möglich.

Daher soll­ten wir wach­sam sein, wenn in Poli­tik und Medi­en über die Vor­tei­le von Digi­ta­li­sie­rung und Künst­li­cher Intel­li­genz gespro­chen wird. Neben der Gefahr für den Daten­schutz ist vor allem zu beach­ten, dass sol­che Sys­te­me leicht zu Dis­kri­mi­nie­run­gen füh­ren kön­nen, die in der Regel unent­deckt blei­ben. Wenn wir uns für mehr Gerech­tig­keit ein­set­zen wol­len, müs­sen wir uns des­sen bewusst sein, dass bestehen­de Dis­kri­mi­nie­run­gen durch die Digi­ta­li­sie­rung sogar noch ver­tieft wer­den kön­nen und dass wir über­all dort auf­merk­sam sein soll­ten, wo staat­li­che oder pri­va­te Stel­len ver­su­chen, die Ent­schei­dungs­be­fug­nis auf KI zu übertragen.

Plädoyer für eine Algor-Ethik

Wir fra­gen uns jetzt viel­leicht, was das mit unse­rem Glau­ben und mit der Ver­ant­wor­tung von Christ:innen zu tun hat. Eine gan­ze Men­ge, wie unter ande­rem Papst Fran­zis­kus deut­lich macht, der auf einem gro­ßen Kon­gress, im ver­gan­ge­nen Jahr kurz vor Aus­bruch der Coro­na-Pan­de­mie im Vati­kan zu den Fra­gen und Pro­ble­men Stel­lung genom­men hat, die künst­li­che Intel­li­genz und digi­ta­le Algo­rith­men mit sich bringen.

Der Papst for­der­te bei die­ser Gele­gen­heit eine »Algor-Ethik«, von der die Ent­wick­lung der Algo­rith­men beglei­tet sein müs­se. Mit den betei­lig­ten Wis­sen­schaft­lern auf dem Kon­gress war er sich einig, dass die­se neu­en Tech­no­lo­gien ein „wirk­li­ches Zei­chen der Zeit“ sei­en, mit dem Christ:innen sich aus­ein­an­der­set­zen müssen.

Ergeb­nis des Kon­gres­ses war der »Rome Call for AI Ethics«, eine Erklä­rung, in der sechs Prin­zi­pi­en für die Ent­wick­lung künst­li­cher Intel­li­genz gefor­dert wer­den: Trans­pa­renz, Inklu­si­on, Ver­ant­wor­tung, Unvor­ein­ge­nom­men­heit, Ver­läss­lich­keit, Sicher­heit und Pri­vat­sphä­re. Wir sehen also, dass wir als Christ:innen mit unse­ren Wer­ten und unse­rem Men­schen­bild, aber auch der ent­spre­chen­den genau­en Sach­kennt­nis zu einer huma­nen Ent­wick­lung von Tech­no­lo­gien bei­tra­gen können.

Zum Weiterlesen

[1] S. dazu Stee­ge, MMR 2019, 715, 716.
[2] Stiemer­ling CR 2015, 762, 764.
[3] Aus­führ­lich dazu Rade­ma­cher, AöR 142 (2017), 366, 368.
[4] Stee­ge, MMR 2019, 715, 717.
[5] Rade­ma­cher, AöR 142 (2017), 366, 370.

Schreibe einen Kommentar