Algorithmen müssen überprüfbar Mensch und Gesellschaft nützen

Stephan Jersch

96. Sitzung der Hamburgischen Bürgerschaft am 10. April 2019 - Drucksache 21/16689 - TOP 49 - Verbraucherschutz bei Vertragsabschlüssen stärken - Mehr Transparenz bei automatischen Bonitätsprüfungen durch Scoring-Algorithmen - Antrag der SPD- und GRÜNEN Fraktion

 

 

 

Rede anschauen

Stephan Jersch DIE LINKE: Herr Präsident, meine Damen und Herren! Um den Kollegen Schmidt zu zitieren, tue Gutes und sprich - der Satz geht dann so - vor der Wahl darüber. So wäre der Satz richtig gewesen. Wieder der 31. De­zember, wieder Januar 2020 und merkwürdigerwei­se auch nur, wenn man sich den Auftrag der Date­nethikkommission anguckt, mit einem kleinen Aus­schnitt dessen, was da wirklich im Auftragskatalog drinsteht.

Liebe Kolleginnen und Kollegen, die Macht der Al­gorithmen, die sich immer weiter verbreiten ... Das sind nicht nur welche, die Verbraucherinnen und Verbraucher betreffen. Sie betreffen auch Bewerbe­rinnen und Bewerber, sie betreffen Beschäftigte, sie
betreffen Patientinnen und Patienten. Und falls es irgendwann noch einmal eine künstliche Intelligenz geben sollte - obwohl sie hier immer herbeigeredet wird, sehe ich sie noch nicht -

(Dorothee Martin SPD: Es gibt sie doch schon längst!)

wäre auch diese als Basis dafür tauglich. Sie haben das Potenzial zur Existenzgefährdung und deswe­gen bedürfen sie eines besonderen Blickes.

Insofern ist es natürlich richtig: Algorithmen werden von Menschen erstellt, sie sind ein Abbild von Ein­schätzungen, von Vorurteilen, sie sind zu einem be­stimmten Zeitpunkt unter bestimmten Rahmenbe­dingungen erstellt worden. Deswegen gilt es in der Tat einen kritischen Blick auf das zu werfen, was an Daten, an Regeln dahinterliegt. Das heißt aber auch, dass wir wesentlich größeren Streich brau­chen als das, was hier im Antrag drinsteht. Die Da­tenbasis ist zu spezifizieren, die Rahmenbedingun­gen sind zu spezifizieren, die sich ändern können und die Daten entsprechend verändern, der Algo­rithmus ist offenzulegen und der Algorithmus ge­hört, und das ist eigentlich essenziell, regelmäßig in einen TÜV eingespeist, um zu prüfen, ob er über­haupt noch zutreffend ist.

(Beifall bei der LINKEN)

Das wäre etwas, was wirklich nachhaltig wirkt und Verbrauchersicherheit genauso wie Sicherheit für Bewerberinnen und Bewerber und Beschäftigte und andere bringen würde. Denn Algorithmen haben das Potenzial zur Diskriminierung. Sie können Ge­sellschaften destabilisieren, wenn man zum Bei­spiel den Handel an der Wertpapierbörse nimmt, wo Algorithmen in der Tat schon zu einer Destabilisierung des Marktes beigetragen haben.

Es wäre eigentlich in Ordnung gewesen, dieses Thema einmal ganzheitlich anzugehen und sich dann durchaus die eine oder andere kritische Frage zu stellen und es nicht zu einem Wahlkampfthema zu machen.

Nichtsdestotrotz sagen wir im Gegensatz zur CDU - es steht ja nichts Falsches in diesem Antrag -, dass wir ihm zustimmen, obwohl er für eine Lösung des Problems völlig unzulänglich ist. Aber da set­zen wir dann einmal auf die Datenethikkommission und die verschiedenen anderen Fachleute, die einen wesentlich umfangreicheren Auftrag haben. - Danke.

(Beifall bei der LINKEN)