Über immer mehr Bereiche in unserem Leben bestimmen Algorithmen. Sie entscheiden, wer einen Kredit erhält, welche Jobs wir bekommen – in den USA werden sogar Gerichtsentscheidungen teilweise von Algorithmen getroffen.
Algorithmen sind, vereinfacht gesagt, Formeln, anhand derer Wenn-Dann-Entscheidungen getroffen werden. Wenn Du auf Instagram fleißig Flip-Beiträge likst, dann zeigt der Algorithmus öfter Flip-Beiträge an. Das ist erstmal nix Schlechtes (im Gegenteil 😉). Gefährlich wird es, wenn Algorithmen ungerechte oder diskriminierende Entscheidungen treffen. Im Extremfall werden schwarze US-Amerikaner:innen von Algorithmen häufiger ins Gefängnis gesteckt als weiße.
74 Prozent der Menschen in der EU finden, dass Algorithmen stärker kontrolliert werden sollten. Das ergab eine repräsentative Umfrage der Bertelsmann Stiftung von 2018.
Was ist der Ansatz von Algorithm Watch?
Algorithm Watch ist ein gemeinnütziges Unternehmen, das die Black Boxes öffnen will. Die Algorithmen, die unseren Alltag bestimmen, sollen für alle transparent werden. Dass Entscheidungen automatisiert werden, findet Algorithm Watch grundsätzlich weder gut noch schlecht. Die 27 Journalist:innen, Wissenschaftler:innen und Informatiker:innen wollen herausfinden, wo Algorithmen Schaden anrichten und Betroffenen helfen.
Dafür sammelt das Team Datenspenden von Nutzer:innen, recherchiert bei Behörden und versucht etwa, den Algorithmus von YouTube oder Instagram nachzubauen. Dabei geht es ihm weniger um die die technischen Details als um die gesellschaftlichen Folgen.
»Niemand weiß, wie viele Menschen eigentlich von Algorithmen benachteiligt werden.« Anna Lena Schiller, Algorithm Watch
Und was heißt das konkret?
Um zu verstehen, wie man Algorithmen transparent macht, hat Flip-Autor Lorenz Jeric im Berliner Büro von Algorithm Watch mit Anna Lena Schiller und Jessica Wulf über zwei Projekte gesprochen. Die beiden sind seit 2020 dabei und gehören damit zu den alteingesessenen Mitarbeiter:innen. In den vergangenen zwei Jahren hat sich das Team mehr als verdoppelt.
1. Datenspenden als Schlüssel für die Schufa-Black-Box Der Algorithmus der Schufa bewertet die Kreditwürdigkeit der Deutschen. Das Unternehmen vergibt Scores für rund 67 Millionen Menschen, die am Ende darüber entscheiden, ob wir eine Wohnung bekommen oder mit einem Mietwagen in den Urlaub fahren können. Wie diese Scores zustande kommen, weiß nur die Schufa selbst. Und die ist nicht daran interessiert, ihre Black Box zu öffnen. Das muss sie auch nicht, denn 2014 wurde ihre Formel vom Bundesgerichtshof zum Geschäftsgeheimnis erklärt.
Dieser Beitrag ist nur für zahlende Mitglieder
Registriere dich jetzt und upgrade dein Konto, um Zugriff auf diesen und alle weiteren Beiträge zu erhalten.