Big Data: Brauchen wir eine Rechenschaftspflicht für Algorithmen?

Entscheidungen, mitunter auch lebenswichtige, werden zunehmend mit Unterstützung von Algorithmen getroffen. Der rechtliche Regelungsrahmen hinkt ihrem tatsächlichen Einfluss bislang stark hinterher. Daher fordern nicht nur IT-Experten immer lauter, die Entwickler für ihre Software verantwortlich zu machen – etwa mit einer Rechenschaftspflicht für Algorithmen.

Cybergirl


Algorithmen sind alltäglich geworden

Algorithmen werden bald eine ganz neue Rolle in der Gesellschaft spielen, glaubt IT-Sicherheitsexperte Bruce Schneier. „Durch das Internet of Things bekommen sie Augen und Ohren, Hände und Füße“, zitiert ihn das Magazin Wired. „Big Data beseitigt Vorurteile nicht, wir bemänteln sie nur mit Technologie“, sagt die US-Mathematikerin Cathy O’Neil laut Algorithmenethik – einem Blog der Bertelsmann Stiftung. In ihrem Buch Angriff der Algorithmen nennt sie sie sogar „Weapons of Math Destruction“ – ein makabres Wortspiel, dass sich auf den englischen Begriff für Massenvernichtungswaffen bezieht.

Nun muss man nicht gleich den digitalen Teufel an die Wand malen. Zwei Beispiele aus der Praxis zeigen aber einige große Risiken auf. So nahmen 2016 etwa 6000 Menschen aus mehr als 100 Ländern an einem Schönheitswettbewerb teil, deren Gewinner ein Algorithmus kürte. Unter den 44 Siegern war kein einziger mit dunklerer Hautfarbe, berichtete der Spiegel. Für Aufsehen sorgte auch die US-amerikanische Handelskette Target: Ein Kunde beschwerte sich, dass seine minderjährige Tochter von dem Unternehmen Gutscheine für Babysachen zugeschickt bekam. Einige Tage später musste er einräumen: Sie ist schwanger, und er hatte bisher nichts davon gewusst. Algorithmen hatten anhand des Kaufverhaltens auf den möglichen Nachwuchs geschlossen.

Diese kuriosen Fälle haben viel Aufsehen erregt. Tatsächlich sind Algorithmen aber schon in viele Bereiche des Alltagslebens eingedrungen. Wie verbreitet sie bei Entscheidungsfindungen, auch im Personalwesen, mittlerweile sind, zeigt eine Sammlung von Fallbeispielen der oben genannten Stiftung. Dazu zählen Scoring-Verfahren und die Bewerberauswahl. Zahlreiche Unternehmen treffen eine automatisierte Vorauswahl – und lehnen Kandidaten ab, ohne dass ein Mensch die Bewerbung je gesehen hat. 

Schutz ist nötig

Zwei Kernprobleme verschärfen das Dilemma: Algorithmen sind zum einen meist auf große Datenmengen angewiesen – und übernehmen somit auch deren Schwächen wie etwa unterschwellige Vorurteile. Das gilt besonders für selbstlernende Algorithmen, die anhand vieler Fallbeispiele „trainiert“ werden. Zum anderen gelten sie den meisten Menschen als neutral. 

Die Entscheidungsfindung ist mitunter aber nicht mehr nachvollziehbar, mahnt Sicherheitsexperte Schneier: „Nicht einmal Google versteht seine KI (künstliche Intelligenz, Anm. d. Red.) noch.“ Er fordert von Gesetzgebern eine Transparenz-, Aufsichts- und Rechenschaftspflicht. Bundesjustizminister Heiko Maas (SPD) sprach im Juli 2017 von einem „Transparenzgebot für Algorithmen“ und ihrer stärkeren Kontrolle. 

In der neuen EU-Datenschutzgrundverordnung wurde zwar ein Passus zu automatisierten Entscheidungen (ADM, Automated Decision Making) aufgenommen. Seine Auswirkungen hat der Verbraucherzentrale Bundesverband anschaulich und ausführlich in einem Thesenpapier dargestellt. Die dort geregelte Kennzeichnungspflicht garantiere jedoch nicht, dass die Entscheidung rechtsstaatlichen Verfahren genügt oder diskriminierungsfrei ist, schreibt Lorenz Matzat, einer der Gründer der NGO Algorithm Watch, in einem Beitrag für die Bayerische Landeszentrale für neue Medien. „Auch eine Offenlegung von Softwarecodes reicht nicht aus“: Die Systeme könnten so komplex sein, dass ohne die Trainingsdatensätze beispielsweise nicht nachvollzogen werden könne, wie sie funktionieren. 

Suche nach dem goldenen Mittelweg

Die Nachvollziehbarkeit aber ist der springende Punkt. Bis es geeignete Regulierungen oder gar entsprechende Aufsichtsinstitutionen gebe, bleibe man auf das Prinzip der Algorithmic Accountability angewiesen, glaubt Matzat. Der Begriff wurde von dem Journalismusforscher Nicholas Diakopoulos geprägt und bedeutet, verkürzt ausgedrückt, dass Rechenverfahren Rechenschaft abverlangt wird. 

Denkbar wäre beispielsweise ein Audit-System für Softwarecodes und Trainingsdaten. Etwas Ähnliches hat Solon Barocas, Forscher am NYC Lab of Microsoft Research, im Sinn, wie er dem Onlineportal Techcrunch berichtet. Ein Algorithmus könnte nach der Programmierung darauf getestet werden, wie er sich in bestimmten Situationen verhält. Teste man oft genug, könne man systematische Schwachstellen identifizieren und ausmerzen. Solche Prozesse seien unter dem Begriff algorithmic auditing bekannt. Eine andere Option wäre, schon beim Entwickeln von Algorithmen sicherzustellen, dass bestimmte Aspekte wie Fairness oder Methoden, die einer möglichen Diskriminierung entgegenwirken, implementiert werden. 

Ein großes Problem wird dadurch aber kaum gelöst: Große Unternehmen wie Facebook und Google, deren Algorithmen heutzutage das Leben zahlreicher Menschen mitbestimmen, bezeichnen sie als ihr Geschäftsgeheimnis. Auch dagegen regt sich Protest, denn das Argument ist nicht stichhaltig, schreibt die FAZ: „Die Wahrung des Betriebsgeheimnisses stünde Überprüfbarkeit und Rechenschaftspflicht nicht im Weg.“ Die Unternehmen könnten immer noch ein Patent auf ihre Algorithmen anmelden.

Fazit

Dass Algorithmen oftmals als Black Box bezeichnet werden, ist berechtigt. Meist wissen nur die Programmierer – hoffentlich zumindest sie –, wie sie genau aufgebaut sind und funktionieren. Sie offenlegen und prüfen zu lassen, würde zahlreiche juristische Fragen aufwerfen und entsprechendes Know-how erfordern. Das ist jedoch kein Grund, es bleiben zu lassen – gleichgültig, ob es um die Ablehnung einer Bewerbung aufgrund Diskriminierung geht, oder, wie etwa bei selbstfahrenden Autos, um Leben und Tod.

Einen Ausweg aus dem Dilemma könnten künftig möglicherweise einmal die Algorithmen selbst bieten. Am Max-Planck-Institut für Intelligente Systeme wird Grundlagenforschung dazu betrieben, wie Algorithmen den Sinn für Gerechtigkeit erlernen können. Die Forscher wissen: „Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren.“

Autor: David Schahinian, freier Journalist, Frankfurt a. Main/Foto: © kentoh-Fotolia.com