Sensible Daten: Das solltest du wissen

Stand:

Sensible Daten sind persönliche Informationen über dich. Algorithmen, die mit sensiblen Daten arbeiten, unterliegen bislang keinem ausreichenden Kontrollsytem. Das muss sich ändern. 

Auf einen Blick

  • Sensible Daten sind persönliche Informationen über dich.
  • Du hast das Recht darüber, zu entscheiden, was mit deinen sensiblen Daten passiert.
  • Algorithmen, die mit sensiblen Daten arbeiten, unterliegen bislang keinem ausreichenden Kontrollsytem. Das muss sich ändern. 
Ein Mann kniet ein einem Serverraum vor einem Schrank und liest Daten aus
Off

Sensible Daten – was ist das?

Sensible Daten sind sehr persönliche Informationen über dich. Dazu gehören zum Beispiel Daten über deinen Gesundheitszustand, deine sexuelle Orientierung, deine Herkunft oder deine religiöse Überzeugung. Deine politische Meinung und die Zugehörigkeit zu einer Gewerkschaft, zum Beispiel, gehören auch dazu. Außerdem zählen zu den sensiblen Daten auch genetische oder biometrische Informationen. Biometrische Daten sind körperliche Merkmale, mit denen du eindeutig identifiziert werden kannst, wie zum Beispiel dein Fingerabdruck, deine Stimme oder die Augen-Iris. 

Wir alle haben verschiedene Grundrechte, darunter auch das „Recht auf informationelle Selbstbestimmung“. Zugegeben – das klingt etwas kompliziert. Im Kern ist es aber eigentlich ganz einfach: Das Recht auf informationelle Selbstbestimmung gibt dir das Recht, zu bestimmen, wer wie viel private Informationen über dich erhält. Deshalb muss eine Behörde oder eine Firma, die sensible Daten von dir erhebt, sehr hohe Auflagen bei der Verarbeitung und der Speicherung erfüllen. So will es die Datenschutz-Grundverordnung (DSGVO).

Algorithmen werten sensible Daten aus

Algorithmen sind in unserem Alltag und unserem gesellschaftlichen Zusammenleben nicht mehr wegzudenken. Sie erklären uns, wo wir langfahren sollen. Sie sagen voraus, wer einen Herzinfarkt bekommt, sie suchen Partnerinnen und Partner für uns aus, zeichnen Comics und komponieren Musik. Das bedeutet: Nicht immer, aber immer öfter analysieren und verwenden Algorithmen sensible Daten. Zum Beispiel im Finanzbereich oder im Gesundheitswesen. 

Scan eines Fingerabdrucks auf einem Bildschirm
Foto: flyparade/iStock

Automatisierte Entscheidungssysteme

Algorithmen sortieren und ordnen nicht nur, sie entscheiden. Zum Teil, ohne dass Menschen in den Entscheidungsprozess eingreifen. Das nennt man automatisierte Entscheidung. Wenn Algorithmen entscheiden, beeinflusst das unser Leben. Ganz unmittelbar. Wenn ein großer Onlinehändler dir ein unpassendes Buch oder Kleid empfiehlt, dann hält sich die Auswirkung auf dein Leben in Grenzen. Aber Algorithmen entscheiden noch viel mehr. Sie verfügen darüber, ob du einen Kredit bekommst. Sie entscheiden mit, ob du als tatverdächtig giltst. Sie bestimmen, wie teuer deine Versicherung wird. Am Universitätskrankhaus in Stanford (U.S.A.) war ein Algorithmus damit betraut, die Reihenfolge der Corona-Impfungen für das Klinikpersonal festzulegen. Das Ergebnis: ein Debakel

Algorithmen als Blackbox

Wie Algorithmen funktionieren und entscheiden, ist für uns nicht immer nachvollziehbar. Zum einen, weil es – je nach eingesetzter Technik – nicht möglich ist. Das ist zum Beispiel beim Deep Learning der Fall. Bei diesem Verfahren nutzt der Computer neuronale Netze, um Datensätze zu analysieren und selbstständig zu lernen. Zwischen den Informationen, die der Mensch der Maschine „füttert“ und dem Output, den der Computer uns liefert, liegt ein Prozess, den der Mensch nicht kennt. Beim Deep Learning wissen wir nicht, wie der Computer lernt und wie er zu seinem Ergebnis kommt. Deshalb gleichen manche algorithmenbasierte Prozesse einer Blackbox. 

Algorithmen als Geschäftsgeheimnis

Es gibt noch einen weiteren Grund, warum wir oft nicht wissen, wie Algorithmen arbeiten: Sie fallen in vielen Fällen unter das Geschäftsgeheimnis. Das bedeutet, dass die Funktionsweise eines bestimmten Algorithmus für Außenstehende prinzipiell nachvollziehbar wäre. Aber weil er durch das Geschäftsgeheimnis besonderen geschützt ist, können Dritte keine Einsicht in den Code nehmen. Ein Beispiel: Du suchst in einem Vergleichsportal nach günstigen Urlaubsangeboten und bekommst eine Trefferliste. Bei genauerem Hinsehen stellst du fest, dass das günstigste Angebot gar nicht an erster Stelle steht. Wie die Ergebnisliste zustande kommt, erfährst du nicht – es fällt unter das Geschäftsgeheimnis. Genauso wie der Algorithmus, der online über deinen Kreditantrag entscheidet. Oder der Algorithmus, der den Monatsbeitrag für deine Versicherung berechnet.
 

Sensible Daten: Ein Programmierer sitzt vor mehreren Bildschirmen
Foto: Ross Helen/iStock

 

Algorithmen machen ihr eigenes Ding

Bei automatisierten Entscheidungen passiert etwas mit unseren Daten, aber wir wissen nicht was und warum. Auch staatliche Stellen haben zum aktuellen Zeitpunkt keine Möglichkeit, Algorithmen einzusehen und zu kontrollieren. Das kann eigentlich nicht sein, finden viele. Wir als Verbraucherzentralen auch. Besonders wenn es um sensible Daten geht. Denn eines wissen wir sicher: Algorithmen sind nicht objektiv oder wissenschaftlich. Sie können genauso fehlerhaft oder diskriminierend sein wie die Menschen, die sie gebaut und mit Daten versorgt haben. 

Ein Kontrollsystem muss her!

Die Verbraucherzentralen setzen sich dafür ein, dass Systeme, die auf der Basis von Algorithmen Entscheidungen treffen, viel stärker kontrolliert werden.  Besonders streng muss die Kontrolle für Systeme sein, die mit sensiblen Daten arbeiten. Denn schließlich nehmen wir als Einzelne, aber auch als Gesellschaft Schaden, wenn Algorithmen gegen geltendes Gesetz wie zum Beispiel das allgemeine Gleichbehandlungsgesetz verstoßen. Deshalb fordern wir ein mehrstufiges Kontrollsystem auf Bundesebene. Und wir möchten auch, dass Unternehmen verpflichtet werden, Verbraucherinnen und Verbrauchern Auskunft darüber zu erteilen, wie risikobehaftete Entscheidungen zustande kommen.

Auch der Bundesrat fordert mehr Schutz

Mit dem Ruf nach mehr Kontrolle stehen wir nicht allein. Auch der Bundesrat appellierte im Mai 2020 mit einer mehrheitlich gefassten Entscheidung an die Bundesregierung, die geplanten europäischen Leitlinien für eine vertrauenswürdige künstliche Intelligenz so schnell wie möglich umzusetzen.  Die Länderkammer setzte sich außerdem dafür ein, dass „grundrechtssensible Algorithmen“ besonders kontrolliert werden. Dazu zählen zum Beispiel Algorithmen, die Gesichtserkennung ermöglichen.