1. Startseite
  2. Rhein-Main

"Es gibt eine Gier nach Daten"

Erstellt: Aktualisiert:

Von: Martín Steinhagen

Kommentare

Sarah Brayne lehrt Soziologie an der University of Texas in Austin.
Sarah Brayne lehrt Soziologie an der University of Texas in Austin. © privat

Die Soziologin Sarah Brayne spricht im Interview über Chancen und Risiken der US-Polizei-Software Palantir. Sie sagt: "Die Software ermöglicht es, eine große Anzahl von Menschen systematisch und gleichzeitig zu überwachen."

Unter dem Namen „Hessendata“ wird seit 2017 eine Analyse-Software des US-amerikanischen Unternehmens Palantir in Hessen eingesetzt. Sie soll die hessische Polizei bei der Bekämpfung von Terrorismus und schwerer Kriminalität unterstützen. Derzeit klärt ein Untersuchungsausschuss, ob das Innenministerium bei der Anschaffung korrekt gehandelt hat.

Bei der Polizei in Los Angeles ist unter anderem Software der Firma Palantir im Einsatz. Die Soziologin Sarah Brayne hat in der kalifornischen Metropole, die als Vorreiter im Einsatz von Big-Data-Software gilt, zweieinhalb Jahre lang erforscht, wie die Software die Arbeit der Behörde verändert.

Frau Brayne, Sie haben zweieinhalb Jahre lang vor Ort erforscht, wie die Polizei von Los Angeles Big-Data-Software einsetzt. Was kann Palantir Gotham überhaupt?
Palantir bietet eine Plattform, die bisher uneinheitliche Datensätze zusammenführt und strukturiert. Diese Daten können alles Mögliche sein – von Fotos über Audiodateien bis hin zu Polizeiberichten oder Akten zu einzelnen Personen. Die Ermittler können dann Verbindungen zwischen ihnen herstellen und weitere Informationen hinzuzufügen. Palantir stellt im Wesentlichen zwei Werkzeuge zur Verfügung, eine Infrastruktur für die Integration von Daten und eine für deren Analyse und Visualisierung. Zum Beispiel: Polizisten befragen jemanden, und dann taucht eine andere Person auf. Sie erfahren, dass es der Bruder des Verdächtigen ist. Diese Information könnte dann in Palantir als Verbindung zwischen den beiden hinzugefügt und im Netzwerk des Verdächtigen angezeigt werden. Die Polizei in Los Angeles verwendet aber auch eine Vielzahl anderer Software.

Welchen Einfluss hat diese neue Möglichkeit, Daten auf diese Weise zu verbinden, auf die Arbeitsweise der Beamten?
Die Ermittler stoßen bei ihrer täglichen Arbeit ja individuell auf neue Informationen. Palantir erlaubt es, diese Informationen sofort anderen zugänglich zu machen. Das Wissen steckt nicht mehr nur im Gehirn eines Polizeibeamten oder in einer Papierakte. Andere können zudem weitere Informationen damit verbinden – Telefonnummern, Orte, persönliche Kontakte.

Was ist der Hauptvorteil, den Palantir der Polizei bieten soll?
Verbindungen herstellen, die man nicht gesehen hätte und ein vollständigeres Bild zeichnen, damit werben sie. Die Software soll auch die Effizienz steigern. Wenn es einen Ermittler gibt, der an einem Verdächtigen interessiert ist, könnte er seine ganze Zeit damit verbringen, dieser Person zu folgen, oder er könnte zum Beispiel einen Alarm in der Software einrichten. Wenn ein Kennzeichenleser ein bestimmtes Auto-Kennzeichen erfasst, sendet das Programm eine Benachrichtigung. Dies ermöglicht eine breitere, passive Überwachung. Die Software ermöglicht es, eine beispiellos große Anzahl von Menschen systematisch und gleichzeitig zu überwachen.

Sie sprechen das Thema Überwachung an: Welche Risiken sind mit diesem neuen Ansatz verbunden?
Einige der gleichen Risiken, die immer auftreten, wenn Informationen aus dem Zusammenhang gerissen werden. Wenn Sie direkt hören und sehen, wie jemand einen Satz sagt, können Sie zum Beispiel verstehen, was ironisch gemeint ist. Das ist vielleicht nicht mehr so, wenn sie den Satz nur lesen. Wenn Sie all diese verschiedenen Arten von Daten dekontextualisieren, können Sie etwa eine bestimmte und sehr überzeugende Geschichte davon erzählen, warum eine Person zu bestimmten Zeiten mit dieser anderen Person an all diesen Orten war. Das könnte die richtige oder die falsche Geschichte sein. Aber weil bei der Nutzung dieser Plattformen Geheimhaltung gilt, hat derjenige, der ins Visier genommen wird, nicht die Fähigkeit oder Möglichkeit, das in Frage zu stellen. Das Risiko besteht darin, dass diese Software sehr nützlich dafür sein kann, jemanden zu belasten, aber Beschuldigte nicht den gleichen Zugang dazu haben.

Werden bestimmte Personengruppen eher in diesen erweiterten Blick polizeilicher Überwachung einbezogen als andere?
Ja, die Chancen, in die Datenbank aufgenommen zu werden, sind nicht gleich verteilt. Wenn Sie in einer bestimmten Gegend wohnen, ist es wahrscheinlicher, dass Sie von der Polizei angehalten werden, oder wenn Sie Familienmitglieder haben, die wegen einer Straftat verurteilt wurden, werden Sie eher zu „Beifang der Datenerhebung“. Es ist ähnlich wie bei sozialen Netzwerken: Selbst wenn Sie sich dafür entscheiden, nicht auf Facebook zu sein, wenn Ihre Frau ein Foto von Ihnen veröffentlicht, werden Ihre Daten trotzdem gesammelt, obwohl Sie dem nie zugestimmt haben.

Welche Datenquellen, die in Palantir integriert werden können, bergen ein besonders hohes Risiko, Menschen in die Datenbank zu bringen, die zuvor etwa noch nie verurteilt worden sind?
Die meisten Daten, die die Polizei in Los Angeles aufnimmt, wurden von den Strafverfolgungsbehörden gesammelt. Es werden aber auch externe Daten gesammelt. Die Quellen, auf die man hier besonders achten sollte, sind private Datenhändler, die Informationen über Personen, wie Kreditwürdigkeit, Konsumgewohnheiten und so weiter sammeln und der Polizei zugänglich machen. Wenn Sie all das zusammenfassen und mit den Daten der Strafverfolgungsbehörden verknüpfen, ermöglicht dies einen beispiellosen Einblick in das Leben einer Person. Die Polizei in Los Angeles setzt zum Beispiel auch auf automatische Kennzeichenleser: Um ein Datenpunkt im System zu werden, muss man also nur in der Öffentlichkeit Auto fahren.

Sie schreiben, alltägliche Aktivitäten können einen plötzlich verdächtig machen, wenn sie in einen neuen Kontext gestellt werden. Wie meinen Sie das?
Wir hinterlassen immer wieder digitale Spuren in unserem Alltag. Jedes Mal, wenn wir beispielsweise an einem dieser Kennzeichenleser vorbeifahren, hinterlassen wir eine digitale Spur. Einmal in einer Datenbank, können diese auch viel später und immer wieder befragt werden. Die Strafverfolgungsbehörden können zum Beispiel Kennzeichen-Daten rückwirkend durchsuchen und Personen, Fahrzeuge, Zeiten und Orte identifizieren, anstatt erst dann Informationen über jemanden zu sammeln, wenn diese Person unter Verdacht steht. In der Ära der Datenerfassung heißt das, dass Informationen routinemäßig und auf Vorrat gesammelt werden. In diesem Sinne führen Menschen ein belastendes Leben, alltägliche Handlungen, werden erfasst und können im Nachhinein als Beweismittel herangezogen werden.

Oft heißt es, wenn man nichts zu verbergen hat, hat man nichts zu befürchten. Warum sollte es mich interessieren, ob ich als unschuldiger Bürger Teil dieses Datensatzes bin?
Ja, das ist ein sehr verbreitetes Argument. Aber es beruht auf der Annahme, dass der Staat unfehlbar ist. Es beruht auf der Annahme, dass die Strafverfolgungsbehörden Informationen fehlerfrei eingeben und interpretieren. Das kann man nur glauben, wenn man glaubt, dass die Polizei keine Fehler macht. Wir wissen aber, dass jeder Fehler macht, und die Fehler von Menschen folgen Mustern. Ein Beispiel: Genau wie bei den DNA-Datenbanken muss man erst einmal in der Datenbank sein, um zu einem „Treffer“ zu werden. In den USA werden unschuldige schwarze Bürger siebenmal häufiger zu Unrecht wegen Mordes verurteilt als weiße. Möglicherweise ist einer der Faktoren, dass ihre Informationen häufiger in diesen Datenbanken enthalten sind.

Die Verfechter solcher Software sagen dazu, dass sie viel mehr dabei hilft, Vorurteile zu vermeiden, weil sie sich auf Daten stützt und nicht auf die subjektive Interpretation eines bestimmten Beamten. Stimmt das?
Es gibt keine objektiven Daten. Schon zwischen der Zahl der tatsächlich begangenen Verbrechen und den offiziellen Kriminalitätsstatistiken besteht ein Unterschied. Es ist etwa wahrscheinlicher, dass Verbrechen aufgedeckt werden, die in der Öffentlichkeit begangen werden, bestimmte Leute rufen eher die Polizei als andere, und Polizisten werden Straftaten in Gegenden, in denen sie ohnehin präsent sind, eher entdecken. Ja, potenziell könnte diese Software Verzerrungen reduzieren, aber es sind Menschen, die die Daten sammeln und die die Software benutzen. Wir müssen verstehen, dass dies ein sozialer und nicht ein vermeintlich objektiver, bloß technischer Prozess ist.

Besteht auch die Gefahr, dass es genau umgekehrt läuft? Was passiert, wenn ein Algorithmus mit verzerrten Daten gefüttert wird und dann eine scheinbar objektive Ausgabe erzeugt?
Auf jeden Fall. Es kann zu Rückkopplungsschleifen oder zu sich selbst erfüllenden Prophezeiungen kommen. Wenn der Algorithmus sagt, dass ein bestimmter Bereich ein hohes Kriminalitätsrisiko aufweist und Beamte dann dorthin gehen und etwas entdecken, sagen sie vielleicht „Oh, es stimmt tatsächlich“ und geben das wiederum in die Datenbank ein und so weiter. All dies ist später sehr schwer zu hinterfragen, da es ja ganz objektiv zu sein scheint.

Lassen Sie uns kurz über das Unternehmen hinter der Software sprechen: Woher kommt die Firma Palantir?
Das Unternehmen wurde zunächst teilweise von In-Q-Tel, der Venture-Capital-Firma des US-Auslandsgeheimdienstes CIA, mitfinanziert. Palantir entwickelte zu Beginn Software zur Terror– ismusbekämpfung. Es wurde verwendet, um Finanztransaktionen zu verfolgen, um Terrorismusfinanzierung aufzuspüren. Zunehmend erkannten Polizeibehörden, dass sie damit in der Lage sein könnten, die Kriminalität in ihren eigenen Städten zu verfolgen.

Gehört der Einsatz dieser Technik damit zu dem, was oft als „Militarisierung der Polizei“ kritisiert wird?
Es gibt eine Menge Forschung über die Verbreitung von militärischer Hardware in der Polizei. Interessanter ist für mich das Vordringen von Militärsoftware in die Polizeiarbeit. Einige sehen hier eine Übernahme von Techniken der Aufstandsbekämpfung, ich sehe es als Teil einer Verlagerung von der Strafverfolgung zur Informationsgewinnung nach Art der Geheimdienste, die wir zunehmend in der Polizeiarbeit beobachten.

Führen solche Big-Data-Ansätze ganz automatisch dazu, dass die Polizei stärker präventiv tätig wird, also im Vorfeld der eigentlichen Straftaten?
Ich habe bislang nicht gesehen, dass Palantir für das sogenannte „predictive policing“ eingesetzt wird, aber definitiv andere Software. Die Polizei von Los Angeles ordnet bereits Personen Risikoscores zu, die sich beispielsweise auf Vorstrafen stützen, aber sie verwenden zur Berechnung nicht Palantir. Manchmal können Vergleiche mit dem Film Minority Report übertrieben sein, aber ich denke, es ist zu früh, um zu sagen, was einmal daraus folgen wird, wenn wir Menschen oder Bereichen in der Stadt einen quantifizierten Risikowert zuweisen. Kann die Polizei irgendwann argumentieren, dass sie das Recht hat, anders zu handeln, wenn sie mir in einem bestimmten Gebiet begegnet oder wenn ich zum Beispiel einen bestimmten Risikowert in der Datenbank aufweise?

Wie halten die rechtlichen Regelungen in den USA mit diesen Veränderungen Schritt?
Gar nicht. Der technologische Wandel in der Polizeiarbeit läuft den Vorschriften, die für sie gelten sollten, davon. Die Überwachungsfälle, die derzeit vor dem Obersten Gerichtshof verhandelt werden, sind 10, 20 Jahre alt. Wir müssten also vielleicht bis 2040 warten, um das alles zu klären, was nicht wirklich eine akzeptable Option ist. Derzeit sind es private Unternehmen, die über ethische Fragen diskutieren. Palantir hat ein „Team für Privatsphäre und Bürgerrechte“. Aber Unternehmen werden letztlich das anbieten, was ihre Kunden wollen. Und wer sollte diese Selbstregulierung durchsetzen? Wir sollten die Kontrolle nicht allein den Unternehmen überlassen.

Im Moment werden also viele Dinge getan, weil sie technisch machbar sind?
Ja, und es gibt eine Gier nach Daten. Das ist auch Teil der Big-Data-Ideologie: „Lasst uns so viel wie möglich sammeln und sehen, welche Muster entstehen. Wir wissen nicht, ob es in Zukunft nützlich oder legal sein wird, also lass es uns jetzt tun.“ Ich denke aber auch, dass viele zunehmend erkennen, dass dies keine sehr effiziente Arbeitsweise ist.

Interview: Martín Steinhagen

Nun soll es doch keine Software zur Gesichtserkennung für die Bundespolizei geben. Bundesinnenminister Horst Seehofer (CSU) rudert zurück.

Auch interessant

Kommentare