1. Startseite
  2. Politik

Software irrt sich manchmal

Erstellt:

Von: Jana Ballweber

Kommentare

Nicht alles gehört in den Chat.
Nicht alles gehört in den Chat. © Sebastian Gollnow/dpa

Wie der EU-Vorschlag zur Überwachung von Online-Unterhaltungen technisch umgesetzt werden soll, ist unklar.

Der Gesetzentwurf der EU-Kommission könnte Anbieter digitaler Dienste künftig verpflichten, ihren kompletten Datenverkehr auf sexualisierte Gewalt gegen Kinder zu überprüfen. Wie sie das technisch bewerkstelligen sollen, lässt der Entwurf offen.

Martin Steinebach beschäftigt sich am Fraunhofer Institut für sichere Informationstechnologie mit der Erkennung von Fotos und Videos, die Missbrauch zeigen. Seit zehn Jahren arbeitet er daran, bereits bekannte Missbrauchsdarstellungen im Internet wiederzufinden. Doch dem Vorschlag der Kommission zufolge sollen die Anbieter digitaler Dienste auch Darstellungen sexualisierter Gewalt finden, die der Polizei noch unbekannt sind.

Prinzipiell ist es möglich, dass Software, die mit künstlicher Intelligenz arbeitet, erkennt, ob auf unbekannten Bildern ein nackter Mensch zu sehen ist. Dazu bekommt die Software eine riesige Menge Bildmaterial, an der sie üben kann. Sie lernt nach und nach, bestimmte Muster zu erkennen, die in Nacktbildern zu finden sind, also beispielsweise die Form einer nackten Brust. Im nächsten Schritt kann sie theoretisch auch erkennen, ob das Bild eine Missbrauchssituation zeigt, zum Beispiel indem sie das Alter der abgebildeten Personen schätzt.

Das Problem: Die Software liegt nicht immer richtig. Und Kriminelle können lernen, sich an sie anzupassen, wenn sie ihre Schwächen kennen. „Im Zuge unserer Forschung hatten wir den Fall, dass die Software gemeldet hat, dass auf einem Bild ein nackter Mann zu sehen war, obwohl eindeutig weibliche Brüste zu erkennen waren“, erzählt Steinebach. Die Software war in eine Falle getappt. Auf dem Bild war eine Bierdose zu sehen. Weil die Software all ihr Wissen aus den Trainingsdaten hatte und dort mehr Männer mit Bierdosen abgebildet waren, habe das System sich ein falsches Muster eingeprägt. Eine Frau neben einer Bierdose konnte die Software sich nicht vorstellen. Steinebach befürchtet, dass Pädokriminelle sich die Schwächen von „künstlicher Intelligenz“ zunutze machen könnten: „Es kann nicht sein, dass ein Täter einfach eine Whiskey-Flasche neben ein Kind stellt und der Missbrauch dann nicht mehr erkannt wird, weil Kinder selten mit Alkohol zu sehen sind.“

Ein weiteres Problem sieht Steinebach bei falsch positiven Ergebnissen, also Fällen, in denen die Software Missbrauch erkennt, aber gar keiner zu sehen ist. Jede falsch positive Meldung würde bedeuten, dass Dritte auf ganz private Kommunikation schauen müssten, um sie zu überprüfen. Ein großes Risiko aus Sicht des Datenschutzes, findet Steinebach: „Es ist natürlich immer eine Abwägungsfrage, der Schutz der Opfer gegen unangebrachte Überwachungsstrategien.“ Niemand könne da eine finale Aussage treffen, so der Darmstädter Forscher. „Klar ist aber: Je zuverlässiger die Systeme arbeiten, desto besser werden die Menschen sie akzeptieren, weil das Risiko geringer ist, aufgrund eines Software-Fehlers unter Verdacht zu geraten. Hier muss die Öffentlichkeit auf einer transparenten Analyse der eingesetzten Technologie bestehen, wenn der EU-Vorschlag umgesetzt werden sollte.“

Auch interessant

Kommentare