+
Oft bleibt der Missbrauch unbemerkt: Wegen ihres ausgeprägten Schamgefühls erzählen Kinder häufig gar nicht erst von fragwürdigen Kontakten.

Sicherheitsapp

Cybergrooming: Die Gefahr der Worte

  • schließen

Cybergrooming – so nennt sich die gezielte Ansprache von Minderjährigen im Netz, um sexuelle Kontakte aufzubauen. Künstliche Intelligenz soll pädokriminelle Übergriffe frühzeitig erkennen und Kinder schützen. Was kann die App tatsächlich?

Man steht unten in der Küche und bereitet das Abendessen vor und die Kinder sind oben in ihren Zimmern und werden missbraucht.“ Geschäftsführer Patrick Schneider malt ein Horrorszenario aus, das niemand erleben möchte. „WhatsSafe“ – so nennt sich eine Web-App, die Schneider mit seinem Team zum Schutz von Kindern entwickelt hat. Er betont, dass „Cyber-Grooming“ in den meisten Fällen nur entdeckt werde, wenn Eltern die Nachrichten ihrer Kinder kontrollieren oder sie zufällig lesen.

„Cyber-Grooming“, die gezielte Kontaktaufnahme mit zumeist minderjährigen Internetnutzerinnen und -nutzern mit dem Ziel der Anbahnung sexueller Kontakte, ist in der Kriminalstatistik nicht als eigener Straftatbestand festgehalten, weswegen auch keine genauen Zahlen dazu vorliegen. „Nur wenige solcher Fälle kommen zur Anzeige, denn Kinder haben oft ausgeprägte Schamgefühle, überhaupt in solch eine Situation gekommen zu sein“, sagt Polizeidirektor Joachim Schneider von der polizeilichen Kriminalprävention der Länder und des Bundes in Stuttgart. Daher sei die Dunkelziffer hoch. Janina Neutze und Halina Sklenarova von der Universität Regensburg haben 2018 im Rahmen des Projekts MiKADO (Missbrauch von Kindern: Aetiologie, Dunkelfeld, Opfer) eine Datenanalyse vorgenommen. Demnach haben 16 Prozent der 14-Jährigen bereits Erfahrungen mit sexuellen Online-Kontakten gemacht.

„Gefährliche Kommunikation“ soll erkannt werden

Einen ersten Kontakt bauen oft auch deutlich ältere User auf Sozialen Medien wie Instagram und TikTok oder auch in Online-Gaming-Plattformen auf. Früher oder später wird die Konversation dann auf private Messenger wie Whatsapp geleitet. An dieser Stelle soll WhatsSafe zum Einsatz kommen. Die App arbeitet mithilfe der künstlichen Intelligenz „Privalino“ und soll erkennen, ob es sich um eine „gefährliche Kommunikation“ handelt. Über eine in Whatsapp integrierte QR-Code-Schnittstelle wird der Chat des Kindes mit dem Server von WhatsSafe verbunden. Ab diesem Zeitpunkt werden alle Nachrichten anonymisiert weitergeleitet. So lassen sich keine Rückschlüsse auf personenbezogene Daten der Chatpartner ziehen. Handynummern, Bilder, Videos oder Sprachaufnahmen wertet das System allerdings nicht aus. Sobald die KI eine fragwürdige Konversation entdeckt, wird eine Mail an die Eltern versendet. Sie enthält den Ausschnitt aus dem Chat, der den Alarm ausgelöst hat und die Option zu bewerten, ob es sich um einen richtigen oder einen Fehlalarm handelt. Die Mitarbeiter von WhatsSafe greifen weder in den Chat ein, noch alarmieren sie die Polizei, da sie niemanden zu Unrecht kriminalisieren wollen. Anzeige müssten die Eltern erstatten.

Die Schwierigkeit, die es bei der Entwicklung zu überwinden galt, liegt im Medium selbst, denn ein Chat ist weder ein strukturierter Aufsatz noch ein zusammenhängender Text. So kann sich eine Aussage beispielsweise bloß durch einen beigefügten Emoji verändern und anzüglich werden. Der fehlende Kontext macht es also schwer, semantische Informationen herauszuziehen. In der Entwicklung sei es deshalb wichtig, festzulegen, wie die Texte verschlagwortet werden, erklärt Schneider. Denn auch einzelne Wörter wie beispielsweise „Schwanz“ haben in unterschiedlichen Kontexten eine jeweils andere Bedeutung. Es muss also die gesamte Kommunikation bis hin zur Nachricht bewertet werden.

Fehlalarm an die Eltern

Was kann Künstliche Intelligenz (KI)?

Journalismus-Studierende der Hochschule für Medien, Kommunikation und Wirtschaft (HMKW) in Frankfurt fragen Experten aus Wirtschaft und Forschung: Wo und wie kommt KI zum Einsatz? Worin liegen Chancen und Risiken? Die Artikelserie in der FR gibt Antworten – im Rahmen eines Projekts des Wissenschaftsjahres 2019.

Künstliche Intelligenz: Multimediareportage

Zu Beginn haben sich die Gründer selbst als Kinder in Chatportalen ausgegeben und somit etwa 30.000 Nachrichten als Startdatensatz gewonnen. Diese Nachrichten wurden verschlagwortet – was ist bedenklich und was nicht. Auf Grundlage dieser Daten wurde das Privalino-Programm trainiert. Das Abgleichen der Nachrichten mit den Trainingsdaten soll es ermöglichen, den Gefährlichkeitsgrad einer Konversation einzustufen. Ähnliche Muster in den Texten, bekannte Maschen etwa, sollen bereits reichen, um sexuelle Absichten darin zu erkennen. Rechtschreibfehler hindern das Programm nicht. Oft starten Täter damit, das Vertrauen des Kindes zu gewinnen und seine Schwächen herauszufinden. Sie reden über Probleme in der Schule, mit Freunden oder Eltern. Rein inhaltlich könnte solch eine Konversation allerdings auch zwischen einer Vertrauensperson und dem Kind stattfinden. „Pädokriminelle haben aber ein klares Ziel und werden dieses auch irgendwann deutlich machen“, erklärt Patrick Schneider. Die KI soll sich dann auch nicht von zuvor geschickten, „vertrauensvollen“ Nachrichten täuschen lassen. Allerdings ist Privalino nicht komplett fehlerfrei und schickt ab und zu einen Fehlalarm an die Eltern.

Um dem entgegenzuwirken soll WhatsSafe die Userdaten nutzen, um seine KI permanent zu verbessern. Das bedeutet aber auch, dass Nachrichten von den Mitarbeitern gelesen und ausgewertet werden. Patrick Schneider sagt, die KI würde andernfalls auf einem Level feststecken, das nicht die Sicherheit erhöhe. Da die Anzahl der Daten enorm groß sei, sei es unmöglich, alle Nachrichten zu lesen und zu untersuchen. Jede Konversation bekommt einen Gefährlichkeitsgrad von Null (absolut ungefährlich) bis Eins (höchste Gefahrenstufe) zugeteilt. Aufgrund der großen Datenmengen würden nur die Konversationen betrachtet, bei denen die KI einen etwas höheren Output hatte, ohne aber einen Alarm auszulösen, etwa jene mit einem Wert von 0,6 bis 0,7. Sollte tatsächlich eine gefährliche Konversation darunter sein, können die Mitarbeiter auch händisch einen Alarm an die Eltern schicken.

Fokus auf Acht- bis Zwölfjährige

Mit Fragen nach dem Datenschutz sieht sich WhatsSafe-Geschäftsführer oft konfrontiert. „Wenn der Kinderschutz so massiv bedroht ist, muss man ihn über den Datenschutz und die Privatsphäre setzen“, meint er. Um den Kindern trotzdem eine Privatsphäre zu garantieren, können Eltern Chat-Kontakte, beispielsweise von Freunden und Verwandten, in eine sogenannte Whitelist eintragen. Diese Chats werden dann von der KI nicht mehr ausgewertet. Die Nutzung des Tools liegt allerdings ganz im Ermessen der Eltern. Theoretisch wäre es möglich, alle Chats seines Kindes überwachen zu lassen. Künftig soll eine neue Funktion zudem mitteilen, ob das Kind neue Kontakte hat und wie viel es kommuniziert. Die Betreiber von WhatsSafe fokussieren sich bei ihrer Arbeit vor allem auf Acht- bis Zwölfjährige, also jene Altersgruppe, in der viele Kinder ihre ersten eigenen Smartphones besitzen.

Bereits Kleinkinder können heute zwar auf diversen Geräten Apps nutzen oder Videos abrufen. Medienkompetent sind sie und auch ältere Kinder deswegen noch lange nicht. Dazu gehört der kritische, reflektierte Umgang mit Medien und Sozialen Netzwerken. Patrick Schneider sieht die Erziehungsberechtigten in einer zentralen Rolle. Kein Elternteil setzt sich gerne mit der Thematik des Kindesmissbrauchs auseinander. Deshalb stößt die App bei einigen Usern zunächst auf Skepsis. „Wir müssen uns mit den digitalen Welten der Kinder beschäftigen“, sagt Schneider. Wenn es um Online-Medien geht, werden die Rollen getauscht und Kinder erklären ihren Eltern die virtuelle Welt. Es sei daher ein Problem, wenn die Eltern diese nicht verstehen.

Die „Instant Gratification“ – die „direkten Belohnung“ – sei in den Mechanismen von Social Media tief verankert: User posten ein Bild und werden dafür mit Likes direkt belohnt. Für Kinder sei das sehr gefährlich, weil sie diese Mechanismen nicht hinterfragen. Es gehe hauptsächlich um Anerkennung – Likes und Followerzahlen verbinden sie mit Erfolg. Aber wer kennt schon all seine Follower persönlich? „Das ist etwas relativ Neues, dass Kinder überhaupt so ein riesiges Netzwerk aus Kontakten zur Verfügung haben, wahrscheinlich größer als das der Eltern“, sagt Patrick Schneider. Ein junges Mädchen macht sich keine Gedanken, wenn es auf TikTok ein leicht laszives Video hochlädt. Auch anzügliche Kommentare werden nicht immer als sexuelle Belästigung oder eine Art von Missbrauch wahrgenommen. „Genau in diesem Alter ist es schwierig, Kindern zu sagen ‚Hey, das ist gefährlich was hier passiert‘, weil sie sich gnadenlos überschätzen“, sagt Schneider.

Die App im Selbstversuch

Ich möchte die App ausprobieren, und das natürlich schon vor dem Interview mit Geschäftsführer Patrick Schneider. Also melde ich mich bei WhatsSafe an. Das geht einfach und unkompliziert. Jetzt könnte ich das Smartphone eines Kindes mit Hilfe der QR-Schnittstelle verbinden – für den Versuch verbinde ich mein eigenes Handy und kann eine Sicherheitsstufe angeben: niedrig, mittel oder hoch. Je höher diese eingestellt ist, desto sensibler reagiert das Programm und desto häufiger können auch Fehlalarme ausgelöst werden. Ich stelle die Sicherheitsstufe auf hoch ein.

Ich bitte einen Freund, mir Nachrichten mit explizit sexuellen Inhalten zu schicken. Ich bekomme keine Warnhinweise. Einen Tag später teste ich die KI erneut. Diesmal bekomme ich eine Mail. „Achtung: WhatsSafe hat eine auffällige Konversation entdeckt!“ Ich sehe den verdächtigen Textausschnitt, den mir der Freund geschickt hat. Die Handynummern sind anonymisiert und werden nur zur Hälfte angezeigt. Jetzt habe ich die Möglichkeit, diesen Alarm zu bewerten, richtig oder falsch. In der Mail sind zudem noch Tipps enthalten, wie ich als Elternteil im Falle eines richtigen Alarms handeln kann, mit Verweisen auf bekannte Webseiten wie Klicksafe.

Ich habe mein Smartphone weiterhin mit WhatsSafe verbunden. Meine Mutter schreibt und fragt, ob sie mir etwas vom Einkaufen mitbringen soll, es geht um Haarpflegeprodukte. Ich bekomme wieder eine Warnung per Mail. Dieses Mal ist es offensichtlich ein falscher Alarm.

Ich spreche beim Interview mit Patrick Schneider die entsprechenden Nachrichten an und finde heraus, dass auch er sie bereits gelesen hat. Ich fühle mich durchleuchtet. Zu wissen, dass ein Fremder meine Nachrichten liest, ist ziemlich unangenehm, auch wenn es sich hierbei nicht wirklich um private Informationen handelt. Ich trenne die Verbindung zu meinem Handy wieder. 

Das könnte Sie auch interessieren

Kommentare