Künstliche Intelligenz (KI) gilt mittlerweile als Universalmittel gegen allerlei Probleme. Hausaufgaben zu schwierig? Frag doch ChatGPT! Zeichenskills liegen auf Kinderniveau? Dall-E übernimmt! Dein Lieblingsfortsetzungsroman erscheint plötzlich nur noch auf Kantonesisch? Deepl regelt!
Hilfestellung bieten viele der unzähligen Tools allemal. Doch es gibt auch solche, die nicht nur eine Art Räuberleiter bieten, um Alltagshürden zu überwinden. Manche können sogar dabei helfen, Straftaten zu bekämpfen. Die Technische Universität Berlin arbeitet derzeit an so einem Tool. Und es klingt vielversprechend.
Im Rahmen eines Forschungsprojekts haben Forschende der TU Berlin KI-Modelle trainiert, um Polizeibehörden beim Kampf gegen Internetkriminalität zu unterstützen. Dabei geht es vor allem darum, strafrechtlich relevante Hassrede wie Volksverhetzung in großen Datenmengen schneller zu erkennen, erklärt der Kriminologe Robert Pelzer in einem Beitrag der TU Berlin. Er ist federführend an dem Projekt beteiligt.
Das System wird mit Datensätzen von Polizei-Expert:innen trainiert, die unter anderem volksverhetzende Inhalte enthalten, aber auch harmlose Texte.
Die KI lernt anhand der Beispiele, natürlich angeleitet durch Forschende wie Pelzer, harmlose von strafrechtlich relevanten Inhalten zu unterscheiden. Spuckt das System nach einem Scan Ergebnisse aus, werden diese von Behördenseite geprüft. Es ist ein Lernprozess.
Laut Pelzer können mithilfe des Tools blitzschnell Telegram-Kanäle aus dem rechtsextremen wie auch verschwörungsideologischen Spektrum gescannt werden. Das spare Zeit.
"Mithilfe des KI-Tools könnten sie schnell aus den mehreren zehntausend Postings und Kommentaren eine Vorauswahl treffen", sagt Pelzer. Und weiter: "Die Mitarbeiter:innen können dadurch viel schneller in die strafrechtliche Einzelfallbetrachtung und in weiterführende Maßnahmen zur Identifikation von Tatverdächtigen investieren."
Wichtig dabei sei, dass die strafrechtliche Prüfung, also die Entscheidung darüber, ob der Verdacht einer Straftat besteht, nicht von der KI übernommen wird. So effizient das System auch sein kann, letztlich müsse die Verarbeitung der Daten "legitim, zweckgebunden und pseudonymisiert erfolgen".
Denn es ist nach wie vor ein Eingriff in die Selbstbestimmungsrechte, Daten im öffentlichen Social-Media-Bereich zu erheben und auszuwerten. Auch müssen die Daten sorgfältig ausgewählt werden, um den Kreis der Betroffenen kleinzuhalten. Zudem brauche es Dokumentationspflichten und Löschroutinen, aber auch zusätzliche gesetzliche Grundlagen, um einen Einsatz zu rechtfertigen.
Dennoch: Derlei KI-Tools, sei es auch nur als Abschreckung, können dabei helfen, entschiedener gegen Hass im Internet vorzugehen. Noch läuft die Arbeit an dem KI-Tool weiter. Bis zum ersten Einsatz dürfte es noch dauern, interessant ist das Projekt aber allemal.