Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen

Wie kann Künstliche Intelligenz in der Polizeiarbeit unterstützend eingesetzt werden und dabei sowohl fair als auch nachvollziehbar sein?

Autor/innen

Schlagworte:

Natural Language Processing, Language Modeling, KI

Abstract

VIKING - Projektbeschreibung

Im Teilprojekt zur Erklärbarkeit vertrauenswürdiger KI-Sprachmodelle widmet sich das Forschungsinstitut CODE der Universität der Bundeswehr München der KI-basierten Textauswertung. Ziel ist die damit einhergehende Herstellung von Fairness und Transparenz.

Klassifikationsszenarien

In der polizeilichen Textauswertung kann KI eingesetzt werden, um große Textkorpora mit hoher Geschwindigkeit nach verdächtigen Inhalten zu durchsuchen.

Eine in dieser Forschung entwickelte Methode ist die semantische Modellierung, bei der drei Klassifikationsaufgaben kombiniert werden, um Tathergänge oder Personenbeschreibungen aus Texten zu extrahieren, in ein strukturiertes Datenmodell zu überführen und es Anwendern über eine Webanwendung zu ermöglichen, die Ergebnisse interaktiv zu erkunden. Dazu werden Texte zunächst dahingehend klassifiziert, welche Delikttypen in den Texten vorkommen. In der nächsten Stufe wird die Named Entity Recognition eingesetzt, bei der alle Wörter des Texts klassifiziert werden, um z. B. Ortsangaben oder Personenreferenzen zu markieren. Zwischen Entitäten können Beziehungen bestehen, die von einem dritten Klassifikationsmodell erkannt werden. Eine Beziehung zwischen einer Ortsangabe und einer Personenreferenz gibt beispielsweise an, an welchem Ort sich die jeweilige Person aufgehalten hat. Die Aggregation mit Metadaten erlaubt zusätzlich eine Präzisierung von beispielsweise Orts- und Zeitangaben oder die Verbindung zu weiteren Ermittlungsergebnissen.

Fairness und Erklärbarkeit von KI

Obwohl die Klassifikationsergebnisse von Sprachmodellen sehr präzise sein können, ist in der Regel nicht nachvollziehbar, auf Basis welcher Merkmale Modellentscheidungen getroffen werden. Da Fehlentscheidungen im polizeilichen Kontext unter Umständen schwerwiegende Folgen haben können, müssen eingesetzte KI-Verfahren verschiedenen Anforderungen im Hinblick auf Performance, Fairness und Nachvollziehbarkeit genügen. Die Erforschung von Methoden zur Herstellung von Fairness gegenüber z. B. der Herkunft, dem Alter oder der Bildung einer Person sowie Methoden zur Erklärung von KI-Modellen und KI-Entscheidungen in polizeilichen Szenarien zur Textklassifikation stellen den Mittelpunkt der Forschungsarbeit dar.

 

Im VIKING-Teilprojekt zur Erklärbarkeit vertrauenswürdiger KI-Sprachmodelle widmet sich das Forschungsinstitut CODE der Universität der Bundeswehr München der KI-basierten Textauswertung. Ziel ist die damit einhergehende Herstellung von Fairness und Transparenz. Als Ausgangsbasis werden Modelle zur Textklassifikation, Named Entity Recognition und Relation Extraction zu einer Semantischen Modellierung kombiniert. Darauf aufbauend werden Algorithmen zur Erkennung und Vermeidung von Bias im Hinblick auf beispielsweise Geschlechter, Nationalitäten oder Herkünfte erforscht. Weiterhin werden Methoden zur Erzeugung von lokalen Erläuterungen der Klassifikationsergebnisse erforscht.

Veröffentlicht

03.06.2024