Bremen Stadtteile Osterholz Verden Diepholz Delmenhorst Wesermarsch Oldenburg Rotenburg Cuxhaven Bremerhaven Niedersachsen

Modellprojekt in Hamburg Künstliche Intelligenz bei der Polizei: Bedenken in Bremen

Legal erworbene Daten können schneller und effektiver verarbeitet werden, sagen diejenigen, die den Einsatz von Künstlicher Intelligenz bei der Polizei befürworten. Doch es gibt auch mahnende Stimmen.
21.07.2023, 05:00 Uhr
Jetzt kommentieren!
Zur Merkliste
Künstliche Intelligenz bei der Polizei: Bedenken in Bremen
Von Ralf Michel

Die Videoüberwachung am Hamburger Hauptbahnhof soll von künstlicher Intelligenz (KI) ausgewertet werden. Bei der Polizei in Bremen und Niedersachsen stößt dieses Pilotprojekt auf „Interesse“, wie es auf Anfrage heißt. Bremens Datenschutzbeauftragte Imke Sommer sieht indes „grundsätzlich Probleme“, wenn polizeiliche Aufgaben Maschinen überlassen werden.

Noch in diesem Juli soll KI in Hamburg Daten von 22 Videokameras auswerten und bei Auffälligkeiten die Polizei alarmieren. Die Software soll in der Lage sein, „atypische Bewegungsmuster“ zu erkennen, wie etwa liegende, fallende, schlagende oder tretende Personen. Selbst aggressive oder defensive Körperhaltung könne die KI ausmachen. Beteiligten Personen würden aber automatisch zu Strichmännchen verfremdet. Ziel dieses Versuchs ist es, „frühzeitig gefährliche Gefahrensituationen zu erkennen“.

Die Bremer Polizei verfolge die weiteren Entwicklungen auf diesem Gebiet und insbesondere die rechtliche Einordnung aufmerksam, sagt Nils Matthiesen, Sprecher der Behörde. Prinzipiell könne der Einsatz von KI-Technologie in ausgewählten Lagen von Nutzen sein, etwa bei der Gefahr eines Anschlags durch eine bekannte Person, deren biometrische Daten vorliegen. In den Videoaufzeichnungen könne nach konkreten Personen oder Kennzeichen gesucht werden. Es bestünden aber Zweifel, dass ein solcher automatisierter Abgleich zur Identifizierung einer natürlichen Person auf Grundlage des Bremischen Polizeigesetzes zulässig ist, schränkt Matthiesen ein. Ein Einsatz solcher Technik sei derzeit daher nicht geplant.

In Bremen wird der Bahnhofsvorplatz ebenfalls mit Videokameras aufgenommen.  Überwacht werden die Bilder jedoch von Mitarbeitenden der Polizei in der Videoleitstelle, betont Matthiesen. Bei einer Ausweitung der Videoüberwachung auf Brennpunkte sei es aber grundsätzlich vorstellbar, dass KI diese Mitarbeiter unterstützend auf ungewöhnliche Bewegungsmuster aufmerksam mache, die diese dann überprüfen, um gegebenenfalls einen Einsatz auszulösen.

Lesen Sie auch

An dieser Stelle setzen die Bedenken der Bremer Datenschutzbeauftragten ein. „Die KI wäre dann das erweiterte Auge der Polizei, sagt Imke Sommer, „wobei so eine Software viel mehr kann als ein Mensch.“ Dies sei etwas ganz anderes, als weitere Bildschirme einzurichten, auf die Menschen schauen. „Hier wird die Polizei erst durch die KI auf etwas gelenkt.“ Und der Grad der Unterstützung des Menschen durch die künstliche Intelligenz sei dabei fließend. 

„Grundrechtsrelevante Entscheidungen dürfen nicht von Maschinen getroffen werden“, betont Sommer und verweist auf die Datenschutzgrundverordnung. Zudem dürfe die suggestive Kraft der KI-Warnhinweise nicht unterschätzt werden. „Im Grunde entscheidet der Algorithmus. Die KI sagt, dass etwas auffällig ist.“ Doch auch Maschinen machten Fehler. Ganz abgesehen davon, dass letztlich entscheidend sei, was der Maschine im Laufe solcher Prozesse antrainiert werde. „Jede Hilfe von Maschinen führt zu Problemen, auf die rechtlich reagiert werden muss.“

Was im Februar dieses Jahres der Fall war, als das Bundesverfassungsgericht den Einsatz von Datenanalyse-Software bei der Polizei in Hessen und Hamburg in ihrer jetzigen Form als verfassungswidrig bezeichnete. Dabei ging es um die Befugnisse der Polizei, vorliegende personenbezogene Daten automatisiert weiterzuverarbeiten. Die  Vorschriften in Hessen und Hamburg verstoßen aus Sicht der Karlsruher Richter gegen die im Grundgesetz garantierte informationelle Selbstbestimmung. Eine verfassungskonforme automatisierte Datenanalyse oder -auswertung hielt das Gericht grundsätzlich aber für möglich. Imke Sommer wertet die Entscheidung des Verfassungsgerichts dennoch als „riesiges Stoppschild“ für den Einsatz von KI bei der Polizei. 

Lesen Sie auch

Die Polizei in Bremen setzt in ihrer IT-Forensik bereits verschiedene Softwareprodukte ein, berichtet Matthiesen. Etwa bei der  Klassifizierung von Bildern und Objekten oder von Textdateien wie Chats. Sukzessive werde zudem eine neue Software zur Klassifizierung von kinderpornografischem Material eingeführt. Letztlich sei es wichtig, dass der Einsatz von KI sorgfältig geplant, reguliert und überwacht werde, betont Matthiesen. Sicherzustellen sei, die Vorteile wie die verbesserte Analyse von Daten oder Frühwarnsysteme zu maximieren, zugleich aber potenziellen Nachteile für Datenschutz und Privatsphäre zu minimieren.

Ähnlich wird dies in Niedersachsen gesehen. „Grundsätzlich würde vor einer Einführung eine differenzierte Betrachtung unter anderem aus technischer, rechtlicher und gesellschaftlicher Perspektive erfolgen müssen“, sagt Oliver Rickwärtz, Sprecher des Innenministeriums. Derzeit plane Niedersachsen aber keinen Einsatz von KI-basierten Kameras.

Zur Startseite
Mehr zum Thema
Lesermeinungen (bitte beachten Sie unsere Community-Regeln)