27.11.2024
DP-Gespräch
Künstliche Intelligenz: Was da noch kommen könnte
Künstliche Intelligenz: Ihr zu entkommen, ist nicht mehr möglich. Sie durchdringt den Alltag und wird künftig genauso präsent sein, wie es das Internet heute für die meisten Menschen ist. Das sagt Prof. Dr. Thomas-Gabriel Rüdiger. Und der Leiter des Instituts für Cyberkriminologie an der Brandenburger Hochschule der Polizei nimmt die Polizei dabei nicht aus. Der Experte blickt im ausführlichen DP-Gespräch auf die Risiken und Chancen der KI, ihren Stellenwert in der Kriminalität, auf mögliche Versäumnisse und Herausforderungen der Politik und ihre Wirkung auf die Polizei und ihre Arbeit. Rüdiger blickt auch ein wenig in die Glaskugel und wagt den Versuch einer Vorhersage. Er führt die Begriffe Identität, Akzeptanz und Authentizität in diesem Kontext an und meint, wir seien gut beraten, uns jetzt schon vorzubereiten.
DP: Herr Prof. Rüdiger, wir haben vor gut einem Jahrzehnt schon einmal über die Polizei und das Internet gesprochen. Wie ist der Stand heute?
Prof. Dr. Thomas-Gabriel Rüdiger: Tatsächlich ist es für mich schon etwas ernüchternd, dass sich aus meiner Sicht zumindest bei einigen digitalen Themen – vor allem bei der Frage der digitalen Präsenz und Interaktion – seit unserem letzten Gespräch im Alltag der Menschen relativ wenig bewegt hat. Dabei stellt sich heute mehr denn je die Frage: Was will die Gesellschaft und was will die Kriminalpolitik eigentlich, welche Rolle und welche Aufgaben sollen die Sicherheitsbehörden in einem globalen digitalen Raum erfüllen?
DP: Warum dieses Fazit?
Rüdiger: Ich glaube, dass die Kriminalpolitik und die Sicherheitsbehörden das Internet als täglichen Einsatz- und Kriminalitätsraum noch nicht intensiver durchdrungen haben, weil sie hier mit der Globalität des Internets und damit mit einer digitalen Massenkriminalität konfrontiert und damit zum Teil, das muss man auch ehrlich sagen, auch überlastet wären. Nur als Denkanstoß: Nach einer aktuellen Studie der Initiative Sicher Handeln, die auch von der ProPK mitgetragen wird, kann jeder dritte Internetnutzer in Deutschland täglich von strafbaren Phishing-E-Mails berichten. Würden davon nur zehn Prozent zur Anzeige gebracht, kämen wir vermutlich auf eine sechsstellige Zahl von Strafanzeigen pro Tag. Wie soll damit umgegangen werden? Entweder wären die Sicherheitsbehörden dafür nicht mehr zuständig – was die Frage des Legalitätsprinzips aufwirft – oder es bräuchte wirksame Technologien, um mit digitaler Massenkriminalität umzugehen. Ich glaube, dass die Entwicklungen im Bereich der künstlichen Intelligenz genau diese Möglichkeiten bieten könnten, um das neu anzugehen.
DP: Sie haben die Künstliche Intelligenz angesprochen. Wie nähert man sich dieser am besten?
Rüdiger: Es ist gar nicht so einfach, zu definieren, was KI eigentlich ist. Auch in der Wissenschaft wird darüber viel diskutiert. Am praktikabelsten finde ich die Definition des Europäischen Parlaments, wonach KI die Fähigkeit einer Maschine ist, menschliche Fähigkeiten wie logisches Denken oder Kreativität nachzuahmen. Das zeigt für mich schon einen wichtigen Punkt: Es kommt in der gesellschaftlichen Diskussion eigentlich nicht darauf an, ob in einem Programm tatsächlich KI steckt oder nicht. Entscheidend ist, ob die Menschen diese Technik als solche wahrnehmen. Es geht also weniger um die sicherlich interessante Frage, ob eine KI etwa Bewusstsein imitieren oder tatsächlich entwickeln kann, sondern darum, ob die Menschen das so wahrnehmen. Wenn wir tatsächlich einmal so weit sind, dass sich diese Frage ernsthaft stellt, dann wird das auch Auswirkungen auf die Sicherheitsbehörden haben und zum Beispiel Fragen der strafrechtlichen Verantwortlichkeit von KI und deren Personeneigenschaft eröffnen. Aber so weit sind wir sicher noch nicht.
DP: Blicken wir auf die kriminelle Seite. Bei welchen Delikten ist KI eine erkennbare Größe?
Rüdiger: Wir kennen bereits jetzt eine Vielzahl von Deliktsbereichen, in denen KI eine Rolle spielt – insbesondere auch in meinem Schwerpunktbereich der digitalen Sexualdelikte. Aus Spanien sind inzwischen Fälle bekannt, in denen Nacktbilder von Minderjährigen durch entsprechende Programme generiert wurden. In einem dieser Fälle gab es einen öffentlichen Aufruf von rund 20 Müttern betroffener Kinder. Sie hatten ihre Erfahrungen öffentlich gemacht, nachdem laut Medienberichten 12- und 13-jährige Mitschüler Profilbilder der Schülerinnen bei WhatsApp verwendet und dann mit KI-gestützten Programmen Nacktbilder daraus generiert und in den Klassenchats gepostet hatten. In Deutschland würde es sich dann vermutlich um sogenannte „kinderpornografische Inhalte“ handeln und auch in Deutschland wird es sicher solche Fälle geben. Mittlerweile sind KI-basierte Apps auf dem Markt erhältlich, die explizit damit werben, etwa die Nachbarin oder Kollegin anzüglich sehen zu können. Im Prinzip konnte man das zwar schon früher mit Grafiksoftware und einem gewissen Aufwand erstellen. Heute funktioniert das aber mit erstaunlicher Geschwindigkeit und recht realitätsnah. Eine der betroffenen Mütter wird mit den Worten zitiert, das erzeugte Bild wirke täuschend echt, und wenn sie den Körper ihrer Tochter nicht kennen würde, würde sie wohl darauf hereinfallen.
DP: Das dürfte für viele Täter attraktiv sein, oder?
Rüdiger: Leider vermutlich ja, auch in England wurde kürzlich ein Fall bekannt, in dem ein Täter zu fast 18 Jahren Haft verurteilt wurde. Er hatte unter anderem aus normalen Kinderbildern kinderpornografisches Material gegen Bezahlung per KI generiert. Das zeigt auch wieder, warum Kinderbilder eigentlich nicht öffentlich im Internet gezeigt werden sollten, weil sie auch für solche Straftaten missbraucht werden könnten. Wir haben also einerseits den Bereich, dass aus bereits vorhandenen Bildern entsprechendes Material generiert werden kann, aber auch zum Beispiel durch Text to Image komplett KI-generierte Inhalte. Was ist das anderes als KI-generierte Missbrauchsbilder?
DP: Wie geht das weiter?
Rüdiger: Meine Vorhersage ist für diesen Bereich relativ klar. Das wird weiter zunehmen, das werden wir immer häufiger sehen, und das wird gleichzeitig auch die Ermittlungsressourcen immer stärker belasten. Europol hat vor Kurzem in seinem IOCTA-Bericht (Internet Organised Crime Threat Assessment) genau vor dieser Entwicklung gewarnt, nämlich dass KI bei Missbrauchsbildern eine immer größere Rolle spielt.
DP: Die Deliktlage ist aber nicht ganz neu.
Rüdiger: Das ist richtig. Das Thema kommt nicht ganz überraschend. Vor rund zehn Jahren hatte die Hilfsorganisation Terre des Hommes ein 3D-Modell – also einen Avatar – eines sehr jungen Mädchens zum Live-Missbrauch auf einschlägigen Seiten angeboten – als eine Art Lockvogel. Innerhalb von zehn Wochen versuchten Tausende Männer Kontakt aufzunehmen, um das vermeintlich echte Kind zu missbrauchen. Wenn die Technik schon vor einem Jahrzehnt so überzeugend war, zeigt dies sicherlich auch, welche Möglichkeiten moderne KI-Anwendungen für die Sicherheitsbehörden, aber auch für die Begehung von Straftaten bieten. Es gibt jedoch auch weitere Deliktsbereiche, etwa aus dem Bereich Cybergrooming, also der onlinebasierten Ansprache eines Kindes mit dem Ziel des sexuellen Missbrauchs. Bereits im Jahr 2021 wurde in den Medien über einen besonderen Fall in Österreich berichtet. Hier soll sich ein über 50-jähriger Mann durch entsprechende Deepfakes, etwa in Videobotschaften, systematisch als 16-jähriges Mädchen ausgegeben und so über 600 minderjährige Jungen zu sexuellen Handlungen verleitet haben.
DP: Ist man der Technik ausgeliefert?
Rüdiger: Im Prinzip kann heute jeder Inhalt digital gefälscht werden, das war auch vor der KI-Zeit möglich, aber heute ist das gewissermaßen per Fingertipp für jeden Nutzer mit KI-Unterstützung in guter Qualität möglich. Gleichzeitig können heute Stimmen überzeugend geklont oder ganze virtuelle Avatare von Menschen durch KI generiert werden. Diese Entwicklung birgt ein enormes Missbrauchspotenzial. Sprachnachrichten könnten von jedem, der über fremdes Stimmmaterial verfügt, nachgestellt werden, zum Beispiel bei Familienstreitigkeiten oder einfach nur, um jemanden zu diskreditieren, bei Fällen von Cybermobbing oder Stalking. Letztlich kann es von jedem ein gefälschtes Nacktfoto oder -video oder auch eine gefälschte Aussage geben, einfach weil viele von uns ganz selbstverständlich Bild- und Sprachmaterial von sich und anderen in sozialen Medien, auf den Seiten von Sportvereinen oder Bildungseinrichtungen zur Verfügung stellen. Diese Entwicklung mag auch die aktuelle Diskussion um einen eigenen Straftatbestand der Deepfake-Pornografie erklären. Dass wir die Menschen über solche Möglichkeiten durch digitale Bildung aufklären müssen, erscheint mir aber mehr als notwendig.
DP: Das Internet als Nährboden des Verbrechens?
Rüdiger: Ich glaube, dass das Internet – bei all seinen auch positiven Seiten – zum Beispiel für Sexualstraftäter damals ein wahres Geschenk war. Das KI-Zeitalter wird das für alle Formen der digitalen Kriminalität vermutlich noch übertreffen. Es liegt auf der Hand, dass gerade die Möglichkeiten von Deepfake-Technologien in vielen Deliktsbereichen relevant sind.
DP: Können Sie das an einem Fallbeispiel schildern?
Rüdiger: Ja, es sind inzwischen einige Fälle in den Medien bekannt geworden. In Hongkong soll ein Mitarbeiter eines großen Unternehmens in einer Videokonferenz mit KI-generierten Avataren der Kolleginnen und Kollegen konfrontiert worden sein und daraufhin fast 24 Millionen Euro überwiesen haben. Dies war ein Fall von CEO-Fraud, mit einer zumindest teilweise KI-generierten Videokonferenz, mit dem Ergebnis einer hohen Überweisung, die in kriminelle Kanäle floss. Ein ähnlicher Vorfall ereignete sich auch bei Ferrari. Hier soll der mutmaßliche Ferrari-CEO einen Manager des Unternehmens angerufen und um eine Überweisung gebeten haben. Doch die Stimme inklusive Akzent kam dem Mitarbeiter verdächtig vor, und er erkundigte sich nach einer Buchempfehlung, die er dem Chef bei einem letzten Treffen gegeben hatte. Nur so ist der Fake am Ende aufgeflogen, was für mich auch wieder die generelle Relevanz von digitaler Bildung in allen Alters- und Bildungsschichten symbolisiert.
DP: Verraten Sie uns bitte, welche Software insbesondere zu Missbrauch einlädt?
Rüdiger: Das kann man so natürlich nicht wirklich sagen, da es unterschiedliche Programme für unterschiedliche Zwecke gibt. Derzeit stechen aus meiner Sicht aber vor allem die LLM-Modelle (Large Language Model) wie Chat-GPT oder entsprechenden Modellen ohne Einschränkungen hervor, einfach weil sie so vielfältig und gleichzeitig einfach zu bedienen sind. Denn für Kriminelle bedeutet dies auch, dass sie eine Art Beratungs- und Unterstützungsfunktion haben. Die Firma hinter Chat-GPT, Open AI, hat kürzlich in einem Bericht bekannt gegeben, dass sie nachweisen konnten, dass Kriminelle Chat-GPT beispielsweise zur Programmierung von Malware nutzen.
DP: Und …
Rüdiger: Einen Moment noch, bitte. Ich möchte noch auf ein Experiment hinweisen, das auch aus kriminalpräventiven Sicht interessant sein könnte. Ein Forschungsteam um eine israelische Wissenschaftlerin hatte einen KI-Bot generiert, der sich als Kind ausgab. Ziel war es, das Kommunikationsverhalten von digitalen Sexualstraftätern, also Cybergrooming, zu untersuchen. Etwas mehr als 600 Kommunikationen sollen so aufgezeichnet worden sein. Ich hatte das Glück, mit der verantwortlichen Wissenschaftlerin persönlich zu sprechen, und sie erzählte mir, dass nur ein einziger Täter Verdacht geschöpft hätte. Vor dem Hintergrund, dass der Verfolgungsdruck auf digitale Sexualstraftäter in Deutschland eher gering zu sein scheint, wäre es immerhin denkbar, dass die Sicherheitsbehörden auch solche Mechanismen diskutieren, um im Rahmen sogenannter „Scheinkindoperationen“ einen höheren Verfolgungsdruck zu erzeugen. Andererseits würde es mich auch nicht wundern, wenn gerade solche Täter auch auf die Idee kämen, eigene KI-Bots einzusetzen, um massenhaft Cybergrooming zu betreiben.
DP: Was blüht uns da?
Rüdiger: Kurzfristig werden wir uns wohl auch auf massenhafte, gut gemachte Phishing-Angriffe und ähnliche Attacken einstellen müssen. Man muss im Grunde nur eine entsprechende KI, die zum Beispiel keine eingebauten Schutzmaßnahmen hat, trainieren und in die Rolle schlüpfen lassen und Mails versenden und mit den Opfern kommunizieren lassen.
DP: Was tun?
Rüdiger: Lassen Sie uns zunächst einen Blick auf den digitalen Raum an sich werfen. Ich habe bereits in der Vergangenheit darauf hingewiesen, dass die Sicherheitsbehörden im digitalen Raum aus meiner Sicht zu wenig präsent und wahrnehmbar sind. Damit meine ich, dass die Sicherheitsbehörden und ihr Handeln – ähnlich wie im öffentlichen Verkehrsraum – auch sichtbar sein müssen, schon um eine generalpräventive Wirkung überhaupt in Erwägung ziehen zu können. Dazu gehört aber auch, dass man für die Menschen ansprechbar ist. Und da sehe ich zum Beispiel bei Social-Media-Accounts von Sicherheitsbehörden, wo zum Teil zu lesen ist, es werden keine Anzeigen aufgenommen, es werden keine Nachrichten gelesen oder es werden einfach nur Bürozeiten angegeben, aber auch bei den Internetwachen Verbesserungspotenzial. Ganz zu schweigen von virtuellen Polizeistreifen. Aber genau hier könnte KI der Schlüssel sein – wenn man will.
DP: Wie bekommt man einen passenden Schlüssel?
Rüdiger: Nehmen wir als Beispiel die Problematik der Internetwachen. In Deutschland gibt es in jedem Bundesland eine Form von Internetwache, und wenn man ehrlich ist, sind sie nicht sehr komfortabel, benutzerfreundlich oder interaktiv. Gegenwärtig sind es eher Briefkästen, in die man von außen seine Strafanzeigen einwerfen kann. Wenn man überhaupt weiß, welche Internetwache man benutzen soll. Die Hürde für Anzeigen oder Hinweise scheint mir hier sehr hoch zu sein, auch wenn man sich etwa fragt, welches zehnjährige Kind über eine Internetwache eigentlich einfach Hilfe – zum Beispiel bei digitalen Risiken – finden könnte. Bei einer analogen Polizeidienststelle würde in der Regel ein Polizist oder eine Polizistin kommen, um mit dem Anzeigenden zu interagieren und sich auf dessen Sprachniveau und Alter einzustellen – zumindest im besten Fall. Diese Form der Polizeidienststelle in den digitalen Raum zu transformieren, etwa durch digitale Anzeigenaufnahme durch Polizeibeamte, würde natürlich zeitliche und personelle Ressourcen erfordern. Ein Aspekt, der möglicherweise dazu geführt hat, dass sich dieser Bereich eher wenig entwickelt hat – wie das Böhmermann-Experiment damals gezeigt hat. Hier könnte ich mir natürlich auch den Einsatz von KI für solche digitalen Anzeigenaufnahmen – im besten Fall bei einer einzigen zentralen Internet- und Kinderonlinewache – gut vorstellen.
DP: Wie kann das funktionieren?
Rüdiger: Zum Beispiel durch gezielt angelernte KI, die in Form von virtuellen Polizei-Avataren die Menschen durch das Anzeigeverfahren führt. Das wäre dann vermutlich sogar in den unterschiedlichsten Sprachen möglich und ja, dann könnte auch gleich eine Ermittlungsakte angelegt werden. In kritischen Situationen könnte die KI dann auch direkt einen menschlichen Polizisten einschalten. Dieser Mechanismus könnte sicherlich auch in einer Kinder-Online-Wache zum Einsatz kommen. Also eine explizit auf die Bedürfnisse von Kindern ausgerichtete digitale Wache, die etwa über einen Alarmbutton erreichbar ist. Schon ganz einfache Versuchsgespräche mit dem Voice-Modus von Chat-GPT zeigen, auf welcher auch für den Nutzer emphatisch wahrnehmbaren Ebene die KI zumindest verbal eine Meldung aufnehmen könnte. Wenn es dann noch gelingt, spezielle KIs für diese Zwecke zu trainieren, die dann auch auf polizeilichen Serverstrukturen laufen könnten, wären dies jedenfalls überlegenswerte Ansätze. Vielleicht auch hier der Hinweis, dass Studien, unter anderem aus dem medizinischen Bereich, zeigen, dass die Antworten von KI teilweise als emphatischer empfunden werden als die von Menschen. Es spricht wenig dagegen, diese Ergebnisse auch auf Sicherheitsbehörden zu übertragen.
DP: Das klingt nach mehr Arbeit.
Rüdiger: Ja. Man muss sich darüber im Klaren sein, dass, wenn Konzepte wie virtuelle Streifenpolizisten, automatisierte Anzeigen, leicht zugängliche und nutzerfreundliche Internetwachen oder Ähnliches umgesetzt werden, dies sicherlich zu einem deutlichen Anstieg der Anzeigen führen könnte. Das würde wiederum dazu führen, dass die Landes- und Bundesinnenpolitik hohe gestiegene PKS-Fallzahlen aushalten müsste. Ich glaube aber, dass wir jetzt vor einer Chance stehen, auch die Sicherheitsbehörden als Akteure im digitalen Alltag der Menschen zu positionieren. Denn eines muss man auch deutlich sagen: Generationen von Internetnutzern sind bereits mit einer Normalität von Kriminalität im digitalen Raum aufgewachsen, die sie so aus dem analogen Raum wahrscheinlich nicht kennen. Nur ein Beispiel: Nach einer Studie der Landesanstalt für Medien NRW zu digitaler Hasskriminalität gaben im letzten Jahr zwar über 90 Prozent der jungen Menschen an, mit digitaler Hassdelikten konfrontiert worden zu sein, die Frage, ob dies bei der Polizei angezeigt wurde, sank jedoch von 1 Prozent auf 0 Prozent im Jahr 2023. Die Polizei scheint hier kaum noch wahrgenommen zu werden, vielleicht auch, weil es einfachere Möglichkeiten der Anzeige gibt, wie Meldestellen von zivilen Institutionen.
DP: Erkennen Sie noch weitere Hürden?
Rüdiger: Letztlich stellt sich auch die Grundsatzfrage, ob länderspezifische Polizeistrukturen in einem globalen digitalen Raum überhaupt noch die richtige Antwort auf diese digitale Massenkriminalität sind. Ganz plastisch gesagt: Warum soll es sinnvoll sein, dass 16, auch kleine Länderpolizeien, mit ihren überschaubaren Ressourcen gleichzeitig im digitalen Raum unterwegs sind? Vielleicht muss man hier wirklich über eine klare Bundeszuständigkeit diskutieren. Das könnte dann etwa in einer einzigen zentralen Internetwache münden, die die Anzeigen an die Länder verteilt, in zentral gebündelten Scheinkind-Operationen oder auch in bundesweit virtuellen Polizeistreifen. Von einer polizeilichen Gefahrenabwehr im digitalen Raum will ich da noch gar nicht sprechen.
DP: Aber Sie sprachen auch über die schiere Menge der Fälle.
Rüdiger: Selbst, wenn wir die Ressourcen auf Bundesebene bündeln würden, wäre die Masse derzeit nur schwer zu bewältigen. Das zeigt schon die hohe Zahl der Missbrauchsmeldungen, die über NCMEC (National Center for Missing & Exploited Children) gemeldet werden. Mittlerweile gibt es sogar Projekte, bei denen Hassbotschaften durch KI gefiltert und automatisch der örtlichen Polizei zur Anzeige gebracht werden. Teilweise sollen hier 1.000 Anzeigen pro Monat eingehen, auch die Polizei spricht von einer echten Herausforderung. Was aber, wenn demnächst immer mehr zivile Akteure beginnen, das digitale Dunkelfeld mittels KI selbst aufzuhellen und so massenhaft Anzeigen generieren? Auch weil sie vielleicht das Gefühl haben, dass die Sicherheitsbehörden zu wenig gegen die digitale Massenkriminalität tun? So könnten beispielsweise auch Phishing-E-Mails durch KI gesichert und dann automatisch an die Polizei weitergeleitet werden. Ähnliche Entwicklungen gibt es beispielsweise auch im Bereich des Cybergroomings, wo sich zivile Akteure als Kinder ausgeben, um Täter zu überführen. Man könnte auch vermuten, dass mit dieser Entwicklung das von Popitz beschriebene Konzept der präventiven Wirkung von Nichtwissen durchbrochen wird.
DP: Lässt sich die Polizei Ihrer Meinung nach ausbooten?
Rüdiger: Das ist aus meiner Sicht eine schwierige Situation, weil es auf der einen Seite zeigt, dass die Kriminalpolitik zumindest das Clearweb – im Gegensatz zum Darknet und zu den organisierten Formen der digitalen Kriminalität, wo es immer wieder sehr gute polizeiliche Aktionen gibt – eher stiefmütterlich behandelt und offenbar zu wenig Ressourcen umgeschichtet hat. In unserem letzten Interview hatte ich davor gewarnt, dass, wenn die Sicherheitsbehörden das nicht tun, später andere Akteure auf den Plan treten könnten. Eine Entwicklung, die die obigen Beispiele vielleicht schon aufzeigen. Im Umkehrschluss würde sich die Frage stellen, ob die Sicherheitsbehörden überhaupt in der Lage wären, das digitale Dunkelfeld seriös zu bearbeiten. Denn durch KI könnte dieses in Zukunft tatsächlich in einem bisher nicht gekannten Ausmaß aufgehellt werden. Letztlich könnten die Sicherheitsbehörden – nicht zuletzt aufgrund des zumindest für die Polizei als erstem Ansprechpartner absolut geltenden Legalitätsprinzips – mit der Anzeigenflut überrollt werden.
DP: Ich traue mich kaum, die Personalfrage zu stellen.
Rüdiger: Zurecht. Das mit eigenen Personalressourcen bewältigen? Im Moment wohl kaum vorstellbar. Oder man setzt auch hier KI ein. Die Polizei könnte die massenhaft zur Anzeige gebrachten Straftaten sicherlich mit KI automatisiert bearbeiten und dann ebenfalls massenhaft an die Staatsanwaltschaft weiterleiten. Und was würde diese tun? Die müsste wahrscheinlich auch KI einsetzen, um das selbst massenhaft abzuarbeiten. Dann geht diese Masse zu den Gerichten. Auch dort würde KI zum Einsatz kommen. Es gibt bereits Projekte, KI in Gerichten einzusetzen. Das klingt nicht unrealistisch, aber es stellt sich dann die Frage, wo der Mensch im gesamten Strafverfahren noch eine Rolle spielt. Eine vollständig automatisierte Bearbeitung von Straftaten?
DP: Haben Sie eine Antwort auf Ihre Frage?
Rüdiger: Eigentlich nicht, aber in vielen Berufen gibt es derzeit die Diskussion oder auch die Angst, dass KI und Roboter Arbeitsplätze gefährden. Aus meiner Sicht nicht ganz zu Unrecht. Wenn wir das so weiterdenken, dann wird es in Zukunft sicherlich auch in der Kriminalpolitik eine solche Diskussion geben. Es gibt eine interessante Seite einer Forschungseinrichtung der Bundesagentur für Arbeit, auf der Menschen aus eigener Erfahrung angeben, wie viele Bereiche des eigenen Berufs aus ihrer Sicht durch KI automatisiert werden könnten. Bei Polizeiberufen sind es im Schnitt 40 Prozent. Denken Sie nur an all die Verwaltungsaufgaben, Ermittlungsakten und so weiter. Wie lange würde es dauern, bis die Politik merkt, dass sie durch die Auslagerung von automatisierbaren Tätigkeiten weniger einstellen muss und damit Personalkosten sparen könnte?
DP: Eine berechtigte Frage, aber ist diese Technisierung mit menschlichen Ansprüchen kompatibel?
Rüdiger: In den Sicherheitsbehörden, aber auch in der Gesellschaft, wird es aus meiner Sicht auf den Begriff der Akzeptanz hinauslaufen. Wie viel KI oder gar den Einsatz von Robotern beispielsweise im Polizeidienst wird die Gesellschaft möglicherweise fordern und auch akzeptieren? Was werden die Menschen in den Sicherheitsbehörden an Automatisierung selbst akzeptieren?
DP: Könnten Sie das näher beschreiben?
Rüdiger: Als Gedankenspiel könnte man hier die sich abzeichnende Automatisierung des Straßenverkehrs heranziehen, die langfristig auf uns zukommen wird. Aus der Unfallforschung wissen wir, dass rund 90 Prozent der Verkehrsunfälle auf menschliches Fehlverhalten zurückzuführen sind. Das Unfallrisiko bei Einsatzfahrten ist noch deutlich höher. Studien zu voll- und teilautomatisierten Fahrzeugen zeigen, dass automatisierte Fahrzeuge die Zahl der Verkehrsunfälle deutlich reduzieren könnten. Wie lange wird es da noch dauern, bis man auf die Idee kommt, KI-gesteuerte, also automatisierte Einsatzfahrzeuge einzusetzen? Das würde in Zukunft vermutlich das Risiko auch bei Einsatzfahrten senken. Aber werden die Polizistinnen und Polizisten akzeptieren, dass der Streifenwagen vollautomatisch zum Einsatzort fährt und sie nur noch als Beifahrer zum Einsatz bereit sind? Aber in der Diskussion mit Kolleginnen und Kollegen erlebe ich oft die Situation, dass dann gesagt wird, nein, ich verlasse mich auf mich, ich bin schon der bessere Fahrer. Und dann ist da noch die Frage der Verfolgungsfahrten. Will ich das einer KI überlassen?
DP: Zumindest gibt es schon Erfahrungen mit voll automatisierten Fahrzeugen.
Rüdiger: In China und den USA sind bereits vollautomatische Robotertaxis unterwegs. Das amerikanische Unternehmen Waymu, das inzwischen fast so viel wert ist wie Volkswagen, hat bekannt gegeben, dass es 150.000 vollautomatische Taxifahrten pro Woche durchführt. In China gab es übrigens kürzlich ein interessantes Phänomen: Menschliche Taxifahrer beschwerten sich über Robotertaxis. Sie kritisierten unter anderem, dass die Straßen zunehmend verstopft seien. Warum? Weil sich die Robotertaxis strikt an die Verkehrsregeln hielten.
DP: Ihre Prognose für unser Land?
Rüdiger: In vielleicht zehn Jahren werden wir auch hierzulande immer mehr teil- und voll automatisierte Autos – auch Robotertaxis – auf den Straßen sehen. Immerhin hat BMW mit dem 7er das automatisierte Fahren auf deutschen Autobahnen bereits eingeführt. Doch was bedeutet das für die Polizei? Wahrscheinlich wird es weniger Verkehrsverstöße geben, denn viele Verstöße haben mit überhöhter Geschwindigkeit zu tun, und die werden durch automatisierte Fahrzeuge vermutlich immer seltener. Aber die Einnahmen aus diesen Verstößen werden wahrscheinlich sinken. Das trifft dann auch die Kommunen. Aber muss die Polizei dann überhaupt noch mit der gleichen Intensität Verkehrs- und Geschwindigkeitskontrollen durchführen? Muss das in der Polizeiausbildung und im Studium noch so intensiv behandelt werden? Und benötigt der Autofahrer dann überhaupt noch einen Führerschein? Das wird dann auch bei Verkehrsdelikten eine Rolle spielen.
DP: Sie sprachen bereits von Akzeptanz. Wollen wir den Robocop?
Rüdiger: Die Frage des Einsatzes von Robotern mit künstlicher Intelligenz im Polizeidienst wird meiner Meinung nach in Zukunft tatsächlich auf uns zukommen. Meine Prognose ist, dass wir auf eine Situation zusteuern, in der Roboter auch im täglichen Polizeidienst keine Ausnahme mehr sein werden. Und wir sind gar nicht so weit davon entfernt. Sowohl Nordrhein-Westfalen als auch Baden-Württemberg testen den Roboterhund „Spot“. Er soll beispielsweise in vermeintlichen Gefahrensituationen oder an unzugänglichen Einsatzorten zum Einsatz kommen. Auch hier lohnt sich ein Blick in die USA und nach Asien. In den USA und in China gibt es bereits verschiedenste Roboter, die im Polizeidienst und in einer Art Patrouillendienst aktiv sind. Natürlich befindet sich diese Entwicklung noch in einem sehr frühen Stadium, aber sie wird vermutlich kommen. China hat gerade die Massenproduktion von humanoiden Robotern angekündigt. Vor allem die Kombination mit aktuellen KI-Entwicklungen wird dies weiter vorantreiben. Und wenn diese Roboter dann auch noch über entsprechende Software kommunizieren können, wie man es bereits mit dem Sprachmodus von Chat-GPT selbst erleben kann, dann wird auch eine echte Interaktion mit Menschen möglich.
DP: Wie nah ist die Zukunft?
Rüdiger: Ein bekanntes Video des humanoiden Roboters Figure 01 mit Chat-GPT hat diese mögliche Entwicklung bereits eindrucksvoll gezeigt – wie Roboter mit Menschen interagieren können. Die Vorteile liegen auf der Hand, KI und Roboter brauchen keinen Urlaub, sie müssen nur aufgeladen werden, sind nicht krank, sondern benötigen allenfalls Wartungsintervalle und Updates. Roboter im Polizeidienst könnten mit einem morgendlichen Update immer auf den neuesten Rechtsstand gebracht werden, was ein Mensch wohl nicht könnte. In den USA ist jetzt der erste Fall bekannt geworden, in dem ein Polizeiroboter einen Verdächtigen in ein Wohnhaus verfolgt hat und von diesem beschossen wurde. Dennoch konnte der Täter überführt werden. Dies zeigt, dass Roboter in kritischen Einsatzsituationen auch unter Beschuss eingesetzt werden könnten, ohne dass dabei ein Polizist schwer verletzt oder gar getötet wird. All dies wirft jedoch immense datenschutzrechtliche und letztlich ethische Fragen auf, über die unsere Gesellschaft, aber auch die Sicherheitsbehörden grundsätzlich nachdenken und diskutieren müssen.
DP: Und die Wirkung nach innen?
Rüdiger: Auch innerdienstlich werden sich immense Fragen stellen. So deuten Studien darauf hin, dass Menschen in Unternehmen tatsächlich einen Roboter oder eine KI als Führungskraft bevorzugen würden. Warum? Weil dieser, je nach Datengrundlage, eher neutral und objektiv agiert. Denken wir hier nur einmal an das Beförderungswesen, da könnte ich mir vorstellen, dass ein objektives und neutrales Bewertungssystem bei vielen Anklang finden könnte. Die Polizei bewegt sich im digitalen Raum und mit dem Einsatz von KI auf die Frage von Identität, Akzeptanz und Authentizität zu. Letztlich geht es darum, was einen Polizisten ausmacht.
Die eigentliche KI-Revolution, zumindest für den analogen Raum, die aus der Kombination von KI und Robotik bestehen wird, steht uns aber erst noch bevor und wird zunächst nicht bei uns, sondern im asiatischen und US-amerikanischen Raum stattfinden. Erst dann wird sie zu uns überschwappen. Aber ich glaube, wir sind gut beraten, uns jetzt schon darauf vorzubereiten.
DP: Welche wahrscheinlichen Szenarien kommen noch auf uns zu?
Rüdiger: Ich könnte mir gut vorstellen, dass Polizisten eine Art persönliche KI zur Seite gestellt bekommen. Die würde etwa über eine Bodycam oder Ähnliches bei Einsätzen dabei sein und dann relevante Informationen für den Polizisten, zum Beispiel für Ermittlungs- und Einsatzdokumentationen, aufbereiten. Dieser Bericht muss dann nur noch durch den Polizisten nachkontrolliert werden.
DP: Wird es noch ein Eckchen ohne KI geben?
Rüdiger: Bei der Kriminalitätsbegehung vielleicht noch bei ganz wenigen rein analogen Deliktsfeldern. Bei der Polizeiarbeit hängt es erneut von der Akzeptanz ab. KI wird meiner Meinung nach allgegenwärtig sein, sowohl bei der Polizei als auch bei der Kriminalitätsbegehung. Die Menschen werden vielleicht eine Art „KI-Buddy“ haben, einen Begleiter, der ihr ganzes Leben wahrnimmt und immer weiß, wie er interagieren und handeln soll. KI wird als Werkzeug, als Ratgeber – für manche vielleicht auch als Partnerersatz – oder als Angriffsmittel eingesetzt werden. Und es wird kaum eine Form der Kriminalität geben, bei der KI nicht in irgendeiner Form eine Rolle spielen wird. Wir sehen schon heute, dass es kaum noch Straftaten gibt, bei denen digitale Komponenten keine Rolle spielen. Es gibt fast immer digitale Spuren, und es wird immer mehr KI darin verwoben sein.
DP: Sind wir schon bereit für die KI?
Rüdiger: Waren wir denn auf digitale Medien und Social Media vorbereitet? Der entscheidende Punkt ist für mich im Moment, dass wir die Gesellschaft und die Menschen mit Nachdruck auf dieses Zeitalter der KI vorbereiten, auch damit sie reflektierte Entscheidungen treffen können, wie sie dieses beschriebene Zusammenspiel gestalten wollen. Das geht aus meiner Sicht nur, indem wir eine digitale Grundbildung vermitteln, zum einen verpflichtend ab der ersten Klasse in jeder Schule für die jungen Menschen und zum anderen in Bildungskampagnen für die Erwachsenen. Das hätte sicherlich auch den einen oder anderen charmanten kriminalpräventiven Effekt.
DP: Was entgegnen Sie Menschen, die vor der KI Angst haben?
Rüdiger: Die gesellschaftliche Diskussion schwankt derzeit in ihren Extremen tatsächlich zwischen Euphorie und Untergangsangst. Ich neige zu einer pragmatischen Sichtweise. KI und Roboter werden wahrscheinlich allgegenwärtig sein, so wie das Internet unser Leben durchdrungen hat. Das wird uns aber auch viele Chancen bieten, zum Beispiel in der Kriminalprävention. Die Büchse ist geöffnet, es gibt kein Zurück mehr. Es geht jetzt vielmehr darum, das Zusammenleben so sinnvoll und durchdacht wie möglich zu gestalten. Wahrscheinlich werden wir uns zum Beispiel irgendwann auch mit der Frage beschäftigen müssen, ob Handlungen von KI strafrechtlich bewertet werden können. Und wenn ja, was dann? Vielleicht reden wir in zehn Jahren wieder darüber? Aber um auf Ihre Frage zu antworten: Angst hätte ich davor nicht, aber Respekt.
DP: Vielen Dank für das Gespräch.
Prof. Dr. Thomas-Gabriel Rüdiger ist Leiter des Instituts für Cyberkriminologie an der Hochschule der Polizei des Landes Brandenburg. Seine Arbeits- und Publikationsschwerpunkte umfassen insbesondere digitale Risiken, digitale Kriminalprävention und Polizeiarbeit sowie die kriminalpolitischen Implikationen künstlicher Intelligenz. Darüber hinaus ist er in verschiedenen sozialen Medien präsent und informiert dort über aktuelle Herausforderungen und Entwicklungen in der digitalen Kriminalitätsbekämpfung.
Das Gespräch erschien als gedrucktes Interview in der Dezemberausgabe des GdP-Mitgliedermagazins „DEUTSCHE POLIZEI“.