
Dortmund: Polizei warnt vor täuschend echten Deepfakes
Die Polizei Dortmund verzeichnet immer mehr Fälle von manipulierten Fotos und Videos. Durch Künstliche Intelligenz werden selbst Schulkinder Opfer sogenannter Deepfakes.
Veröffentlicht: Mittwoch, 08.04.2026 03:58
Polizei Dortmund: Deepfakes inzwischen kaum zu erkennen
Spätestens seit den Vorwürfen von Collien Fernandes gegen ihren Ex-Mann Christian Ulmen ist klar: Deutschland hat ein Problem mit Deepfakes. Deepfakes sind manipulierte Bilder, Videos oder Audios. Auch die Polizei Dortmund hat immer wieder mit solchen Deepfakes zu tun. Und die sind mittlerweile täuschend echt, sagt Marcel Wessollek vom Kommissariat Kriminalprävention und Opferschutz.
Früher haben wir noch gesagt, man kann Deepfakes relativ gut erkennen an schattigen Umrandungen. Das ist heute nicht mehr so. Also mittlerweile gibt es auch Tools, auch Bezahltools, wo man eigentlich keine Unterschiede mehr sehen kann.
Kinder und Jugendliche in Dortmund von Deepfakes betroffen
Es dauert eine Minute, ein Deepfake zu erstellen – den Schaden bei den Betroffenen dann zu reparieren, das dauert Jahre. Wenns überhaupt irgendwann verheilt. Marcel Wessollek von der Polizei Dortmund sagt, dieses Phänomen gibt es auch bei uns in Dortmund.
Wir haben immer wieder Fälle, auch im Bereich der Schule, wo es zu Deepfakes kommt, wo dann auch in Einzelfällen Mitschülerinnen und Schüler bestimmte Fotos von Klassenkameraden verwenden, um dort über Apps, sogenannte Nude-Apps, dann diese Kinder oder Jugendlichen halt auch auszuziehen und nackt zu machen.
Polizei Dortmund: Auch Deepfakes von Geschäftsführer
Das Problem fängt also schon in der Schule an. Und auch schon Kinder ab 7 Jahren sind zumindest zivilrechtlich haftbar. Es kann also durchaus zu Geldstrafen kommen. Marcel Wessollek beschreibt auch, was es für Fälle in Dortmund gibt:
Also in erster Linie hatten wir jetzt Fälle, wo dann quasi wirklich Gesichter verwendet wurden oder Köpfe auf nackte Personen drauf montiert wurden oder halt auch entsprechend das Gesamtfoto genommen wurde und dann ausgezogen beziehungsweise nackt gemacht wurde per KI.
Diese Fotos und Videos sind mittlerweile täuschend echt, sagt Wessollek. Und betroffen sind nicht nur Frauen und Kinder. Wessollek hat auch schon Deepfake-Fälle bei Geschäftsführern erlebt.
Tipps der Polizei Dortmund
Die gute Nachricht an dieser wirklich schlimmen Sache ist: Ihr seid dem nicht komplett hilflos ausgeliefert, sagt das Kommissariat Kriminalprävention. Das gibt euch gerne Tipps, wie ihr zum Beispiel eure Fotos und Videos auf Social Media besser schützen könnt. Einen Link findet ihr hier.