Deepfakes – abgeleitet von den Begriffen Deep Learning und Fake – sind simple aber bösartige Mittel der Manipulation von Bild-, Video oder Audiodateien, bei der biometrische Merkmale wie bspw. Aussehen oder Stimme von CEOs täuschend echt imitiert werden, sozusagen CEO-Fraud 2.0. Die Folgen eines erfolgreich durchgeführten Deepfake können für Unternehmen sowohl aus Datenschutzgründen als auch aus finanzieller Sicht verheerend sein.
Was sind Deepfakes?
Grundsätzlich versteht man unter Deepfakes ein mit Hilfe künstlicher Intelligenz hergestelltes Bild, Video oder eine Sprachsimulation. Dies wirkt augenscheinlich authentisch, ist es aber nicht. Der Unterschied zwischen einem originalen Video und der manipulierten Sequenz ist kaum zu erkennen.
Auch die unsachgerechte Verwendung einer aufgenommenen Sprachsequenz kann schon zu Manipulationen mittels Deepfake führen:
Der erste, öffentlich gewordene Betrugsfall ereignete sich bei einer britischen Gesellschaft, bei der der Geschäftsführer durch einen solchen Deepfake manipuliert wurde. Der angebliche Anruf des CEOs der deutschen Muttergesellschaft, welcher eine Transaktion über 220.000 Euro auf ein durch ihn angegebenes Konto beauftragte, stellte sich schlussendlich als Fälschung mit erheblichem Schaden dar. Betrüger haben mit einer Deepfake-Software die Stimme des CEO nachgeahmt. Man spricht in diesem Zusammenhang von einem „C-Level-Fraud“, einer Weiterentwicklung des klassisches E-Mail-Phishings.
Solche Deepfake-Software arbeitet im Hintergrund mit künstlicher Intelligenz und erstellen mit Hilfe von Machine Learning, genauer gesagt mit Deep-Learning-Algorithmen, die oben beschriebenen Fälschungen. Werden Videos manipuliert, wird die gefälschte Sequenz in Einzelbilder aufgesplittet und das zu fälschende Objekt analysiert. Bei dieser Analyse werden die gesplitteten Einzelbilder der Quelle und die des Ziels per Gesichtserkennung abgeglichen. Dieser Prozess ist das sog. Training. Am Ende wird dann das neue Zielobjekt über das ursprüngliche Original geblendet und im Film ersetzt.
Welche Bedrohungen können sich für Unternehmen ergeben?
Die Computersoftware zum Nachahmen von Gesichtszügen und Sprechweisen hat sich so schnell weiterentwickelt, dass die Produktion von Deepfakes keine anspruchsvolle Aufgabe mehr ist, aber eine zunehmend ernstzunehmende Gefahr darstellt - und zwar sowohl für Politik als auch für die Wirtschaft. Besonders hohe Gefahren verbergen sich für Unternehmen in den Bereichen Datenschutz, Finanzen und Personal. Die Zielsetzung eines Deepfakes kann die finanzielle Vorteilsnahme, Verletzung von Persönlichkeitsrechten, Anschuldigungen oder gefälschte Auseinandersetzungen sein. Selbst im privaten Umfeld könnte Deepfakes in spezieller Form des Enkeltricks Anwendung finden.
Neben den Gefahren des Geldabflusses durch Betrug oder Erpressung (z. B. Androhung von Pleitemeldungen), droht den Unternehmen durch Deepfakes bspw. die Manipulation von Vorstellungsgesprächen, die mittlerweile häufig über Videotelefonie oder Telefoninterviews stattfinden, sowie Datenpannen und Imageverlust. Weiterhin wird die Thematik „Fake News“ durch Manipulationen per Deepfakes immer kritischer und kann Einfluss auf Unternehmensentscheidungen nehmen.
Die Unterscheidung zwischen Original und Fälschung wird immer mühevoller. In vielen Fällen wird dies nur noch Experten gelingen. Zu beachten ist, dass die Schwachstelle hierbei der Mensch selbst bleibt. Es muss ein Maß an Sicherheitsbewusstsein bestehen, um eine Bedrohung durch Deepfakes zu enttarnen.
Die innovative Informationstechnik hinter Deepfakes bietet eine Menge Potential für viele Wirtschaftszweige, aber leider auch für viele Kriminelle. Die Technik muss durchaus kritisch betrachtet werden und stellt die Sicherheitsexperten vor große Herausforderungen. Noch bis vor ein paar Jahren war diese Art von Manipulation nur Softwareentwicklern und Video-Experten möglich. Heute können Bilder, Videos oder Tonsequenzen ganz einfach mit Hilfe von Desktop-Apps wie bspw. „Fake App“ erstellt werden.
Möglichkeiten zur Prävention
Im Sommer 2018 hat ein US-Forscher eine bis dato revolutionäre Methode veröffentlicht, Deepfakes im Vorhinein zu erkennen. Es handelt sich um eine Anti-Deepfake-KI, welche anhand der Lidschläge erkennen kann, ob es sich um eine Videofälschung oder ein Original handelt.
Allerdings müssen sich die Methoden zur Erkennung von Deepfakes mit der Weiterentwicklung der Deepfake-Techniken ständig verbessern. Es ist davon auszugehen, dass die Forensik-Werkzeuge heutzutage nur noch wenige Monate aktuell sind, wohingegen sie früher über Jahre aktuell waren. Durch die gezielte Weiterentwicklung von künstlicher Intelligenz werden Deepfakes zu immer natürlicheren und authentischeren Ergebnissen führen, woraus für Unternehmen, natürliche Personen und Politik immer größere Gefahren drohen.
Daher ist insbesondere das Sicherheitsbewusstsein (Security-Awareness) auch in diesem Zusammenhang ein sehr wichtiges Mittel, um dieser Gefahr zu begegnen. Es gilt im Unternehmen ein Bewusstsein zu schaffen und darzulegen, welche Präventionsmöglichkeiten es gibt. Dies gilt insbesondere auch für Deepfakes, da diese noch nicht die mediale Präsenz haben wie andere Methoden.