Täuschend echt: Deepfakes als Risiko für Vertrauen und Prüfungssicherheit
News
Bildquelle: Smile Studio AP (Adobe Stock)
07/11/2025
| Datenanalyse und Künstliche Intelligenz
| Deepfake
KI-generierte Bilder, Stimmen und Dokumente können Manipulationen kaum noch erkennen lassen – mit Folgen für Vertrauen, Kommunikation und Prüfungssicherheit. Wie sich der Berufsstand auf diese neue Bedrohung vorbereitet, welche Schutzmaßnahmen greifen und welche Rolle Wirtschaftsprüfer als „Wächter des Vertrauens“ einnehmen können, erläutert die aktuelle IDW Life im November-Schwerpunkt „Deepfakes“.
Künstliche Intelligenz eröffnet Chancen – aber auch neue Risiken. Deepfakes zeigen, dass digitale Effizienz stets mit kritischer Wachsamkeit einhergehen muss. In Zukunft wird KI nicht nur Daten analysieren, sondern auch Authentizität prüfen und Vertrauen bewerten helfen. Doch die Beurteilung, was echt, relevant und verlässlich ist, bleibt Aufgabe des Menschen und damit Kernkompetenz der Wirtschaftsprüferinnen und Wirtschaftsprüfer.
Den vollständigen Beitrag von Alexander Geschonneck lesen Sie in der Ausgabe 2025/11 der IDW Life – zusammen mit weiteren Artikeln rund um den Themenschwerpunkt „Deepfakes und digitale Täuschung“, u.a. zu Prävention, forensischer Erkennung und neuen Sicherheitsstandards für Unternehmen.
Die Plattform SOLON X bietet Wirtschaftsprüfungsgesellschaften aller Größen einen Überblick und Zugang zu digitalen Tools und Services, die speziell auf die Branche zugeschnitten sind und eine sichere, effiziente digitale Transformation unterstützen – sowohl in der eigenen Praxis als auch bei der Mandatsarbeit.
Wenn das Digitale täuscht – neue Herausforderungen für Unternehmen und Prüfer
Bilder, Stimmen und ganze Videos lassen sich heute so realitätsnah fälschen, dass sie kaum noch vom Original zu unterscheiden sind. Deepfakes – von KI erzeugte oder veränderte Inhalte – haben sich vom Internetphänomen zum systemischen Risiko entwickelt. Laut einer Bitkom-Studie fürchten über 80 % der Deutschen, Deepfakes nicht erkennen zu können. Die Folgen reichen von Manipulation in sozialen Medien über Reputationsverluste bis zu gezielten Betrugsfällen in Unternehmen.
Neue Angriffsformen: Wenn KI zur Betrugsmaschine wird
Neue Angriffsformen: Wenn KI zur Betrugsmaschine wird
Wie gefährlich das werden kann, schildern Expertinnen und Experten in der November-Ausgabe der IDW Life. Stefanie Lösing vom LKA NRW beobachtet eine Zunahme von Cybertrading- und CEO-Frauds: In täuschend echten Videokonferenzen oder Telefonaten geben sich Täter als Vorgesetzte aus und veranlassen Mitarbeitende zu Überweisungen oder sie locken über Deepfake-Testimonials in betrügerische Krypto-Investments.
Auch Voice Cloning und KI-gestützte Social-Engineering-Angriffe spielen Betrügern in die Hände. Wie Rüdiger Kirsch von Allianz Trade erläutert, genügt heute ein kurzer Audioausschnitt, um eine Stimme zu imitieren. Selbst kleine und mittelständische Unternehmen geraten zunehmend ins Visier, weil die Einstiegshürden so niedrig sind.
Deepfakes im Prüfungskontext: Gefahr für Prüfungsnachweise
Alexander Geschonneck, Partner und Global Head of Forensic bei KPMG, beschreibt im Life-Beitrag, wie Deepfakes auch die Abschlussprüfung verändern. KI kann Belege, Zertifikate oder E-Mails realistisch manipulieren. Damit wächst das Risiko, dass Prüfer gefälschte Informationen als echt bewerten.
Er empfiehlt, Deepfake-Risiken bereits in der Risikobeurteilung zu berücksichtigen und technische wie organisatorische Maßnahmen zu kombinieren:
- Sensibilisierung und Schulungsmaßnahmen
- Verlässliche Prüfungsnachweise bevorzugt aus unabhängigen Quellen
- Zwei-Faktor-Authentifizierung bei virtuellen Gesprächen
Technische Gegenmaßnahmen und Prävention
Professor Martin Steinebach vom Fraunhofer Institut für Sichere Informationstechnologie betont, dass Unternehmen manipulationssichere Frameworks wie C2PA und digitale Wasserzeichen nutzen sollten, um die Herkunft digitaler Inhalte nachweisbar zu machen.
Doch die Technik allein reicht nicht: Aufklärung und Medienkompetenz sind laut Leah Schrimpf vom Landeskriminalamt NRW die wichtigsten Präventionsinstrumente. Wer weiß, dass Deepfakes existieren und wie sie wirken kann sich schützen.
Fazit: Wächter des Vertrauens
Deepfakes sind längst kein Nischenthema mehr. Sie bedrohen Glaubwürdigkeit und wirtschaftliche Stabilität. Für den Berufsstand der Wirtschaftsprüfer bedeutet das, Vertrauen aktiv zu sichern – durch kritische Grundhaltung, Weiterbildung und Einsatz moderner Erkennungs-Tools.
Tipp: Vertiefen Sie das Thema beim IDW Digital Summit 2025 am 14.11. – mit spannenden Vorträgen zu KI, Deep Fakes und Fake News. Bis 12.11.2025, 12 Uhr, anmelden und Platz sichern! – oder informieren Sie sich im IDW Positionspapier „Fake News – Risiken und Handlungsbedarf“.
Weitere Artikel
Wir setzen auf unserer Webseite Cookies ein, die zur Sicherheit und Funktionalität der Webseite erforderlich sind. Soweit Sie auf die Schaltfläche „Alle Cookies akzeptieren“ klicken, werden alle von uns gesetzten Cookies angenommen.
Ihre Einwilligung umfasst auch den Einsatz von Matomo Cookies, die uns Informationen über die Webseitennutzung geben. Weitere ausführliche Informationen dazu finden Sie in unserer Datenschutzerklärung.
Natürlich können Sie eine abgegebene Einwilligung auch jederzeit ohne Angabe von Gründen widerrufen.
Soweit Sie auf die Schaltfläche Konfigurieren klicken, können Sie Ihre jeweilige Zustimmung zum Einsatz nicht erforderlicher Cookies im Einzelfall wählen.