Warum Reasoning-Modelle die Wirtschaftsprüfung verändern
News
Bildquelle: Elena Butus (Adobe Stock)
23/01/2026
| Abschlussprüfung und Assurance
| Reasoning-Modell
Während klassische Sprachmodelle lediglich wahrscheinliche Wörter aneinanderreihen, bearbeiten Reasoning-Modelle Aufgaben Schritt für Schritt, prüfen alternative Lösungswege und reflektieren ihre Ergebnisse, bevor sie eine Antwort formulieren. Dieser Unterschied mag klein erscheinen, hat aber enorme Auswirkungen – vor allem in komplexen Bereichen wie der Wirtschaftsprüfung. Anwendungsmöglichkeiten und deren Grenzen beleuchten Dr. Camilla Fiallo und WP StB Dipl.-Kfm. Hagen Müller in der WPg.
Dieser Blogbeitrag wird in Kooperation mit der Fachzeitschrift „Die Wirtschaftsprüfung“ zur Verfügung gestellt. Es handelt sich um eine redaktionell stark gekürzte Fassung. Den vollständigen Artikel lesen Sie in der WPg 23/2025, S. 1351.
Die Plattform SOLON X unterstützt die Wirtschaftsprüfungs- und Steuerberatungsbranche bei der digitalen Transformation mit praxisnahen Tools und Services zur Integration von KI-Technologien in Prüfungsprozesse.
Lesen Sie mehr zum Thema KI
Zwischen Hype und Realität
Reasoning-Modelle erkennen auch bei unvollständigen Informationen den Kern einer Aufgabe, prüfen vor dem Antworten unterschiedliche Lösungsansätze und sind darauf trainiert, ihre Ergebnisse eigenständig zu verifizieren. Während klassische Modelle schnell und günstig sind, aber meist detaillierte Instruktionen benötigen, entfalten Reasoning-Modelle ihre Stärke vor allem bei komplexen, mehrdeutigen Aufgaben, bei denen Genauigkeit und Transparenz entscheidend sind.
Potenzial für die Wirtschaftsprüfung
Besonders in der Wirtschaftsprüfung zeigt sich der Vorteil von Reasoning-Modellen. Indem sie ihre Gedankengänge offenlegen, machen sie Schlussfolgerungen nachvollziehbar und prinzipiell prüffähig. Bei Lageberichten lassen sich Widersprüche leichter erkennen, und bei Datenanalysen liefern Reasoning-Modelle nicht nur Ergebnisse, sondern auch detaillierte Arbeitsschritte, inklusive Python-Code und Hinweisen auf weiterführende Prüfungshandlungen. Damit erhöhen sie die Nachvollziehbarkeit erheblich und unterstützen Prüfer bei komplexen Urteilen. Gleichzeitig verschiebt sich das Kompetenzprofil: Nicht nur Fachwissen zählt, sondern auch die Fähigkeit, Prompts präzise zu formulieren, KI-Ergebnisse kritisch zu hinterfragen und Risiken wie Bias oder Halluzinationen zu erkennen.
Risiken und Grenzen
Trotz ihrer strukturierten Denkweise bleiben Reasoning-Modelle probabilistische Werkzeuge. Sie können überzeugend argumentieren, auch wenn die Argumentation falsch ist. Zudem bleibt unklar, ob die präsentierte „Chain of Thought“ den tatsächlichen internen Rechenweg widerspiegelt oder nur plausibel wirkt. Diese Intransparenz ist besonders kritisch, wenn KI für prüfungsrelevante Entscheidungen eingesetzt wird. Organisationen müssen daher verstehen, dass Reasoning KI nicht das professionelle Urteilsvermögen ersetzt, sondern als Werkzeug dient, das Expertise unterstützt und Entscheidungen fundierter macht.
Angesichts potenzieller Risiken heben Fiallo/Müller hervor, dass Reasoning-Modelle nicht das professionelle Urteilsvermögen ersetzen können, sondern als leistungsstarke Assistenzsysteme verstanden werden sollten.
Weitere Artikel
Wir setzen auf unserer Webseite Cookies ein, die zur Sicherheit und Funktionalität der Webseite erforderlich sind. Soweit Sie auf die Schaltfläche „Alle Cookies akzeptieren“ klicken, werden alle von uns gesetzten Cookies angenommen.
Ihre Einwilligung umfasst auch den Einsatz von Matomo Cookies, die uns Informationen über die Webseitennutzung geben. Weitere ausführliche Informationen dazu finden Sie in unserer Datenschutzerklärung.
Natürlich können Sie eine abgegebene Einwilligung auch jederzeit ohne Angabe von Gründen widerrufen.
Soweit Sie auf die Schaltfläche Konfigurieren klicken, können Sie Ihre jeweilige Zustimmung zum Einsatz nicht erforderlicher Cookies im Einzelfall wählen.