Jump to contentJump to search

Paper „Usage of Artificial Intelligence-based Forecasting Tools in Management Accounting: The Role of Origin, Accuracy, and Explainability" von Sonja Emme, Dr. Dr. Peter Kotzian und Prof. Dr. Barbara E. Weißenberger auf der EAA in Bergen vorgestellt

Vom 11. bis zum 13. Mai fand die EAA, die Konferenz der European Accounting Association, nach drei Jahren wieder in Präsenz statt. Der Austragungsort der Konferenz in 2022 war Bergen in Norwegen. Seitens des Lehrstuhls konnten Prof. Dr. Barbara E. Weißenberger sowie Sonja Gabriele Emme und Mark Alexander Sutton die Konferenz besuchen und ihre Forschungsprojekte auf der Konferenz einem internationalen Publikum von rund 1200 Teilnehmerinnen und Teilnehmern präsentieren. Sonja Emme stellte dabei in einem Management Accounting Research Forum das Ergebnis eines Forschungspapiers vor, welches in Zusammenarbeit mit Dr. Dr. Peter Kotzian und Prof. Dr. Barbara E. Weißenberger entstand. Im Rahmen des Papiers wurde untersucht, inwiefern menschliches Vertrauen in eine künstliche Intelligenz im Controlling und Accounting besteht. Untersucht wurde diese Fragestellung anhand einer zweistufigen Studie, basierend auf experimentellen Ansätzen, die sich fachlich auf den Schwerpunktbereich des Forecastings bezogen. Dargestellt wurde insbesondere ein im Rahmen der Studie offengelegtes Vertrauenshandicap, welches sich besonders auf den Schwerpunkt der Dateninterpretation seitens einer KI bezieht. Hier zeigte sich, dass auch wenn Menschen deutlich erkennen, dass eine künstliche Intelligenz in der Vergangenheit eine signifikant bessere Performance zeigte, sie dennoch dazu tendieren dieser nicht zu vertrauen und einen menschlichen Controller einer künstlichen Intelligenz im Controlling vorziehen. Zudem zeigte sich, dass von Menschen erstellte Prognosen keine zusätzlichen Erklärungen, beispielsweise zum Zustandekommen der jeweiligen Prognose, benötigen, um für den Nutzer glaubwürdig zu sein. Prognosen, die von einer künstlichen Intelligenz erstellt wurden, werden allerdings nur dann überhaupt als relevant angesehen, wenn sie zum einen eine deutliche bessere Performance in der Vergangenheit gezeigt haben, aber vor allem auch zusätzlich eine Erklärung über die Funktionsweise mitgeliefert wird. Hier zeigte sich auch, dass Erklärungen über die Funktionsweise einer künstlichen Intelligenz für die Menschen auch als Rechtfertigungsgrundlage fungieren können und offenbar für die eigene Validierung der Entscheidung, aber auch als Argumentationsgrundlage anderen Menschen gegenüber dienen können.

Kategorie/n: WiWi-Accounting-Aktuell
Responsible for the content: