Zum Inhalt springenZur Suche springen

Manchot-Forschungsgruppe "Entscheidungsfindung mit Hilfe von Methoden der künstlichen Intelligenz"

Use Case Wirtschaft

Die Anwendung Künstlicher Intelligenz (KI) zur Unternehmenssteuerung ist als Thema in Forschung und Praxis bereits etabliert, wobei eine beträchtliche Lücke zwischen potentiellen und realisierten Anwendungen besteht, insb. bei unternehmerischen Entscheidungen mit hoher Relevanz für das Unternehmen. Der Lehrstuhl für Controlling und Accounting beschäftigt sich hierbei mit der Verhaltensökonomie des KI-Einsatzes in Unternehmen.

Fortschritte bei der Konzeption von KI Methoden, die kostengünstige Verfügbarkeit immenser Rechenleistungen zusammen mit nie dagewesener Datenverfügbarkeit aus verschiedensten Quellen erlauben es, viele Entscheidungen im Unternehmen an eine KI zu delegieren bzw. eine Vorentscheidung treffen zu lassen. In der unternehmerischen Praxis werden KI-Methoden jedoch vorwiegend nur auf operative Routine-Entscheidungen angewendet, bei denen die Konsequenzen einer Fehlentscheidung sehr gering sind und das Auftreten von Fehlern z.B. während des Trainings der KI erwartbar und akzeptabel ist. Typische Anwendungen sind hier Produktempfehlungen.

Strategische unternehmerische Anwendungen, z.B. Prognosen eines Quartalsumsatzes, basieren auf weit weniger „Trainingsfällen“ und komplexeren Wirkungszusammenhängen, zudem sind die Konsequenzen einer Fehlentscheidung gravierend. 

Als ein zentraler Hinderungsgrund für die Akzeptanz von KI Output bei unternehmerischen Entscheidungen wird die Intransparenz der KI genannt. Anwender von KI-Prognosen für zentrale unternehmerische Themen müssen in der Lage sein, ihre Entscheidungen zu rechtfertigen, tragen sie doch die unternehmerische wie auch rechtliche Verantwortung. Output einer KI, etwa eine Prognose, mag sehr genau sein, in der Regel ist sie jedoch weder begründbar, noch, vor allem im Falle einer Fehlprognose, rechtfertigbar. Alleine die faktische Leistungsfähigkeit einer KI führt in vielen Situationen gerade nicht zwangsläufig zur Akzeptanz ihrer Prognosen. Die gegenläufigen Entwicklung von Leistungsfähigkeit der KI und ihrer Verständlichkeit verstärkt dieses Problem: KI-Algorithmen werden immer leistungsfähiger, auch für Themenstellungen mit geringer Datenbasis, gleichzeitig aber auch immer weniger nachvollziehbar.

Während sich die Informatik unter der Fragestellung der Explainable AI damit beschäftigt, wie eine Prognose oder Klassifikation durch eine KI z.B. durch eine Rekonstruktion der Entscheidungsmechanismen erst erklärbar gemacht werden kann, ist aus der anwendungsorientierter Sicht noch offen, was eine Erklärung ist und welche Strukturen und Informationen sie aufweisen muss, um als vertrauensbildendes Signal zu fungieren welches in Verwendung resultiert. Das Projekt des Lehrstuhls im Rahmen der Forschungsgruppe zielt darauf ab, diese Frage mittels experimenteller Studien mit Praktikern zu bearbeiten.

Weitere Informationen zur Manchot-Forschungsgruppe finden Sie hier und auf der Seite des HeiCAD.

Verantwortlichkeit: