KI statt Code - Stirbt die Geschäftslogik?

KI statt Code - Stirbt die Geschäftslogik?

„…sie [KI Agenten] werden mehrere Datenbanken aktualisieren und die gesamte Logik wird sich in der KI-Schicht befinden…“, so beschreibt Microsoft CEO Satya Nadella die Zukunft von Software-as-a-Service-Anwendungen und nimmt im YouTube-Interview1 insbesondere Bezug auf Microsoft Dynamics.

In seiner Vision wird Geschäftslogik (am Server) zukünftig durch eine KI-Schicht ersetzt, welche selbständig mit Datenbanken interagiert. Doch wie weit sind wir (noch) von dieser Zukunft entfernt?

Das Potenzial

KI-getriebene Dienste bilden heute einen Meilenstein in der Softwareentwicklung und können die Entwicklungszeit für neue Features enorm beschleunigen. Insbesondere bei der Auswertung von umfangreichen Datenbeständen können Chatbots mit einer gut formulierten Anweisung (Prompt) beeindruckende Ergebnisse liefern.

Auch in Hinblick auf Integration von eigenen Datenquellen und der Antwortgenerierung wurden KI-Technologien außerordentlich gut nutzbar gemacht. So können Daten aus dem Unternehmenskontext beispielsweise über das Model Context Protocol standardisiert bereitgestellt werden. Dies ermöglicht die Anbindung unterschiedlicher KI-Modelle und -Dienste. Mittels Retrieval-Augmented Generation (RAG) hingegen kann die Genauigkeit und Relevanz der Antworten von Sprachmodellen (LLMs) verbessert werden.

Dass KI- bzw. Sprachmodelle somit ein spannendes Werkzeug für die rasche Umsetzung von Funktionalität sind, lässt sich nicht bestreiten. Doch was ist die Kehrseite dieser neuen Technologie? Wie vertrauenswürdig sind die beeindruckenden Ergebnisse von LLMs?

Die Kehrseite

Während wir bei herkömmlich (also von Menschen) implementierten Funktionen üblicherweise von einem deterministischen Verhalten ausgehen, sind Antworten von KI-Modellen grundsätzlich nicht deterministisch. So können Sprachmodelle beim erneuten Stellen einer Frage eine abweichende Antwort liefern. Ein weiteres Merkmal ist, dass Sprachmodelle nur sehr selten „gestehen“, dass sie etwas nicht wissen oder nicht genügend Informationen für eine Antwort haben.

Man könnte sagen, sie versuchen die bestmögliche Antwort auf Basis der vorhandenen Informationen zu geben. Leider führt dies auch teilweise zu falschen Antworten, die aber nicht als solche erkennbar sind und als Fakten dargestellt werden (sogenannte Halluzinationen). Um die Qualität der Antworten zu erhöhen, können individuelle Anpassungen vorgenommen werden, was wiederum die Attraktivität der Technologie beeinträchtigt.

Ein ähnliches Bild zeichnet sich aktuell, wenn KI-Modelle schreibende Operationen auf Datenbestände durchführen. Neben der Frage der Authentifizierung und Autorisierung, können wir den Aktionen einer KI gegenwärtig nicht blind vertrauen. Das Modell selbst ist für Menschen meist eine sogenannte „Black Box“ und dessen innere Funktionsweise somit nicht nachvollziehbar. Insbesondere schreibende Operationen müssen in diesem Szenario demnach genau kontrolliert und validiert werden, was zu Zusatzaufwand führt.

Wo stehen wir?

Künstliche Intelligenz in Form von Sprachmodellen kann uns überall dort sinnvoll unterstützen, wo schnelle Informations- und Datenauswertung notwendig wird und gleichzeitig eine gewisse Unschärfe bei der Korrektheit der Ergebnisse in Kauf genommen werden kann. Wollen wir die Vertrauenswürdigkeit des KI-Modells und dessen Antworten erhöhen, führt das unweigerlich zu individuellem Anpassungsaufwand, weshalb in diesem Bereich momentan viel geforscht wird (z.B. RAG).

“Effizienz durch KI, Vertrauen durch Menschen.”

Ansätze, bei denen der Mensch eine Kontrollfunktion für die Aktionen der KI einnimmt, erscheinen im Moment sinnvoll. Auch die Abbildung von Prozessen mittels Zustandsautomaten mit genau definierten Übergängen kann zweckdienlich sein.
Dabei versucht man dem Modell weniger Freiraum für fehlerhafte Aktionen zu geben und es gleichzeitig zu trainieren.

Im Moment erscheint die eingangs erwähnte Vision, nämlich eine Geschäftslogik ohne zusätzlichen Aufwand durch eine KI-Schicht zu ersetzen, jedoch als unrealistisch.