Die EVU Prozess & IT Tage 2026 sind zwar vorbei und ich sitze beim Schreiben dieses Berichtes bereits im ICE von Berlin nach Darmstadt, dennoch sind die Eindrücke der Veranstaltung präsent. Das Top Thema, wie erwartet, ist der Dauerbrenner: AI, Agentic AI, KI, Agentic-KI, …
Eine Frage, die ich mit diesem Erfahrungsbericht für Euch, aber auch für mich, beantworten möchte ist: „Was sind meine Key Takeaways und was bedeutet das für mich und unsere Kunden?“
Ehrlicherweise bin ich gerade fast froh, die Wörter „AI“ und „KI“ nicht mehr zu hören. Nicht, weil sich dahinter keine spannenden Anwendungsfälle verbergen würden, oder das Thema nicht interessant wäre, sondern weil eine so intensive Beschäftigung mit einem Thema mehr Fragen aufwirft als beantwortet werden können. Jeder Erkenntnisgewinn führt zu neuen Fragezeichen und öffnet weitere Gedanken- und somit potenzielle Handlungsstränge. Ganz nach dem Motto: „Ich weiß, dass ich nichts weiß“ folgt auf zwei Schritte nach vorne wieder ein Schritt zurück. Auf einen „Aha-Moment“ folgt „so habe ich das noch gar nicht betrachtet“ und manchmal auch ein großes Fragezeichen.
Um zu verstehen, was Agentic AI ist, muss zunächst eine Abgrenzung und Einordnung erfolgen. Aber Schritt für Schritt. Die meisten AI-Anwendungsfälle basieren auf Generative AI (GenAI). Dabei handelt es sich um AI-Lösungen, die auf Large Language Modells (LLMs) sowie Deep Learning aufbauen. Die Kommunikation findet intuitiv über menschliche Sprache, entweder in Text oder Audio, statt. Die AI kann dann Texte, Bilder, Videos, Code und vieles mehr generieren. Beispiele hierfür gibt es wie Sand am Meer. ChatGPT, Gemini, Cursor, Sora, …
Trotz der mannigfaltigen Lösungen und Anwendungsmöglichkeiten hat AI klare Grenzen und die sind bei näherer Betrachtung der Technologie sogar selbsterklärend. AI denkt nicht. AI ist „nur“ extrem gut darin, auf Basis von Daten, Wahrscheinlichkeiten für eine etwaige Antwort zu berechnen. Das Ergebnis dieser Berechnung, sprich die „wahrscheinlichste Antwort“, wird ausgegeben. Verhaltensregeln sowie ethische Grundsätze werden von den Anbietern hinterlegt – private beziehungsweise unternehmensspezifische Anforderungen können durch Prompts (spezifische Anfragen) hinzugefügt werden.
Die nächste Stufe nach GenAI ist Agentic AI. Agentic AI vereint die Vorteile von GenAI und ermöglicht darüber hinaus aber auch die direkte Ausführung von Tätigkeiten in verbundenen Systemen. Ermöglicht wird dies durch das Model Context Protocol (MCP) – sozusagen USB-C für KI. Auf dieser Basis lässt sich GenAI mit Tools, wie einem SAP ERP-System, verbinden.
Anhand von Berechtigungskonzepten und Skills, welche der GenAI „zur Verfügung“ stehen, kann ein Anwender also über das ihm bekannten Chat-UI Systemtätigkeiten wie Fehleranalysen durchführen, Datenabfragen stellen oder Folgeaktionen triggern. Neben Workflow-basierten Anwendungsfällen gibt es auch Ansätze, welche eine größere Variation und Abweichung von festgelegten Prozessen erlauben. Auch hier ist für das Verständnis wichtig – die AI muss erst dahingehend konfiguriert und trainiert werden, was ich von ihr erwarte. Es ist nicht so, dass eine reine Anbindung an ein System ausreicht und die AI sich den Rest „selbst“ beibringt.
Für den erfolgreichen Einsatz einer Agentic AI brauche ich demnach:
Das Fundament allen Handelns und aller „Intelligenz“ beruht auf den zur Verfügung gestellten Daten. Nicht ohne Grund wurde das Thema Datenqualität während der Veranstaltung gezielt adressiert: die Qualität der Daten ist ausschlaggebend für den verlässlichen Einsatz von AI. Zudem führen unter anderem heterogene Datensilos zu einem erhöhten Aufwand und zu einer Reduktion von Skalierbarkeit. Die Zielstrategie ist für viele daher klar: ein Data Lake muss her.
Doch was tun, wenn die Daten sich nicht so einfach zusammensammeln lassen?
Mittels Agent2Agent-Schnittstellen (A2A) können einzelne Agenten auch andere Agenten steuern. Das macht unter anderem dann Sinn, wenn ich für die Lösung eines Problems beziehungsweise die Beantwortung einer Fragestellung auf verschiedene isolierte Datenquellen zugreifen möchte. In diesem Szenario könnte der mir zur Verfügung stehende Agent andere Agents „ansprechen“ und beispielsweise Daten abfragen, auf die er selbst keinen direkten Zugriff hat. Wichtig in solchen Szenarien ist die Umsetzung von Complianceanforderungen (wer darf was) und eine klare Strategie, welche Daten über welche Kanäle geteilt und anschließend verarbeitet werden dürfen.
SAP verfolgt eine klare Strategie. Die SAP Utilities Systeme der Zukunft beruhen auf dem Motto „Clean Core“. Was sich dahinter verbirgt, ist relativ einfach: es sollen keine Kundenanpassungen im System vorgenommen werden, welche zu Nacharbeiten bei einem etwaigen Update führen.
Das Datenmodell bleibt unverändert, was sich ändert sind die Prozesse – Diversifikation wird ermöglicht über Um- und Drittanbietersysteme sowie über weitere Cloudprodukte. Ein interessanter Ansatz der im Rahmen eines Vortrag erwähnt wurde ist "Zerocopy" (falls ich mich mit dem Begriff vertue seht es mir nach - bei allen neuen Begriffen kommt man schnell durcheinander). Das bedeutet, dass die Daten die SAP-Landschaft nicht verlassen und dennoch über Schnittstellen zusätzliche Daten hinzugelesen werden und modifiziert werden können. Anstatt über Replikationen eine beidseitige Datenmanipulation vorzunehmen, erfolgt diese "zentral".
Die Zukunft der ABAP-Programmierung liegt in SAP RAP (RESTful ABAP Programming Model). Dabei handelt es sich um ein Framework zur Entwicklung von transaktionellen Anwendungen im SAP BTP Umfeld sowie im S/4HANA Utilities (OnPremundCloud). Abzugrenzen ist RAP von ABAP Cloud. Bei ABAP Cloud handelt es sich nicht um eine Programmiersprache, sondern um eine Art Regelwerk. Wenn man sich daran hält sind die Erweiterungen upgrade-stabil - sprich: ein Clean Core wird gewährleistet. Doch was verbirgt sich dahinter?
Vereinfacht gesagt: statt Abfragen auf eine Tabelle werden CDS-Views genutzt, welche durch SAP freigegeben und somit „unveränderbar“ (laut "Contract") sind . Klassisch müsste ich, im Falle einer Tabellenänderung (neue Spalte, ...), mein Coding zwangsläufig anpassen. Halte ich mich an die Grundlagen von ABAP Cloud indem ich hier einen CDS-View verwende, muss ich das Coding nicht nachträglich anpassen. Zudem erlaubt eine frühzeitige „Umgewöhnung“ auch einen vereinfachten nachgelagerten Übergang in die Cloud. Derzeit gibt es jedoch nicht für jeden Utilities relevanten Anwendungsfall einen freigegeben CDS-View.
Ich bin wirklich froh um die Vorträge, denn ich habe das erste Mal seitdem ich Begriffe wie SAP RAP/CAP und so weiter gehört habe das Gefühl, dass ich sie (teilweise) einordnen kann (so ehrlich muss man auch mal sein).
Wenn wir schon bei Cloud sind: S/4HANA Utilities OnPremise wird zwar bis 2040 gewartet, profitiert allerdings schon jetzt nicht mehr von allen Erweiterungen und Neuerungen. Dies betrifft nicht zuletzt den Funktionsumfang von SAP Joule (stark vereinfacht: der AI Agent der SAP). Zwar soll es auch einige Neuerungen für OnPrem ERP-Systeme anwendbar sein, aber den „coolen neuen Kram“ gibt es dann nur in der Private/Public Cloud.
Dies bedeutet, dass Unternehmen, die sich für einen OnPrem-Ansatz entschieden haben, schon frühzeitig prüfen sollten, wie sie neue Modifikationen im System abbilden und welche Anpassungen bereits „cloud ready“ umgesetzt werden können. Alles Themen, die eine zukünftige Transformation vereinfachen und notwendiges Know-how gewährleistet.
Ich bin gespannt welche News nächste Woche aus Amerika im Rahmen der SAP Sapphire uns erwarten. Der Spannungsbogen wurde drei Tage bis zum Reißen gespannt.
AI sowie Agentic AI ist gekommen, um zu bleiben. Sich gar nicht damit zu beschäftigen wird zwangsläufig dazu führen, dass man die Wettbewerbsfähigkeit verliert – nicht heute, nicht morgen, allerdings auch nicht erst in 10 Jahren. Was wir jetzt brauchen, ist ein Spagat zwischen Fantasie (was kann ich damit machen) und Fakten (was kostet mich das und was bringt es mir). Das erfordert Mut, denn die Veränderung macht auch Angst.
Wichtig ist Ängste ernst zu nehmen, ohne Geschwindigkeit zu verlieren. Proof-of-Concepts, AI Agents in sicheren Sandboxsystemen und ein begleitender Change-Prozess sind Ansätze, den Ängsten zu begegnen.
AI ist kein Selbstläufer und kein reines Technologie-Thema. Der konsequente Einsatz berührt die Unternehmenskultur, -strategie und -organisation und führt zu einer Verschiebung von Aufgaben und Verantwortlichkeiten. Ein „Human in the loop“-Ansatz ist hier das Stichwort. Die Vorgabe für das Verhalten von AI, die Interpretation von Ergebnissen und auch die Verantwortung für den Umgang liegt bei Menschen. Das kann nur funktionieren, wenn ich Know-how aufbaue und meine Unternehmens- und/oder Projektstruktur den zukünftigen Anforderungen anpasse.
Egal wie sehr man es auch versucht, es gibt keine Blaupause und keine „einfachen“ Antworten auf komplexe Fragestellungen. Die AI Journey von Unternehmen ist (und das ist auch gut so) individuell. Verschiedene Unternehmen, die sich die gleichen Fragen stellen, werden auf unterschiedliche Lösungsansätze stoßen. Ein Schlüsselfaktor wird sein, wann ich als Unternehmen anfange, die richtigen Fragen zu stellen und wie ich mit den Antworten umgehe.
Als Beratungspartner sind wir genauso wenig ausgenommen von den Veränderungen wie unsere Kunden. Wir müssen lernen mit den neuen Begebenheiten umzugehen, Lösungen zu entwickeln und durch unser Branchen- und Prozesswissen die Intelligenz einer AI sicherstellen.
Bei Fragen oder Interesse an einem Austausch stehe ich gerne zur Verfügung!
Disclaimer:Dieser Artikel wurde bewusst nicht auf Basis eines Prompts und ohne KI verfasst. Alle Fehlannahmen, Verständnislücken oder Trugschlüsse sind auf „menschliche Halluzination“ zurückzuführen. Hier mache ich meine Fehler noch selbst.
Der Artikel ist zuerst auf LinkedIN veröffentlicht worden.