Künstliche Intelligenz (KI) ist in Unternehmen längst angekommen – ihr wirtschaftlicher Nutzen bleibt jedoch häufig hinter den Erwartungen zurück. Der Grund liegt weniger in der Leistungsfähigkeit der Modelle als in fehlendem Kontext: Erst wenn Wissen prozessnah, vernetzt und handlungsfähig bereitgestellt wird, können smarte Systeme ihr Potenzial entfalten.
In den Führungsetagen herrscht derzeit eine eigentümliche Mischung aus Goldgräbereuphorie und Katerstimmung. Während Marketingabteilungen das Etikett „KI-gestützt“ nahezu inflationär verwenden, zeichnen IT- und Fachabteilungen ein nüchterneres Bild. Dort tritt ein Phänomen zutage, das sich als „Datenparadoxon“ beschreiben lässt: Unternehmen verfügen heute über mehr Daten als jemals zuvor, aus operativen Systemen ebenso wie aus Kundenkanälen, Sensorik und Forschungsarchiven. Gleichzeitig verlangsamt sich die Entscheidungsfindung in vielen Fällen.
Eine Untersuchung des MIT bestätigt diese Diagnose. Demnach erzielen rund 95 Prozent aller KI-Initiativen keinen messbaren Return on Investment. Dieses Scheitern ist nur selten auf eine unzureichende Qualität der eingesetzten Modelle zurückzuführen. Die entscheidende Herausforderung liegt an anderer Stelle, nämlich im fehlenden Kontext. Ohne einen definierten Use Case als Startpunkt und die nahtlose Einbettung in unternehmensspezifische Prozesse, Entscheidungslogiken und Wissensbestände bleibt der Nutzen von KI begrenzt. Die Systeme liefern zwar plausible Antworten, aber keine tragfähigen Entscheidungsgrundlagen.
Damit verschiebt sich der Fokus der Wertschöpfung. Nicht das Modell, nicht die Datenmenge, sondern der Kontext wird zur entscheidenden Ressource.
Vom Suchen zum Orchestrieren
Um Wissen kontextbasiert verfügbar zu machen, braucht es eine klare Abkehr vom klassischen „Suche-und-Finde“-Prinzip, das die Wissensarbeit der vergangenen Jahrzehnte geprägt hat. Gefragt ist eine zentrale Steuerungsebene, von IT-Analysten oft auch als „Control Plane“ bezeichnet, die Inhalte systemübergreifend verbindet und bereitstellt.
Diese Ebene bildet eine einheitliche Wissensschicht und den zentralen Einstiegspunkt (Single Point of Entry) oberhalb der bestehenden Anwendungen wie Fachanwendungen, Archiven, Dokumentenmanagementsystemen oder Cloud-Datenspeicher. Dabei bleiben die unterschiedlichen Systeme bestehen. Es werden deren Inhalte logisch miteinander verknüpft. Mitarbeitende müssen nicht mehr mühsam mehrere Anwendungen durchsuchen, sondern erhalten die relevanten Informationen gebündelt, strukturiert und kontextualisiert mit einer Abfrage.
Der entscheidende Erfolgsfaktor liegt in der Abbildung realer Geschäftsprozesse, in sogenannten Insight Journeys. Diese smarten Workflows orientieren sich an konkreten Arbeitssituationen und führen Nutzerinnen und Nutzer durch eine sinnvolle Abfolge von Interaktionen via Touchpoints zum gesuchten Inhalt.
Insight Touchpoints fungieren als intelligente Einstiegspunkte in das unternehmensweite Wissenssystem. Die kontextuelle Verknüpfung sorgt dafür, dass Informationen nicht isoliert dargestellt werden. Fragt ein Nutzer nach einer Expertin oder einem Experten für ein bestimmtes Bauteil, erkennt das System nicht nur die passende Person, sondern verknüpft diese Information unmittelbar mit der Kundenhistorie, offenen Rechnungen aus dem SAP-System und aktuellen Support-Tickets. Die KI agiert wie eine erfahrene Kollegin oder ein Kollege, die/der relevante Entwicklungen im Blick behält und rechtzeitig darauf hinweist, noch bevor aktiv danach gesucht wird. Stellt im Anschluss der Nutzer die Frage nach dem Status zu einem Projekt, verändert sich die Darstellung der Informationen entsprechend und löst bei Bedarf die nächsten Aktionen aus. Im übertragenen Sinn betrachtet sind Touchpoints mit Apps auf einem Smartphone vergleichbar, die nacheinander aufgerufen werden und deren Abfolge der Abfrage als Insight Journey gespeichert wird. Dadurch bleiben die verwendeten Touchpoints erhalten und die Ergebnisse sind bei Bedarf einfach durch erneutes Aufrufen aktualisierbar.
Dies hebt die Wissensarbeit auf ein neues Level – weg vom reinen Reagieren hin zu einer vorausschauenden, kontext-gestützten Unterstützung bei kritischen Geschäftsprozessen, die Mitarbeitende entlastet und Entscheidungen fundierter macht.
Selbst in technischen Bereichen wie dem Maintenance Engineering kann kontextbezogener Zugriff unmittelbar über Erfolg oder Misserfolg entscheiden. In der Luftfahrt etwa verursacht jede Minute, in der ein Flugzeug ungeplant am Boden bleibt, Kosten. Erhält eine Technikerin oder ein Techniker sofort Zugriff auf relevante Manuals, Wartungsprotokolle und verfügbare Ersatzteile im richtigen Zusammenhang, lassen sich Stillstandzeiten deutlich verkürzen und innerhalb kurzer Zeit erhebliche Einsparungen realisieren.
Von der Antwort zur Aktion
Derzeit zeichnet sich ein Übergang von rein generativer KI (GenAI) hin zu agentischer KI (Agentic AI) ab. Während klassische GenAI vor allem Inhalte zusammenfasst oder Hinweise liefert, ist agentische künstliche Intelligenz darauf ausgelegt, auf Basis konkreter Kontexte eigenständig Handlungen auszuführen. Ein KI-Agent analysiert Informationen nicht isoliert, sondern im Zusammenhang von Rolle, Aufgabe und Prozess, wählt darauf aufbauend geeignete Schritte aus und setzt diese direkt um.
Diese Entwicklung wird durch Technologien wie Retrieval-Augmented Generation (RAG) getragen, die eine kontextualisierte und gleichzeitig verlässliche Bereitstellung von Wissen ermöglichen. Die KI greift dabei nicht allein auf ihr trainiertes Modell zurück, sondern bezieht gezielt verifizierte, unternehmensspezifische Wissensbestände ein. Informationen werden somit nicht generisch erzeugt, sondern im jeweiligen fachlichen und operativen Zusammenhang bereitgestellt. Das reduziert das Risiko sogenannter Halluzinationen deutlich.
Agentic RAG (Agentic Retrieval-Augmented Generation) bezeichnet dabei die Weiterentwicklung der klassischen RAG-Architekturen, wo ein autonom handelnder KI-Agent den gesamten Informations- und Antwortprozess aktiv steuert. Im Unterschied zu RAG zerlegt der KI-Agent die gestellte Frage in Teilfragen, analysiert diese und legt daraufhin fest, welche Datenquellen für die Beantwortung der Frage geeignet sind. Diese zieht er nun zur Beantwortung heran und überlegt auch, was die beste Antwort auf die gestellte Frage sein kann. In sogenannten „Iterative Retrieval-Schleifen“ führt der KI-Agent mehrfach gezielt Abfragen durch, vergleicht und verfeinert die Suche bei Bedarf. Am Ende dieses Prozesses erfolgt die Prüfung auf Widersprüche, die Gewichtung der Datenquellen, um eine kontextreiche, konsolidierte Antwort inklusive Quellenangaben dem User bereitzustellen.
Kontext als Schlüsselressource
Projekte im Bereich der künstlichen Intelligenz in Unternehmen scheitern heute oft, weil sie wie Fremdkörper in der Organisation wirken. Sie bieten zwar technologische Brillanz, aber keine operative Relevanz. Der Weg zum Erfolg führt über den Insight Workplace, der den Kontext als Währung begreift und nutzt. Durch die Kombination von semantischer Suche, agentischen Funktionalitäten und einer tiefen Integration in die Arbeitsprozesse entstehen dynamische Wissensnetze.
Unternehmen, die heute in diese kontextuelle Intelligenz investieren, legen das Fundament für die intelligente Arbeitswelt des nächsten Jahrzehnts. Sie verwandeln Datenfriedhöfe in Erkenntnis-Ökosysteme, in denen Wissen nicht mehr gesucht, sondern orchestriert wird. Am Ende ist der Kontext nicht nur ein technisches Feature – er ist der Schlüssel zur Zukunftsfähigkeit in einer informationsgetriebenen Welt.






