Gkc25/Von SharePoint-Friedhof zur C-Level-Priorität: Unterschied zwischen den Versionen

Aus Copedia
Simon.dueckert (Diskussion | Beiträge)
Die Seite wurde neu angelegt: „'''Diese Präsentation stellt TexCortex AI vor, eine europäische KI-Plattform, die Unternehmen dabei hilft, ihre Wissensmanagementsysteme durch agentische KI zu optimieren. Der Fokus liegt darauf, wie KI-Agenten die Suche nach und Arbeit mit Unternehmenswissen revolutionieren können, indem sie tief in bestehende Systeme wie SharePoint und Confluence integriert werden. Mit über 70 Implementierungen und 2 Millionen Nutzern weltweit zeigt das Unternehmen…“
(kein Unterschied)

Version vom 23. November 2025, 15:49 Uhr

Diese Präsentation stellt TexCortex AI vor, eine europäische KI-Plattform, die Unternehmen dabei hilft, ihre Wissensmanagementsysteme durch agentische KI zu optimieren. Der Fokus liegt darauf, wie KI-Agenten die Suche nach und Arbeit mit Unternehmenswissen revolutionieren können, indem sie tief in bestehende Systeme wie SharePoint und Confluence integriert werden. Mit über 70 Implementierungen und 2 Millionen Nutzern weltweit zeigt das Unternehmen praktische Lösungen für typische Herausforderungen bei der KI-Einführung, von Datenqualitätsproblemen bis zur Benutzerakzeptanz. Die zentrale Botschaft: KI muss einfach zu nutzen, sicher und dort verfügbar sein, wo Menschen tatsächlich arbeiten.

Hauptthemen der Präsentation:

  1. Einführung in TexCortex AI und Marktpositionierung
  2. Die drei Ebenen erfolgreicher KI-Implementierung
  3. Herausforderungen des Wissensmanagements in Unternehmen
  4. Wissensfindung durch KI-Agenten
  5. Metadatenextraktion und Dokumentenverständnis
  6. Praktische Fallbeispiele aus der Industrie
  7. Sicherheit, Compliance und Datenqualität
  8. Vergleich mit Microsoft Co-Pilot und Eigenentwicklungen
  9. Agentenbasierte Workflows und Zusammenarbeit
  10. Change Management und Nutzerakzeptanz

Einführung in TexCortex AI und Marktpositionierung

TexCortex AI positioniert sich als führende europäische KI-Plattform mit einer klaren Mission: 50 DAX-ähnlich großen Unternehmen zu helfen, die ersten 10 Millionen an Wert mit künstlicher Intelligenz zu generieren. Das Unternehmen existiert seit vier Jahren und hat mittlerweile über 70 Implementierungen mit mehr als 2 Millionen registrierten Nutzern weltweit durchgeführt.

Die Plattform versteht sich als Interaktionslayer zwischen Nutzern und verschiedenen Wissensdatenbanken. Anders als reine Dokumentationstools integriert TexCortex bestehende Systeme wie SharePoint, Google Drive, Confluence und Notion. Das Unternehmen arbeitet mit namhaften Kunden wie Mahle, Henkel, Allianz und vielen weiteren großen Unternehmen zusammen.

Als europäischer Anbieter legt TexCortex besonderen Wert auf Datensicherheit und Compliance. Die Plattform ist SOC2- und ISO-zertifiziert und entspricht den europäischen Regulierungsanforderungen. Das Unternehmen positioniert sich bewusst als Alternative zu amerikanischen Anbietern wie OpenAI, deren Modelle beispielsweise von der französischen Regierung 2023 abgestellt wurden, weil sie der Firma dahinter nicht vertrauten.

Die Philosophie des Unternehmens lautet: Was Entwickler heute tun, werden Wissensarbeiter in ein bis zwei Jahren auch tun. Entwickler nutzen bereits intensiv KI-Tools wie Cursor oder Claude Code für ihre Arbeit, und diese Arbeitsweise wird sich auf alle Wissensarbeiter ausweiten.

Die drei Ebenen erfolgreicher KI-Implementierung

Damit KI einfach, verständlich und akzeptiert wird, identifiziert TexCortex drei wesentliche Ebenen, die erfüllt sein müssen:

Erste Ebene: Einfache Interaktion

Die KI muss dort verfügbar sein, wo Menschen tatsächlich arbeiten. Mit einer Browser-Extension kann man KI-Agenten in jede Textbox mitnehmen und direkt im aktuellen Arbeitskontext nutzen. Jedes Mal, wenn man zwischen verschiedenen Tools wechselt – von Word zu Outlook, von SharePoint zu einem Browser-Tab – verliert man den Gedankenfluss. Eine nahtlose Integration verhindert diesen Produktivitätsverlust.

Die Interaktion muss so einfach sein wie die Kommunikation mit einem menschlichen Kollegen. Man schreibt einfach ein @-Zeichen und den Namen des Agenten, zum Beispiel “@Paul, hilf mir mal bitte das Angebot für den Kunden zu schreiben”. Diese Einfachheit ist entscheidend für die Akzeptanz.

Zweite Ebene: Einfache Erstellung von Agenten

KI-Agenten müssen so einfach zu erstellen sein wie Lego-Bausteine zusammenzustecken. In nur 10 Sekunden kann man einen neuen Agenten aufbauen, indem man ihm eine Jobbeschreibung gibt, Wissensdatenbanken zuordnet und Instruktionen definiert. Man verbindet beispielsweise einen SharePoint-Ordner, und dieser wird indexiert und steht als Werkzeug für den Agenten zur Verfügung.

Diese Einfachheit ermöglicht es jedem Mitarbeiter, spezialisierte Agenten für verschiedene Aufgaben zu erstellen, ohne technische Expertise zu benötigen. Unternehmen bauen sich so eine “Garage voller Agenten” mit 60 oder mehr spezialisierten KI-Kollegen auf.

Dritte Ebene: Vertrauen und Sicherheit

Bis Menschen sich wirklich komfortabel fühlen mit KI zu arbeiten, braucht es Transparenz und Kontrolle. Die KI muss ihre Quellen offenlegen, sodass Menschen validieren können, ob die gegebenen Informationen korrekt sind. Bei jeder Antwort muss man in die Referenzen gehen und prüfen können, ob das wirklich so im Dokument steht.

Sicherheit steht besonders im deutschen Raum an erster Stelle. Als europäischer Anbieter mit SOC2- und ISO-Zertifizierung kann TexCortex hier punkten. Die Aussage “Was die Schweiz für Geld ist, ist Europa für Datensicherheit” unterstreicht diesen Vorteil gegenüber amerikanischen Anbietern.

Herausforderungen des Wissensmanagements in Unternehmen

Das Zitat “SharePoint is where knowledge goes to die” bringt das zentrale Problem auf den Punkt. Viele Unternehmen haben zwar umfangreiche Dokumentationssysteme, aber die Mitarbeiter finden trotzdem nicht, was sie suchen. Das gleiche Problem existiert bei Google Drive, Confluence und anderen Systemen.

Eine McKinsey-Studie zeigt, dass typische Wissensarbeiter zwei bis drei bis vier Stunden am Tag mit der Suche nach Wissen verbringen. Bei größeren Kunden wie Siemens wurde das Problem besonders deutlich: Trotz vermeintlich gutem Wissensmanagement finden sich die Mitarbeiter nicht zurecht. Was Siemens “Wissensmanagement” nennt, verdient in dieser Form eigentlich nicht den Namen.

Ein typischer Suchablauf sieht so aus: Man öffnet SharePoint, Confluence oder ein anderes System, gibt Schlüsselwörter ein, findet nichts, probiert andere Schlüsselwörter, klickt sich durch verschiedene Dateien, wechselt zwischen verschiedenen Tools – und verliert dabei jedes Mal den Gedankenfluss. Am Ende ist man sich nicht sicher, ob man im richtigen Dokument gelandet ist oder ob es wie ein Münzwurf war.

Der “Wilde Westen des Wissens” ist in vielen Unternehmen Realität. Es gibt keinen richtigen Prozess, um qualitativ Wissensmanagement einzusammeln, zu bearbeiten und detailliert abzulegen. Dokumentenstrukturen sind chaotisch, mit Titeln wie “PowerPoint-Angebot Final-Final-Version 44”. Verschiedene Confidentiality-Levels sind nicht einheitlich, und niemand weiß genau, wer auf welche Dokumente Zugriff hat.

Bei Stiebel Eltron, einem Heizungshersteller mit 2000 Mitarbeitern, wurde festgestellt: “Für zehn neue Mitarbeiter, die wir einstellen, haben wir drei Leute, die den ganzen Tag nur PDFs suchen.” Das ist ein massives Produktivitätsproblem. Ein anderes Unternehmen formulierte es so: “Jedes Jahr verlieren wir 2000 Jahre an Erfahrung.”

Das Zitat “Wenn wir nur wüssten, was wir wissen” fasst die Ironie perfekt zusammen: Unternehmen dokumentieren zwar viel, aber wenn Menschen es nicht mehr finden können, hilft das auch nicht weiter.

Wissensfindung durch KI-Agenten

Die KI-basierte Wissensfindung unterscheidet sich fundamental von traditioneller Schlüsselwortsuche. Während ein Mensch sich vielleicht ein paar Schlüsselwörter ausdenkt, denkt sich der Agent 30 aus und lädt diese alle ins Kurzzeitgedächtnis. Der Agent kann 50-mal schneller durch Dokumente rennen als ein Mensch und dabei wesentlich gründlicher sein.

Im Automatikmodus kann ein Agent 200 bis 300 Quellen innerhalb von ein bis zwei Minuten durchgehen. Bei der Suche nach einem “Profit and Loss Statement”, das in 400 Dokumenten vorkommen könnte, filtert die KI nicht einfach alle 400 als Ergebnis heraus, sondern analysiert Kontext und Relevanz.

Der Prozess beginnt mit der vollständigen Indexierung eines SharePoint-Ordners oder einer anderen Wissensquelle. Diese erste Indexierung dauert zwar eine Weile – abhängig von der Datenmenge –, aber danach sind die Informationen schnell abrufbar. Die KI erstellt dabei umfangreiche Metadaten und Snippets, die es ermöglichen, Informationen schnell zu finden.

Bei einer konkreten Suche zeigt das System mehrere Informationsebenen: die verwendeten Schlüsselbegriffe, die gefundenen Dateien, relevante Ausschnitte und sogar die “Gedankenschritte” der KI – wie sie zu diesem Ergebnis gekommen ist. Diese Transparenz ist entscheidend für das Vertrauen.

Ein wichtiges Feature ist die Möglichkeit, nicht nur zu suchen, sondern direkt weiterzuarbeiten. Nach der Suche kann man in der gleichen Konversation sagen: “Ich möchte auch noch was damit aktiv machen” und beispielsweise ein Dokument erstellen oder anpassen lassen.

Die Suche ist dabei nicht auf einzelne Dokumente beschränkt. Die KI versteht Ordnerstrukturen und kann Kontext aus verschiedenen Quellen zusammenführen. Sie kann auch nach bestimmten Fachbereichen filtern – ist dies ein Finance-Dokument, ein Legal-Dokument oder Construction? Sie erkennt automatisch Zusammenhänge und strukturiert die Ergebnisse entsprechend.

Metadatenextraktion und Dokumentenverständnis

TexCortex geht weit über einfache Schlüsselwortsuche hinaus, indem das System bis zu 200 Datenpunkte aus Dokumenten extrahiert. Diese tiefe Metadatenanalyse ermöglicht es, Dokumente wirklich zu verstehen, nicht nur zu finden.

Die Metadatenextraktion umfasst verschiedene Ebenen:

Basisdaten und Kontext: Von welchem Jahr ist ein Dokument? Welche M365-Gruppen hatten in der Vergangenheit Zugriff darauf? Wer hat wie darauf zugegriffen? Diese Versionshistorie hilft zu verstehen, woher ein Dokument kommt und wo es hingegangen ist.

Inhaltliche Strukturierung: Die KI analysiert nicht nur Text, sondern auch Visualisierungen. Bei einem Jahresabschluss erstellt sie Zusammenfassungen für jeden Graphen, jede Visualisierung. Dadurch versteht das System Dokumente mit visuellen Elementen besser als eine reine Textanalyse es könnte.

Confidentiality-Level: Das System erkennt automatisch, welches Vertraulichkeitslevel ein Dokument haben sollte. Ist es Level 2 oder Level 3? Welche Parteien sollten Zugriff haben? Dies funktioniert sogar bei historisch inkonsistenten Klassifizierungen.

Fachbereichszuordnung: Die KI erkennt automatisch, zu welchem Fachbereich ein Dokument gehört. Bei einem Dokument über Profit and Loss Statements identifiziert sie automatisch das Finance Department. Diese automatische Kategorisierung hilft enorm bei der Organisation.

Prozesserkennung: Das System kann Standard Operating Procedures identifizieren und verstehen. Es erkennt, ob ein Prozess eine Timeline hat, wer der Owner ist, und welche typischen Fehlerquellen existieren. Bei veralteten Prozessen aus 1995 wird dies markiert.

Ein konkretes Beispiel: Wenn man ein Profit and Loss Statement hochlädt, erstellt die KI nicht nur grundlegende Metadaten, sondern eine Zusammenfassung jeden Graphen, beschreibt jede Visualisierung und macht damit auch komplexe Jahresabschlüsse durchsuchbar und verständlich.

Diese Metadaten werden nicht nur für die Suche genutzt, sondern auch für Compliance und Governance. Man bekommt eine Metrikübersicht, die zeigt, wer tatsächlich Zugriff auf welche Dokumente hat – ein Riesenthema für Datensicherheit.

Praktische Fallbeispiele aus der Industrie

Fallbeispiel 1: Volkswagen und autonomes Fahren

Volkswagen versucht, 30 Jahre an Wissen zum Thema autonomes Fahren aufzuarbeiten. Die Herausforderung: Tausende von Dokumenten aus drei Dekaden, in verschiedenen Formaten, mit unterschiedlichen Strukturen. Die manuelle Suche nach relevanten Informationen war extrem zeitaufwendig.

Mit dem KI-Agenten können Ingenieure jetzt spezifische Fragen stellen und bekommen innerhalb von Minuten relevante Informationen aus allen 30 Jahren zusammengefasst. Der Agent durchsucht nicht nur nach offensichtlichen Schlüsselwörtern, sondern versteht den Kontext und kann verwandte Konzepte identifizieren.

Fallbeispiel 2: Stiebel Eltron – Prozesswissen dokumentieren

Bei Stiebel Eltron, einem Heizungshersteller mit 2000 Mitarbeitern, existierte das Problem, dass viel Prozesswissen nur in den Köpfen der Mitarbeiter existierte. Es gab keinen etablierten Prozess, um dieses Wissen systematisch zu erfassen.

Die Lösung: Ein Agent namens “Willi Wills Wissen” wurde entwickelt, der sich mit Produktionsarbeitern zusammensetzt und sie interviewt. Der Agent stellt 5W-Fragen (manchmal 20 W-Fragen) und geht so lange in die Tiefe, bis er alle relevanten Informationen hat – ähnlich dem Framework “Frag fünfmal warum und du kommst an die Quelle von etwas”.

Der Agent strukturiert das erfasste Wissen automatisch: Er identifiziert den Process Owner, erstellt eine Timeline, notiert typische Fehlerquellen. Der Produktionsarbeiter muss nichts schreiben, alles wird durch die Konversation dokumentiert. Am Ende wird der Mitarbeiter gefragt, ob er mit der Dokumentation einverstanden ist.

Besonders wertvoll: Der Agent erkennt, wenn ein Prozess veraltet ist oder nicht mehr zu aktuellen Standards passt und markiert dies entsprechend.

Fallbeispiel 3: Hidden Champion aus Süddeutschland

Ein mittelständisches Unternehmen aus Süddeutschland hatte eine chaotische SharePoint-Struktur – den “Wilden Westen des Wissens”. Jeder hatte seinen eigenen privaten Space, die Strukturierung war inkonsistent, und niemand fand mehr etwas.

Nach der Implementierung von TexCortex wurde eine Studie mit 2000 Mitarbeitern durchgeführt. Das Ergebnis: Die KI-gestützte Suche war fünfmal schneller als die manuelle Suche. Noch wichtiger: Die wöchentlich aktive Nutzerrate lag bei 70%, verglichen mit 5-10% bei Eigenbau-Lösungen.

Das Unternehmen entwickelte organisch über 60 spezialisierte Agenten für verschiedene Abteilungen und Projekte. Legal, Accounting, Construction – jeder Bereich hatte seine eigenen Agenten, die auf spezifisches Wissen zugreifen konnten.

Mahle und Allianz

Bei Mahle und der Allianz wurde besonders deutlich, wie wertvoll die Referenzierung ist. In einem Fall hatte ein Agent vier bis fünf Quellen gefunden, die sehr kritisch für ein Projekt waren. Bei der manuellen Überprüfung stellte sich heraus, dass diese Quellen “absoluter Blödsinn” waren – veraltete oder falsche Informationen. Ohne die Möglichkeit, die Quellen zu überprüfen, wäre dies nicht aufgefallen.

Sicherheit, Compliance und Datenqualität

Das Thema Sicherheit ist besonders in Europa kritisch. TexCortex positioniert sich bewusst als europäischer Anbieter mit strengen Sicherheitsstandards. Die SOC2- und ISO-Zertifizierung sowie die Compliance mit europäischen Regulierungen wie GDPR und EU AI Act sind zentrale Verkaufsargumente.

Datenverarbeitung und Modelltraining

Ein entscheidender Punkt: TexCortex trainiert die verwendeten Sprachmodelle nicht mit Kundendaten. Dies ist ein fundamentaler Unterschied zu einigen anderen Anbietern. Das bedeutet, dass man nicht das Problem hat, einen “neuen Mitarbeiter” komplett mit falschen Informationen zu trainieren.

Die Plattform bietet Zugang zu 15 verschiedenen Sprachmodellen von fünf verschiedenen Providern. Diese Modell-Agnostik gibt Unternehmen die Flexibilität, das beste Modell für ihre spezifischen Anforderungen zu wählen, ohne an einen Anbieter gebunden zu sein.

Staging und Produktion

Ähnlich wie Entwickler mit Staging- und Produktionsumgebungen arbeiten, gibt es auch bei TexCortex diese Trennung. Es gibt eine Staging-Wissensumgebung für Tests und eine Produktions-Wissensumgebung. Kleinere Tests werden natürlich durchgeführt, bevor etwas in Produktion geht.

Gewisse Wissensdatenbanken werden nur in spezifischen Agenten hinterlegt und sind nicht für die gesamte Organisation verfügbar. Dies ermöglicht es, sensible Informationen für Beratungsprojekte oder spezifische Teams getrennt zu halten.

Das Problem der Halluzination

KI-Halluzinationen – wenn die KI Informationen erfindet, die nicht in den Quellen stehen – sind ein ernstes Problem. Deswegen ist es entscheidend, dass jede Antwort referenziert ist. Bei TexCortex kann man jeden Satz zurückverfolgen zu der Quelle, aus der er stammt.

Ein konkretes Beispiel: Ein Arbeitsvertrag wurde nicht richtig hochgeladen, und die KI hat aus dem Titel etwas “gedichtet”. Solche Fehler passieren, aber durch die transparente Referenzierung können Nutzer dies erkennen und korrigieren.

Die Sprachmodelle sind “non-deterministisch” – das bedeutet, man kann nicht immer erwarten, dass die gleiche Eingabe immer die gleiche Ausgabe produziert. Dies ist ein grundlegendes Charakteristikum von generativer KI, weshalb die Validierung durch Menschen unverzichtbar bleibt.

Datenqualität als Grundproblem

“Shit in, shit out” – wenn die Datenqualität katastrophal ist, kann auch die beste KI keine guten Ergebnisse liefern. TexCortex geht bei größeren Kunden oft erstmal in eine Analysephase, um die Datenqualität zu beurteilen.

Typische Probleme:

  • PowerPoint-Dateien aus 1996, die nicht mehr relevant sind
  • 20 irrelevante Dateitypen gemischt mit relevanten Dokumenten
  • Dokumente mit falschen oder fehlenden Metadaten
  • Inkonsistente Ordnerstrukturen
  • Veraltete Informationen, die nicht als veraltet markiert sind

Die Frage wird gestellt: Können die Agenten helfen, das zu strukturieren? Die Antwort: Ja, aber mit Einschränkungen. Die KI kann Metadaten hinzufügen, Struktur vorschlagen und helfen, Ordnung zu schaffen. Aber sie wird niemals zu 100% perfekt sein. Das realistische Ziel ist, 80-90% der Herausforderung zu lösen und damit Menschen erheblich zu helfen.

Vergleich mit Microsoft Co-Pilot und Eigenentwicklungen

TexCortex steht hauptsächlich im Wettbewerb mit zwei Alternativen: Microsoft Co-Pilot und Eigenentwicklungen (“Marke Eigenbau”). Der Vergleich fällt deutlich aus.

Co-Pilot Limitierungen

Die wöchentlich aktive Nutzerrate bei Co-Pilot liegt nur bei 5-10%, verglichen mit 70% bei TexCortex. Dies ist ein dramatischer Unterschied, der zeigt, dass viele Unternehmen Co-Pilot zwar lizenzieren, aber die Mitarbeiter es kaum nutzen.

Ein Hauptproblem: Co-Pilot wirft oft einfach fünf Dateien als Ergebnis hin und sagt “da habe ich das Ding gefunden”, ohne die spezifische Stelle im Dokument zu zeigen. Bei TexCortex bekommt man nicht nur die Datei, sondern den konkreten Satz mit Kontext.

Auch bei der Tiefe des Dokumentenverständnisses liegt TexCortex vorn. Während Co-Pilot hauptsächlich auf Textebene arbeitet, analysiert TexCortex auch Visualisierungen, Graphen und komplexe Dokumentstrukturen.

Ein weiterer Kritikpunkt: Co-Pilot ist stark an das Microsoft-Ökosystem gebunden. Viele deutsche Unternehmen möchten bei Microsoft bleiben, was aus Sicht des Vortragenden nicht ganz verständlich ist, besonders angesichts der Abhängigkeit von OpenAI-Modellen, denen selbst die französische Regierung nicht vertraut.

Eigenentwicklungen

Marke Eigenbau ist “sehr teuer, sehr teuer und oftmals schlechter” als kommerzielle Lösungen. Der Vortragende kennt Fälle, in denen Teams seit drei Jahren an eigenen Systemen bauen, aber technisch zwei Jahre zurückliegen.

Das Problem: Diese Teams haben nicht die Erfahrung aus Dutzenden von Implementierungen. TexCortex hat über 70 Implementierungen durchgeführt und dabei gelernt, was funktioniert und was nicht. Dieses Wissen fließt in das Produkt ein.

Bei Eigenentwicklungen fehlt oft auch die Breite der Integration. Es ist extrem kompliziert, für jedes Thema das richtige Sprachmodell zu wählen und zu integrieren. TexCortex bietet 15 verschiedene Modelle von fünf Providern out-of-the-box.

Ein konkretes Negativbeispiel: Deloitte musste vor einem Monat 440.000 australische Dollar (ca. 260.000 Euro) zurückzahlen, weil ein Beratungsprojekt für die australische Regierung auf falschen KI-generierten Informationen basierte. Solche Fehler können sehr teuer werden.

Bloomberg-GPT und spezialisierte Modelle

Es gibt durchaus erfolgreiche Eigenentwicklungen wie Bloomberg-GPT, Daimler-GPT oder Bosch-GPT. Aber diese Unternehmen haben massive Ressourcen investiert – Teams von hoch qualifizierten Ingenieuren über Jahre hinweg. Für die meisten Unternehmen ist dies nicht realistisch.

Agentenbasierte Workflows und Zusammenarbeit

Das Konzept der KI-Agenten ist zentral für die TexCortex-Philosophie. Statt einer einzigen, monolithischen KI gibt es spezialisierte Agenten für verschiedene Aufgaben – ähnlich wie in einem Unternehmen verschiedene Spezialisten zusammenarbeiten.

Agentenarchitektur

Jeder Agent hat eine klare “Jobbeschreibung”: Was ist seine Aufgabe? Auf welches Wissen hat er Zugriff? Welche Instruktionen folgt er? Diese Struktur macht Agenten transparent und kontrollierbar.

Ein konkretes Beispiel: “Olaf”, der Operationsmanager, hat alle Standard Operating Procedures als Wissensbasis. Wenn ein Mitarbeiter eine Frage zu einem Prozess hat, sagt der Vortragende: “Frag Olaf, nicht mich.” Dies entlastet ihn selbst und stellt sicher, dass die Information konsistent ist.

“Harvey Specter” (benannt nach der Serie Suits) hilft bei schwierigen Legal Terms und übersetzt komplexe juristische Sprache. “Paul” unterstützt beim Schreiben von Angeboten für Kunden. Jeder Agent ist auf seine Domäne spezialisiert.

Agenten-Zusammenarbeit

Seit kurzem können Agenten auch miteinander arbeiten. Wenn eine Aufgabe das Wissen mehrerer Spezialisten erfordert, kann ein Agent selbstständig andere Agenten konsultieren. Es gibt sogar “Chef-Agenten”, die als Meta-Ebene andere Agenten koordinieren können.

Allerdings wird bei kritischen Aktionen immer der Mensch gefragt. Wenn ein Agent beispielsweise ein Dokument verändern oder etwas versenden möchte, bekommt der Nutzer ein Pre-Approval: “Möchtest du wirklich, dass ich das tue?” Der Mensch bleibt in der Kontrolle.

Der Vergleich mit einem Auto verdeutlicht das Konzept: Man kann manuelles Schaltgetriebe fahren (alles selbst machen) oder Automatik (der Agent übernimmt viel, aber man steuert noch). In Zukunft könnte es vollautonomes Fahren geben, aber da sind wir noch nicht.

Die “Garage voller Agenten”

Unternehmen entwickeln typischerweise eine “Agent Repo” – ein Repository mit 60 oder mehr Agenten. Verschiedene Abteilungen haben ihre eigenen Agenten: Legal, Accounting, Construction, Sales, etc.

Diese Agenten wachsen organisch. Bei einem großen Kunden aus der Unternehmensberatung entstanden Agenten projektbezogen. Für jedes große Projekt wurde ein spezialisierter Agent erstellt, der Zugriff auf projektspezifisches Wissen hatte.

Die Einfachheit der Erstellung ist entscheidend: In 10 Sekunden kann man einen neuen Agenten aufsetzen. Dies ermöglicht es auch nicht-technischen Mitarbeitern, ihre eigenen KI-Assistenten zu erstellen.

Warum 60 Agenten?

Es gibt ein wissenschaftliches Prinzip dahinter: Spezialisierung führt zu besseren Ergebnissen als ein generalistischer Ansatz. Ein Agent, der nur für Profit and Loss Statements zuständig ist, wird besser sein als ein generischer Agent, der alles können soll.

Außerdem ermöglicht die Trennung bessere Zugriffskontrolle. Sensible Informationen für ein Beratungsprojekt können in einem spezifischen Agenten isoliert werden, statt für alle zugänglich zu sein.

Change Management und Nutzerakzeptanz

Die beste Technologie nützt nichts, wenn Menschen sie nicht nutzen. Dies ist eine zentrale Lektion aus vier Jahren KI-Implementierung.

Das Akzeptanzproblem

Viele Menschen haben Angst vor KI oder wissen nicht, wo sie anfangen sollen. Die wöchentlich aktive Nutzerrate von nur 5-10% bei Co-Pilot zeigt dieses Problem deutlich. Unternehmen investieren in Lizenzen, aber die Mitarbeiter nutzen die Tools nicht.

Bei TexCortex liegt diese Rate bei 70% – ein fundamentaler Unterschied. Der Grund: Die Plattform ist einfacher zu nutzen und besser in die tägliche Arbeit integriert.

Weiterbildung ist essentiell

Es reicht nicht, Software bereitzustellen. Unternehmen müssen massiv in Weiterbildung investieren. TexCortex bietet ein umfangreiches Onboarding-Programm und kontinuierliche Schulungen.

Der Vortragende betont: “Bis wir uns alle viel komfortabler fühlen mit der KI zu arbeiten” ist noch viel Arbeit nötig. Menschen müssen lernen, dass KI “Ja-Sager” sind – sie geben aus, was man eingibt, und man muss kritisch bleiben.

Interessanterweise sind Menschen mit Kommunikationsausbildung oft am besten im Umgang mit KI. Sie verstehen das Prinzip “Aktion und Reaktion” aus der Kommunikationstheorie, was genau ist, wie man mit KI arbeitet.

Vom Proof of Concept zur Produktion

Viele Proof of Concepts scheitern auf dem Weg zur Produktion. TexCortex legt besonderen Wert darauf, dass Pilotprojekte wirklich in die produktive Nutzung übergehen. Die hohe Nutzerrate zeigt, dass dies gelingt.

Ein typisches Programm startet mit einer Nutzergruppe von 100 Personen. Man analysiert: Woher kommen diese Nutzer? Wie nutzen sie die Technologie? Welche Agenten entstehen? Über Zeit indexiert man mehr Daten und erweitert die Nutzergruppe.

Kultureller Wandel

Die Arbeit mit KI verändert die Unternehmenskultur fundamental. Wissen wird kollaborativ. In fünf Jahren wird die Zusammenarbeit mit künstlichen Kollegen genauso normal sein wie heute die Zusammenarbeit mit menschlichen Kollegen.

Der Vortragende sieht sich selbst als jemand, der sich “feuern” möchte – alles automatisieren, was zweimal oder dreimal gemacht werden muss. Diese Denkweise muss sich im Unternehmen verbreiten: KI nicht als Bedrohung, sondern als Werkzeug zur Effizienzsteigerung.

Interaktivität als Schlüssel

Die Präsentation selbst ist bewusst interaktiv gestaltet. Fragen werden sofort beantwortet, Beispiele werden live demonstriert. Diese Interaktivität spiegelt wider, wie KI-Implementierung funktionieren sollte: nicht als Top-Down-Ansatz, sondern im Dialog mit den Nutzern.

Fazit und Ausblick

Die Implementierung von KI im Wissensmanagement steht noch am Anfang, zeigt aber bereits enormes Potenzial. Die zentrale Botschaft: KI kann nur dann Mehrwert schaffen, wenn Menschen sie tatsächlich nutzen – und dafür muss sie einfach, sicher und vertrauenswürdig sein.

Wichtigste Erkenntnisse

Knowledge Retrieval ist der ideale erste Use Case für KI im Unternehmen. Hier können schnell Erfolge erzielt werden, die Menschen von der Technologie überzeugen. Wenn Mitarbeiter erleben, dass sie in Minuten finden, wofür sie vorher Stunden brauchten, steigt die Akzeptanz dramatisch.

Drei bis vier Stunden täglich für Wissenssuche zu verschwenden ist inakzeptabel. Wenn KI diese Zeit halbieren oder auf ein Viertel reduzieren kann, entspricht das enormen Produktivitätssteigerungen und Kosteneinsparungen.

Datenqualität bleibt das Grundproblem. Auch die beste KI kann nicht helfen, wenn die Datenbasis chaotisch ist. Unternehmen müssen parallel zur KI-Einführung ihre Datenstrukturen aufräumen – wobei die KI selbst dabei helfen kann.

Offene Fragen

Mehrere wichtige Fragen bleiben offen:

Wie weit können KI-Systeme bei der automatischen Deduplizierung von Wissen gehen? Wenn 30 Jahre alte Informationen existieren – braucht man sie wirklich noch? Die KI kann helfen zu identifizieren, was veraltet ist, aber die finale Entscheidung muss beim Menschen liegen.

Wie geht man mit Dialekten und verschiedenen Sprachstilen um? Die Modelle werden besser in der Sprachverarbeitung, und selbst wenn Mitarbeiter Dialekt sprechen, funktioniert die Transkription mittlerweile gut. Aber es bleibt ein Punkt, an dem kontinuierlich gearbeitet wird.

Wann ist vollständige Automatisierung möglich? Der Vortragende schätzt: “Es dauert noch fünf Jahre, bis der Roboter steht und mir das Bad umbaut.” Software wird das Volkswagen-Problem mit 30 Jahren Wissen niemals zu 100% lösen, aber 80-90% sind realistisch – und das ist schon ein enormer Fortschritt.

Handlungsempfehlungen

Für Unternehmen, die KI im Wissensmanagement einführen wollen, ergeben sich klare Handlungsempfehlungen:

Starte mit Knowledge Retrieval: Dies ist der Bereich mit dem schnellsten ROI und der höchsten Nutzerakzeptanz. Erfolge hier schaffen Vertrauen für weitere KI-Projekte.

Priorisiere Nutzerakzeptanz: Die beste Technologie ist wertlos, wenn sie nicht genutzt wird. Investiere massiv in Change Management, Weiterbildung und Onboarding. Ziel sollte eine wöchentlich aktive Nutzerrate von mindestens 70% sein.

Validiere immer die Quellen: Trainiere Nutzer darin, KI-Ausgaben kritisch zu hinterfragen und die Quellen zu überprüfen. Die Deloitte-Story (440.000 Dollar Verlust durch falsche KI-Informationen) zeigt, was passieren kann, wenn man blind vertraut.

Plane in Phasen: Beginne mit einer kleinen Nutzergruppe (ca. 100 Personen), lerne aus deren Nutzung, und erweitere dann schrittweise. Unterscheide zwischen Staging- und Produktionsumgebungen.

Räume die Datenqualität auf: Nutze die KI-Implementierung als Anlass, endlich die Ordnung in SharePoint, Confluence und Co. zu schaffen. Die KI kann dabei helfen, aber es braucht auch menschliche Entscheidungen.

Wähle den richtigen Partner: Eigenentwicklungen sind meist teurer und schlechter als gedacht. Ein erfahrener Partner mit Dutzenden Implementierungen bringt wertvollen Know-how-Transfer.

Achte auf Sicherheit und Compliance: Besonders in Europa sind Datenschutz und Compliance kritisch. Wähle Anbieter, die SOC2/ISO-zertifiziert sind und europäische Standards erfüllen.

Baue eine Agentenkultur auf: Ermutige Teams, spezialisierte Agenten für ihre Bereiche zu entwickeln. Eine “Garage mit 60 Agenten” entsteht organisch, wenn die Werkzeuge einfach genug sind.

Die Mission von TexCortex – 50 großen Unternehmen zu helfen, die ersten 10 Millionen Euro Wert mit KI zu generieren – zeigt den Weg: Nicht in abstrakte Experimente investieren, sondern in konkrete Use Cases mit messbarem Business Impact. Wissensmanagement ist dafür der ideale Startpunkt.