WissensTransferCamp 2025/KI-basierte Dokumentation im Expert Debriefing
Die Session von Simon stellt einen umfassenden Überblick über den Einsatz von KI-basierten Tools in Expert-Debriefing-Prozessen vor. Simon zeigt, wie moderne KI-Technologien die Dokumentation von Wissenstransfer-Sessions revolutionieren können - von der automatischen Transkription über die intelligente Zusammenfassung bis hin zur Erstellung interaktiver Chatbots. Dabei werden sowohl Cloud-basierte als auch lokale Lösungen für verschiedene Sicherheitsanforderungen präsentiert, mit praktischen Demonstrationen der gesamten Prozesskette.
Session Owner: Simon Dückert
Hauptthemen der Präsentation:
- Historische Entwicklung des Expert-Debriefing-Prozesses
- Herausforderungen bei der Wissensübertragung von Menschen auf Maschinen
- Technologische Lösungsansätze für verschiedene Sicherheitsanforderungen
- Praktische Demonstration der KI-basierten Dokumentationskette
- Empfehlungen für Tools und Modelle
- Zukunftsperspektiven und neue Anwendungsmöglichkeiten
Historische Entwicklung des Expert-Debriefing-Prozesses
Die Wurzeln des Expert-Debriefing-Prozesses reichen zurück bis in die Mitte der 1990er Jahre und entstammen dem Knowledge Engineering am KI-Lehrstuhl in Erlangen. Der Prozess entwickelte sich aus der Notwendigkeit heraus, Wissen von Menschen auf Maschinen zu übertragen - eine Herausforderung, die bereits vor dem letzten KI-Winter mit regelbasierter und symbolischer KI angegangen wurde.
Ein Meilenstein war das Audi-Projekt von 1997, bei dem entlang von 20 Kernkompetenzfeldern Wissenslandkarten erstellt wurden. Die Vision umfasste bereits damals innovative Konzepte wie:
- Tutorsysteme für neue Mitarbeiter
- Intelligente Checklisten zur Problemvorhersage
- Kritiksysteme für veraltete Technologien
- Hypertext-basierte Wissensdokumentation
Der Begriff “Expert-Debriefing” etablierte sich erst später, konkret mit der Implementierung bei Schäffler 2004/2005. Der Grundprozess blieb jedoch über die Jahre konstant: Auftragsklärung, Vorgespräch, Erstellung von Wissenslandkarten, Priorisierung und strukturierte Wissenserhebung.
Herausforderungen bei der Wissensübertragung von Menschen auf Maschinen
Ein zentrales Problem liegt in der natürlichen Präferenz für mündliche gegenüber schriftlicher Kommunikation. Simon verweist auf das Konzept der “secondary orality” - Menschen sind evolutionär darauf programmiert, Wissen mündlich zu übertragen, da dies weniger aufwendig und natürlicher ist als schriftliche Dokumentation.
Diese Präferenz führt zu einem bekannten Phänomen: Ähnlich wie in der Softwareentwicklung, wo alle gerne programmieren, aber niemand gerne dokumentiert, setzen sich auch in anderen Wissensbereichen nach Projektende selten Personen hin, um systematische Reflexionen zu erstellen. Stattdessen steht meist bereits das nächste Projekt an.
Die Lösung liegt in der Nutzung dieser natürlichen Präferenz: Statt Menschen zu zwingen, schriftlich zu dokumentieren, werden ihre mündlichen Äußerungen aufgezeichnet und automatisiert in strukturierte Dokumentationen überführt.
Technologische Lösungsansätze für verschiedene Sicherheitsanforderungen
Simon präsentiert ein abgestuftes System für verschiedene Sicherheitsanforderungen, das von vollständig Cloud-basierten Lösungen bis hin zu komplett lokalen Systemen reicht:
Cloud-basierte Lösungen (höchste Qualität):
- ChatGPT und andere Third-Party-Services für unkritische Inhalte
- Microsoft 365 mit Auftragsdatenverarbeitungsverträgen für mittlere Sicherheitsstufen
- Claude Sonnet 4 über Open Router für beste Textqualität
Lokale Lösungen (höchste Sicherheit):
- Vollständig offline betreibbare Systeme mit lokalen Sprachmodellen
- Einsatz auf Mac Minis mit NPU-Unterstützung
- Modelle bis 120 Milliarden Parameter für anspruchsvolle Aufgaben
Besonders in High-Security-Umfeldern, wo bereits die Weitergabe an Dritte mit hohen Strafen belegt ist, bieten lokale Lösungen die notwendige Sicherheit. Diese können komplett internetfrei betrieben werden und verarbeiten Daten ausschließlich in der eigenen Infrastruktur.
Praktische Demonstration der KI-basierten Dokumentationskette
Die Live-Demonstration zeigt den kompletten Workflow von der Audioaufzeichnung bis zur fertigen Dokumentation:
Schritt 1: Audioaufzeichnung
- Verwendung professioneller Audio-Interfaces für Multi-Track-Recording
- Alternative: Clip-Mikrofone für ereignisbasierte Aufzeichnungen
- Wichtigkeit der Audioqualität für optimale Transkriptionsergebnisse
Schritt 2: Transkription mit Whisper
- Lokale Verarbeitung mit OpenAI Whisper
- Speaker Diarization zur automatischen Sprechererkennung
- Verarbeitung einer 45-minütigen Session in etwa 7 Minuten
- Genauigkeit von 99,99% bei guter Audioqualität
Schritt 3: KI-basierte Zusammenfassung
- Verwendung vorgefertigter Prompt-Bibliotheken
- Anpassbare Temperatur-Einstellungen zur Kontrolle der Kreativität
- Kostentransparenz: Zusammenfassung einer Session für unter 0,01 Dollar
Schritt 4: Multi-Format-Output
- Automatische Generierung verschiedener Dokumenttypen
- Markdown-Export für weitere Bearbeitung
- PDF-Erstellung für Expertenreviews
- Integration in bestehende Systeme wie Confluence oder OneNote
Empfehlungen für Tools und Modelle
Für den Einstieg in lokale KI-Lösungen empfiehlt Simon spezifische Modelle basierend auf verfügbaren Ressourcen:
Für 16GB+ Systeme:
- GPT-OSS 20B als erstes echtes Open-Source-Modell von OpenAI
- Mistral 24B als europäische Alternative
- Qwen 4B oder 12B für kleinere Systeme mit überraschend guter Deutsch-Unterstützung
Hardware-Empfehlungen:
- Mac-Systeme mit M-Chips für optimale Performance
- Copilot Plus PCs mit mindestens 40 Teraflops NPU-Power
- Gaming-PCs mit leistungsstarken Grafikkarten als Alternative
Software-Tools:
- Chatbox oder Jan für lokale Modellverwaltung
- Open Router für einheitlichen Zugang zu verschiedenen Cloud-Modellen
- Hugging Face als Plattform für über zwei Millionen verfügbare Modelle
Zukunftsperspektiven und neue Anwendungsmöglichkeiten
Die vorgestellten Technologien eröffnen völlig neue Möglichkeiten für den Wissenstransfer:
Interaktive Wissensnutzung:
- Erstellung von Chatbots aus Dokumentationsinhalten
- Kontextbasierte Abfragen über gesamte Wissensbestände
- Mehrsprachige Ausgabe für internationale Teams
Automatisierte Wissensvernetzung:
- Extraktion von Kernkonzepten und automatische Verlinkung
- Erstellung von Glossaren und Fachwortlisten
- Aufbau vernetzter Wissenslandschaften
Echtzeitanwendungen:
- Live-Transkription in Telefonaten mit automatischer Fragengenerierung
- Echtzeit-Wissensextraktion während laufender Gespräche
- Integration in bestehende Kommunikationsinfrastrukturen
Personalisierte Wissensaufbereitung:
- Automatische Erstellung von Einarbeitungsplänen
- Zielgruppenspezifische Dokumentationsformate
- Kulturelle und sprachliche Anpassungen
Fazit und Ausblick
Die KI-basierte Dokumentation von Expert-Debriefings stellt einen Paradigmenwechsel im Wissensmanagement dar. Statt aufwendiger manueller Dokumentation ermöglichen moderne KI-Tools eine nahtlose Überführung mündlicher Expertise in strukturierte, durchsuchbare und interaktive Wissensbestände.
Die Technologie ist bereits heute produktiv einsetzbar und bietet sowohl für sicherheitskritische Umgebungen als auch für offene Anwendungen geeignete Lösungen. Die Kosteneffizienz ist beeindruckend - komplette Session-Dokumentationen entstehen für wenige Cent.
Offene Fragen betreffen hauptsächlich die Weiterentwicklung lokaler Modelle, die Balance zwischen Automatisierung und menschlicher Kontrolle sowie die Integration in bestehende Unternehmenssysteme. Die rasante Entwicklung der zugrundeliegenden Technologien lässt erwarten, dass bereits in naher Zukunft noch leistungsfähigere und benutzerfreundlichere Lösungen verfügbar sein werden.
Handlungsempfehlungen:
- Experimentieren Sie mit den vorgestellten Tools und Modellen
- Beginnen Sie mit unkritischen Inhalten und Cloud-Lösungen
- Bauen Sie schrittweise lokale Kapazitäten für sensible Daten auf
- Etablieren Sie “Human in the Loop”-Prozesse für Qualitätssicherung
- Nutzen Sie die bereitgestellten Links und Ressourcen für eigene Versuche