Gkc25/AI That Sticks: Practical Use Cases for Knowledge Work and Learning

Aus Copedia

Diese Präsentation zeigt, wie du aus vorhandenen Wissensdokumenten und Datenbeständen effektive Lernerfahrungen mit Hilfe von KI-Tools erstellen kannst. Der Vortrag behandelt die Herausforderungen bei der Skalierung von KI-gestützten Lernlösungen vom Pilotprojekt zur produktiven Nutzung und stellt praktische Werkzeuge sowie Arbeitsabläufe vor. Besondere Schwerpunkte liegen auf der Nutzung von ChatGPT für Deep Research, Google Notebook LM für umfangreiche Dokumentenanalysen und der Bedeutung von kritischem Denken im Lernprozess. Dabei werden auch wichtige Aspekte wie Datenschutz, Governance-Risiken und die Kostenstruktur bei der unternehmensweiten KI-Nutzung beleuchtet.

Hauptthemen der Präsentation:

  1. Aktuelle Herausforderungen bei der Nutzung von Big Data für Lernzwecke
  2. Die vier Säulen effektiven Lernens mit KI
  3. Praktischer Einsatz von ChatGPT für Deep Research und Kursplanung
  4. Google Notebook LM für umfangreiche Dokumentenanalysen
  5. Datenschutz und Governance bei KI-gestütztem Lernen
  6. Alternative Tools und Best Practices

Aktuelle Herausforderungen bei der Nutzung von Big Data für Lernzwecke

Die zentrale Problematik liegt darin, dass Organisationen heute riesige Datenmengen besitzen und diese für Lern- und Wissenstransferzwecke nutzen müssen. Mit KI-Tools kannst du nun nicht nur eine Version einer Präsentation teilen, sondern personalisierte Versionen für verschiedene Zielgruppen erstellen. Dies macht das Lernen personalisierter und schneller, erschwert jedoch gleichzeitig das Management dieser Lernressourcen erheblich.

Ein wesentlicher Unterschied zwischen klassischer Software-as-a-Service und KI-Tools besteht in der Skalierbarkeit. Während es für SaaS-Lösungen kaum einen Unterschied macht, ob ein Kunde oder 10.000 Kunden das System nutzen, verhält sich dies bei KI-Tools anders: Je mehr Menschen KI nutzen, desto kostspieliger wird der Betrieb. Die Skalierung ist nicht linear, sondern mit erheblichen zusätzlichen Kosten verbunden.

Die Herausforderung beim Übergang vom Pilotprojekt zur produktiven Nutzung ist besonders kritisch. Einen Piloten mit KI-Tools zu starten ist relativ einfach - du musst nur sicherstellen, dass du die richtigen Daten verwendest und grundlegende Governance-Strukturen etabliert hast. Der Schritt zur produktiven Nutzung, bei der alle vorgesehenen Personen in deiner Organisation das Tool effizient nutzen können, ist jedoch deutlich schwieriger. Dies liegt am erheblichen Lernaufwand, der damit verbunden ist.

Du musst außerdem entscheiden, welche Teile deines Wissens überhaupt teilbar sind. Dies betrifft Sicherheits- und Compliance-Aspekte, personenbezogene Daten und Geschäftsgeheimnisse. Eine klare Struktur im Wissensmanagement ist erforderlich, auch wenn diese nie perfekt sein wird. Der Schlüssel liegt darin zu wissen, welches Wissen für Lernzwecke geeignet ist und welches nicht.

Die vier Säulen effektiven Lernens mit KI

Der Referent präsentiert ein vierstufiges Modell für effektives Lernen, das besonders im Kontext von KI-gestütztem Lernen relevant ist:

Erudition (Faktenwissen) bildet die erste Ebene. Hier geht es um Fakten aus verschiedenen Domänen und Branchen. Dies ist das grundlegende Wissensfundament, auf dem alles andere aufbaut.

Workflows und Methoden stellen die zweite Ebene dar. Hier lernst du, wie du aus verschiedenen Fakten Ergebnisse produzierst. Du kombinierst mehrere Fakten und kommst durch die Anwendung von Methoden zu Schlussfolgerungen oder Urteilen.

Kritisches Denken ist die dritte und besonders wichtige Ebene. Um verschiedene Workflows oder Methoden kombiniert einzusetzen, benötigst du diese Fähigkeit. Kritisches Denken ist die entscheidende Kompetenz für die effektive Nutzung von KI und oft der Grund, warum Menschen keine wertvollen Ergebnisse mit KI erzielen können.

Die Schwierigkeit liegt darin, dass schnelle Urteile in der heutigen Arbeitswelt nicht selbstverständlich sind. Normalerweise ist dies eine Managementaufgabe - Führungskräfte sind es gewohnt, schnell Urteile zu fällen. Ein durchschnittlicher Mitarbeiter wurde jedoch selten gebeten, zwischen verschiedenen Optionen für seine Arbeitsausführung zu urteilen. Er erhielt Workflows, Methoden, Unternehmensverfahren und -wissen, die ihn zu bestimmten Ergebnissen führten - mit minimalem kritischem Denken.

Mit KI kann dieser Mitarbeiter nun super schnell Ergebnisse von Workflows und Methoden produzieren. Jetzt muss er aber beurteilen, ob diese Ergebnisse wertvoll sind und einen Nutzen schaffen. Dies ist ein großer Teil des Lernens, den du beim Erstellen von Lernmaterialien berücksichtigen musst.

Kollaboration bildet die vierte Säule. Kommunikation und Zusammenarbeit sind wesentliche Bestandteile des Lernens, da du normalerweise dein Wissen oder die Ergebnisse deiner Arbeit mit anderen teilen musst. Wenn du nicht lernst, wie du zu bestimmten Schlussfolgerungen gekommen bist und dies anderen erklären kannst, ist deine Arbeit für die Organisation und für deine Kollegen nicht wirklich nutzbar. Kollaboration ist eine eigenständige Fähigkeit, die unbedingt Teil des Kurses sein sollte.

Praktischer Einsatz von ChatGPT für Deep Research und Kursplanung

Der Referent verbringt etwa 30% seiner Zeit damit, herauszufinden, was genau er lehren möchte. Dies mag überraschend klingen, ist aber essentiell. Oft kommt es vor, dass Organisationen nach einer Schulung berichten, dass die Inhalte nicht genutzt werden. Die Teilnehmer bestehen Tests, wenden das Gelernte aber nie in ihrer täglichen Arbeit an. Dies bedeutet meist, dass die Frage nach dem “Warum” nicht richtig beantwortet wurde.

Deep Research Funktion in ChatGPT

Die Deep Research Funktion in ChatGPT ist ein mächtiges Werkzeug für umfassende Recherchen. Wenn du diese Funktion aktivierst, stellt ChatGPT zunächst klärende Fragen, bevor es mit der eigentlichen Recherche beginnt. Dies zwingt dich, deine Anfrage zu präzisieren und sicherzustellen, dass die Recherche wirklich deinen Bedürfnissen entspricht.

Eine Deep Research nutzt typischerweise 15-20 Quellen und produziert einen drei- bis vierseitigen Artikel mit vollständigen Quellenangaben. Die Qualität ist nach Einschätzung des Referenten gut, aber nicht veröffentlichungsreif - du musst noch mehr Arbeit investieren und weitere Fragen stellen. Es ist jedoch ein komfortabler Ausgangspunkt.

Ein wichtiger Hinweis: Mit einem 20-Dollar-Abonnement hast du ein monatliches Limit von etwa 10-15 Deep Researches. Deshalb empfiehlt der Referent, diese Funktion vor allem als Discovery-Tool zu nutzen, wenn du noch nicht sicher bist, was du genau tun möchtest.

Personalisierung von ChatGPT

In den Einstellungen von ChatGPT findest du einen Bereich für persönliche Anweisungen. Dies ist extrem wichtig, da du hier festlegen kannst, welchen Output-Stil du bevorzugst. Du kannst beispielsweise angeben, dass du keine Emojis möchtest, einen sachlicheren Ton bevorzugst oder einen akademischen Schreibstil wünschst. Der Unterschied zwischen einem nicht konfigurierten und einem personalisierten ChatGPT ist enorm und spart viel Zeit.

Ein wichtiger Tipp ist, immer nach Zitaten zu fragen. ChatGPT und andere KI-Modelle neigen manchmal dazu, eigene Formulierungen zu erfinden. Wenn du explizit nach Zitaten und Quellenangaben fragst, erhältst du verlässlichere Ergebnisse und kannst die Herkunft des Wissens nachvollziehen.

Kontextmanagement in langen Gesprächen

Bei längeren Konversationen mit ChatGPT verliert das Modell irgendwann den Gesamtkontext. Wenn du eine lange Unterhaltung mit vielen Entdeckungen und Lernmomenten hattest, ist es sinnvoll, ChatGPT um eine Zusammenfassung zu bitten und sicherzustellen, dass alle wesentlichen Details noch enthalten sind.

Ein Profi-Tipp: Wenn dein aktueller Chat nicht mehr gut funktioniert oder überladen ist, kannst du ChatGPT bitten, eine Zusammenfassung der Konversation zu erstellen. Diese kopierst du dann in einen frischen Chat. Dies funktioniert schneller und besser, behält den Kontext zusammen und ist eine Stärke, die ChatGPT und die meisten zeitgenössischen Modelle gemeinsam haben - Zusammenfassungen sind einer der besten Anwendungsfälle.

UML für komplexe Themen

Für komplexe Themen empfiehlt der Referent die Nutzung von Tabellen oder UML (Unified Modeling Language). UML ist eine Code-Sprache für Diagramme und eignet sich besonders gut für die Arbeit mit ChatGPT, da das Modell Code sehr präzise analysieren kann. Code ist für ChatGPT einfacher zu ändern und zu verstehen als natürliche Sprache.

UML bietet eine Möglichkeit, Prozesse als Code darzustellen - es ist eine Sprache zur Beschreibung von Geschäftsprozessen. Dies ist besonders nützlich bei anspruchsvollen Themen. Der wichtige Punkt ist, dass Code viel besser funktioniert als Diagramme selbst, da ChatGPT nicht besonders gut mit Bildern umgehen kann. Für ChatGPT sind Diagramme oder PDFs im Grunde Bilder, während Text oder UML zu deutlich besserem Verständnis führen.

ChatGPT als Advocatus Diaboli

Eine besonders wertvolle Nutzung von ChatGPT liegt darin, es als Gegenspieler einzusetzen. Wenn du zu einer Schlussfolgerung oder einem Ergebnis gekommen bist, kannst du ChatGPT bitten, zu widersprechen und eine negative Perspektive einzunehmen - also zu erklären, warum dein Ansatz nicht funktioniert.

Diese Methode ist nach Erfahrung des Referenten viel nützlicher als zu fragen “Kannst du mir zustimmen?” oder “Kannst du meinen Punkt unterstützen?”. Wenn du etwas gefunden hast, das du für wertvoll hältst, ist es produktiver zu fragen “Kannst du mir Gründe nennen, warum das nicht wertvoll ist?” anstatt “Wie kann ich es verbessern?”. Der Widerspruch ist hier wichtiger als die einfache Bestätigung.

Google Notebook LM für umfangreiche Dokumentenanalysen

Google Notebook LM ist ein spezialisiertes Tool für umfangreiche Dokumentenanalysen und bietet einige Vorteile gegenüber ChatGPT, besonders wenn du mit vielen Quellen arbeitest.

Umgang mit mehreren Dokumenten

Notebook LM unterstützt verlässlich bis zu 40 Dokumente. Du kannst mit diesen Dokumenten chatten und relativ einfach finden, wonach du suchst. ChatGPT hingegen ist bei mehr als 20 Quellen nicht mehr optimal und nach etwa 200 Seiten Dokumentenmaterial in einer Konversation produziert es nur noch durchschnittliche Ergebnisse.

Mind Mapping Funktion

Der Referent ist besonders begeistert von der Mind-Mapping-Funktion in Notebook LM. Mind Maps illustrieren Wissen als eine Serie von vernetzten Konzepten in Diagrammform. Dies ist sehr nützlich, um ein Thema als Ganzes zu verstehen, besonders wenn du wenig oder nur begrenztes Vorwissen hast und nicht viel Zeit zum Lesen aufwenden möchtest.

Die Mind Maps können recht tief und detailliert werden. Wenn du viele Quellen hast und verstehen möchtest, welche davon nützlich sind und welche nicht, ist die Mind-Mapping-Funktion ein ausgezeichnetes Werkzeug.

Audio-Übersichten als Podcasts

Eine innovative Funktion von Notebook LM ist die Möglichkeit, Audio-Übersichten zu erstellen. Du kannst aus einem langweiligen Dokument - beispielsweise Compliance-Notizen - einen Podcast generieren, bei dem zwei Personen über diesen Inhalt sprechen. Dies ist perfekt für Laufen, Spaziergänge oder andere Gelegenheiten, bei denen du unterwegs lernen möchtest.

Der Referent sieht dies als interessanten Ansatz, um auf neue Weise zu lernen. Du kannst sogar mehrere Podcasts nehmen und daraus einen einzigen zusammengesetzten Podcast produzieren.

Integration von Podcast-Quellen

Obwohl du Podcasts nicht direkt in Notebook LM hochladen kannst, gibt es Workarounds. Für YouTube-Videos findest du eine Transkript-Sektion - du kopierst einfach das Transkript und fügst es in Notebook LM ein. Es gibt auch Google-Services und andere Tools, die aus jedem Video Text extrahieren können.

Der Referent nutzt intensiv YouTube-Videos als Wissensquelle, da dort viel Wissen verfügbar ist, das leider nie schriftlich festgehalten wird. Podcasts auf YouTube sind äußerst populär und sehr aktuell, besonders zu neuen Technologien. Es kann ein halbes Jahr dauern, bis ähnliche Ideen in schriftlicher Form veröffentlicht werden. In einigen Bereichen sind einjährige Informationen bereits hoffnungslos veraltet, daher sind Podcasts heute eine wertvollere Quelle für zeitgenössisches Wissen als beispielsweise Bücher, deren Vorbereitung und Veröffentlichung viel Zeit in Anspruch nimmt.

Wichtigkeit von Zitaten

Auch in Notebook LM ist es wichtig, nach Zitaten zu fragen. KI-Modelle versuchen manchmal, eigene Formulierungen zu entwickeln. Du solltest explizit um Zitate und Quellenangaben bitten, denn sonst ergibt es keinen Sinn - du musst sicherstellen, dass dein Wissen aus echten Quellen stammt.

Erstellung von Studienführern

Mit Notebook LM kannst du kleine Briefings oder Studienführer erstellen, die du in deinen Kurs integrieren kannst, um das Leben deiner Studierenden etwas einfacher zu gestalten. Das Problem ist oft, dass akademische Sprache zwar sehr präzise, aber auch sehr schwer zu nutzen und zu lesen ist. Die Möglichkeit, akademisches Wissen in einer interessanteren, zugänglicheren Sprache zu beschreiben, erhöht die Inklusion - du benötigst kein akademisch geschultes Denken mehr, um Zugang zu diesem Wissen zu bekommen.

Datenschutz und Governance bei KI-gestütztem Lernen

Der Datenschutz ist ein zentrales Thema bei der Nutzung von KI-Tools für Organisationen. Es wurden mehrere wichtige Aspekte und Lösungsansätze diskutiert.

Einstellungen in ChatGPT

In den Personalisierungseinstellungen von ChatGPT kannst du die Option deaktivieren, dass deine Daten zur Verbesserung des Systems verwendet werden. Dies reduziert das Risiko, wenn du mit Unternehmensdaten arbeitest, die du nicht teilen möchtest.

Corporate Accounts und On-Premise-Lösungen

Auf Unternehmensebene gibt es verschiedene Lösungsansätze. Du kannst Corporate Accounts von ChatGPT nutzen, die versprechen, zuverlässiger mit deinen Daten umzugehen. Allerdings ist der Referent kein großer Befürworter dieser Lösung.

Für Unternehmensdokumente ist es wahrscheinlich besser, etwas vor Ort (on-premise) zu haben, denn sobald du Cloud-Dienste nutzt, teilst du im Grunde alles sofort. Normalerweise verwendest du dann Lama LLM oder etwas Einfacheres, das lokal installiert werden kann. Eine Alternative ist DeepSeek, falls du keine Bedenken gegenüber chinesischen Technologien hast - DeepSeek funktioniert sehr gut und kann ebenfalls on-premise installiert werden.

Vertrauensfrage bei OpenAI

In der Praxis für organisatorische Daten ist es derzeit einfacher, On-Premise-Lösungen zu verwenden, oder du musst OpenAI in Bezug auf Datensicherheit vertrauen. Der Referent ist jedoch der Meinung, dass keine Organisation OpenAI alles anvertrauen sollte, was sie hat.

Alternative: Text Cortex

Ein Teilnehmer stellte Text Cortex als datenschutzfreundliche Alternative vor. Dieses deutsche Tool wird in seiner Organisation genutzt, da es verschiedene Vorteile bietet:

  • Datensicherheit nach deutschen Standards
  • Möglichkeit zum Upload verschiedener Dokumententypen
  • Erstellung unterschiedlicher Wissensbasen
  • Bessere Strukturierungsmöglichkeiten
  • Gleiche Fähigkeiten wie Google Notebook LM
  • Überprüfbarkeit der Dokumentenherkunft
  • Bereitstellung von Referenzen und Zitaten
  • Cloud-basiert mit Datenschutz
  • Zusammenarbeit mit Hyperscalern wie AWS
  • Vektorisierung der Daten
  • GDPR-konform, ISO-zertifiziert, SOC 2-konform

Diese Lösung zeigt, dass es neben den bekannten US-amerikanischen Tools durchaus europäische Alternativen gibt, die höhere Datenschutzstandards erfüllen.

Alternative Tools und Best Practices

Vielfalt der verfügbaren Tools

Der Referent betont, dass es sich um ganze Klassen von Tools handelt, nicht nur um einzelne Produkte. Wenn er über ChatGPT spricht, bedeutet das nicht, dass er ein großer Fan der Datenpolitik von OpenAI ist oder der Art und Weise, wie die ersten Modelle trainiert wurden - was er als ziemlich räuberisch bezeichnet.

Er genießt das Handwerk und schätzt den Output, hat aber viele Fragen zum geschäftlichen Teil. Der Übergang von OpenAI von einem NGO zu einem Startup und dann zu einem Konzern ist eine interessante Entwicklung, die er als unfair einstuft.

Verschiedene Text-Generatoren

Zur Klasse der ChatGPT-ähnlichen Tools gehören:

  • Anthropic
  • DeepSeek
  • Verschiedene andere Text-Editoren oder Text-Produzenten

Für umfangreiche Recherchen gibt es die Klasse der Notebook-LM-artigen Tools, und es werden sicherlich noch viele weitere Tools dieser Art erscheinen.

Vergänglichkeit von Tools

Der Referent weist darauf hin, dass Tools auch schnell wieder verschwinden können. Er war ein intensiver Nutzer von Mind Studio, einem großartigen Tool, das vollständige Artikel produzieren konnte. Es arbeitete kostengünstig, berechnete für jede Produktion einen kleinen Betrag und lieferte wirklich gute Qualität bei Deep-Research-ähnlichen Aufgaben. Leider wurde es nach einigen Monaten Testphase geschlossen. Der Referent hatte ein paar hundert Euro ausgegeben und viele Daten produziert - aber das passiert, wenn das Geschäftsmodell nicht ausreichend unterstützt wird.

Urheberrecht und KI - eine philosophische Betrachtung

Der Referent teilt eine interessante Perspektive zum Thema Urheberrecht und KI-Training. Er vergleicht die Situation mit dem Verlagswesen: Wenn ein Verlag ein Buch über Agile veröffentlicht, möchte er natürlich, dass du dafür bezahlst. Aber ist das Wissen in diesem Buch zu 100% einzigartig? Ist es nicht von der Arbeit anderer Menschen abgeleitet?

Seine Frage lautet: Müssten wir dann alle Agile-Bücher kaufen, um dieses Wissen nutzen zu dürfen? Oder reichen einige wenige? Die Wissenschaft funktioniert seiner Meinung nach auf die gleiche Weise: Du hast eine neue Idee zusätzlich zu hundert alten Ideen, die bereits von anderen Menschen produziert wurden. Wenn alle alten Ideen in der Wissenschaft urheberrechtlich geschützt wären, gäbe es keine Wissenschaft mehr - man würde nicht mehr veröffentlichen, nicht mehr teilen, nicht mehr erklären.

Im Rechtsbereich gibt es andere Regeln, und der Referent ist sich nicht sicher, ob er den Unterschied versteht zwischen: Ich besuche einen Agile-Kurs, lerne etwas, schreibe es auf und verwende es in einem LLM - versus: Ich kaufe ein Buch und verwende es in einem LLM. Aus rechtlicher Perspektive gibt es einen großen Unterschied, aber der Referent versteht die Grenzlinie nicht klar. Dies könnte allerdings auch daran liegen, dass er pro-KI eingestellt ist.

Präsentationstools

Der Vortrag erwähnt auch Tools zur schnelleren Erstellung von Präsentationen, wobei Details aufgrund des Zeitlimits nicht mehr ausgeführt wurden.

Fazit und Ausblick

Die Erstellung von Lernerfahrungen aus vorhandenen Dokumenten und Wissensbeständen mit KI-Tools bietet enorme Möglichkeiten, birgt aber auch erhebliche Herausforderungen. Der zentrale Grundsatz lautet: Je mehr KI du nutzt, desto komplexer wird das Management. Dies ist die wesentliche Erkenntnis, die du bei allen Entscheidungen berücksichtigen solltest.

Offene Fragen und Herausforderungen

Die Skalierung von KI-Lösungen bleibt eine der größten Herausforderungen. Während Pilotprojekte relativ einfach zu starten sind, ist der Übergang zur produktiven Nutzung mit erheblichem Aufwand verbunden - sowohl in Bezug auf Kosten als auch auf Lernaufwand für die Nutzer.

Die Datenschutzfrage ist noch nicht abschließend geklärt. Organisationen müssen zwischen Vertrauen in Cloud-Anbieter und dem Aufwand für On-Premise-Lösungen abwägen. Es zeigt sich, dass europäische Alternativen mit höheren Datenschutzstandards verfügbar sind, die es zu evaluieren gilt.

Die philosophische und rechtliche Debatte über Urheberrecht, Wissenserzeugung und KI-Training wird weitergehen und möglicherweise zu neuen Regelungen führen müssen.

Handlungsempfehlungen

Investiere ausreichend Zeit in die Planung: Verbringe etwa 30% deiner Zeit damit herauszufinden, was genau du lehren möchtest und warum. Die Frage nach dem “Warum” ist entscheidend für den späteren Erfolg.

Personalisiere deine KI-Tools: Nimm dir Zeit, ChatGPT und andere Tools mit persönlichen Anweisungen zu konfigurieren. Der Unterschied im Output ist erheblich und spart langfristig viel Zeit.

Fordere immer Zitate und Quellenangaben an: Dies gewährleistet die Nachvollziehbarkeit und Qualität der generierten Inhalte.

Nutze verschiedene Tools für verschiedene Zwecke: ChatGPT Deep Research für explorative Recherchen, Google Notebook LM oder Text Cortex für umfangreiche Dokumentenanalysen, und spezialisierte Tools für spezifische Aufgaben.

Integriere kritisches Denken in deine Kurse: Dies ist die entscheidende Fähigkeit, die Lernende benötigen, um KI effektiv nutzen zu können. Stelle sicher, dass deine Lernmaterialien nicht nur Workflows und Methoden vermitteln, sondern auch die Fähigkeit zur Beurteilung und Auswahl.

Nutze KI als Advocatus Diaboli: Lasse KI-Tools deine Ideen und Schlussfolgerungen hinterfragen, anstatt nur nach Bestätigung zu suchen. Dies führt zu tieferem Lernen und besseren Ergebnissen.

Berücksichtige Kollaboration: Stelle sicher, dass Lernende nicht nur Ergebnisse produzieren, sondern auch lernen, wie sie ihre Arbeit und Schlussfolgerungen anderen erklären können.

Evaluiere regelmäßig neue Tools: Die Landschaft der KI-Tools ändert sich schnell. Bleibe informiert über neue Entwicklungen, aber sei dir auch bewusst, dass nicht jedes Tool langfristig verfügbar bleiben wird.

Beginne mit klarer Wissensstruktur: Identifiziere, welches Wissen in deiner Organisation teilbar ist und welches aus Sicherheits-, Compliance- oder anderen Gründen geschützt werden muss, bevor du mit der Implementierung beginnst.

Kalkuliere die Gesamtkosten realistisch: Berücksichtige nicht nur die Lizenzkosten, sondern auch die Kosten für Management, Support und die nicht-lineare Skalierung bei wachsender Nutzerzahl.