Gkc25/Designing AI to create experts not replace them: Unterschied zwischen den Versionen

Aus Copedia
Simon.dueckert (Diskussion | Beiträge)
Die Seite wurde neu angelegt: „'''Diese Präsentation untersucht die kritische Frage, wie künstliche Intelligenz (KI) so gestaltet werden kann, dass sie menschliche Expertise aufbaut, anstatt sie zu ersetzen. Stuart French zeigt auf, dass die bloße Verfügbarkeit von Informationen nicht automatisch zu Wissen führt und dass der unreflektierte Einsatz von KI-Tools wie ChatGPT die Entwicklung kritischen Denkens und tiefer Fachexpertise behindern kann. Durch die Analyse von Lernmodellen…“
(kein Unterschied)

Version vom 23. November 2025, 12:02 Uhr

Diese Präsentation untersucht die kritische Frage, wie künstliche Intelligenz (KI) so gestaltet werden kann, dass sie menschliche Expertise aufbaut, anstatt sie zu ersetzen. Stuart French zeigt auf, dass die bloße Verfügbarkeit von Informationen nicht automatisch zu Wissen führt und dass der unreflektierte Einsatz von KI-Tools wie ChatGPT die Entwicklung kritischen Denkens und tiefer Fachexpertise behindern kann. Durch die Analyse von Lernmodellen aus traditionellen Handwerksberufen entwickelt er einen Ansatz für KI-Mentoren, die durch gezielte Fragen zum eigenständigen Denken anregen, statt fertige Antworten zu liefern. Die zentrale Botschaft: Knowledge Manager müssen sich aktiv in die Entwicklung von KI-Lösungen einbringen, um sicherzustellen, dass diese die Kompetenzentwicklung fördern.

Hauptthemen der Präsentation:

  1. Der fundamentale Unterschied zwischen Information und Wissen
  2. Die Grenzen informationsbasierter Ansätze in der digitalen Ära
  3. Die Messung von Wissen durch Kompetenz statt Informationswiedergabe
  4. Potenzielle Risiken von KI für die Entwicklung menschlicher Expertise
  5. Das Meister-Lehrlings-Modell als Vorbild für KI-gestütztes Lernen
  6. Praktische Ansätze zur Entwicklung von Mentor-KI-Systemen

Der fundamentale Unterschied zwischen Information und Wissen

Die Grundlage der Präsentation bildet eine kritische Auseinandersetzung mit der Shannon’schen Kommunikationstheorie von 1946. Diese Theorie beschrieb Kommunikation als einen mathematischen Prozess zwischen Sender, Empfänger und Nachricht. Die Annahme war, dass Wissen vom Sender zum Empfänger übertragen werden könnte wie ein Objekt, das von Hand zu Hand weitergegeben wird.

Dieses Modell führte in den 1960er bis 1980er Jahren zum kompetenzbasierten Bildungsansatz. Die zugrundeliegende Logik war einfach: Ein Lehrer besitzt Wissen, überträgt dieses Wissen an Schüler, und diese verfügen dann über dasselbe Wissen. Doch diese Theorie wirft eine entscheidende Frage auf: Wenn alle Schüler von demselben Lehrer dieselben Informationen erhalten, warum haben sie dann unterschiedliche Noten?

Die Antwort liegt in der fundamentalen Erkenntnis, dass Information nicht gleichbedeutend mit Wissen ist. Was tatsächlich übertragen wird, sind Informationen. Die Schüler nehmen diese Informationen auf und verarbeiten sie gemeinsam mit ihrer eigenen Erfahrung, ihren Fähigkeiten, ihrer Beziehung zum Lehrer und ihrer Tagesverfassung. Daraus generieren sie ihr eigenes, individuelles Wissen.

Diese Unterscheidung lässt sich mit einem anschaulichen Vergleich verdeutlichen: Ein Foto der Mona Lisa ist nicht dasselbe wie das Gemälde selbst. Eine Fotografie einer Landschaft kann niemals die Erfahrung ersetzen, sich tatsächlich in dieser Landschaft zu bewegen, sich umzusehen und das Wetter zu spüren. Genauso wenig ist Information dasselbe wie Wissen.

Die Beobachtung von Schülern nach dem Unterricht bestätigt dies eindrucksvoll: Verschiedene Gruppen diskutieren über unterschiedliche Dinge, die sie aus derselben Unterrichtsstunde mitgenommen haben. Jeder hat seinen eigenen, individuellen Lernprozess durchlaufen.

Die Grenzen informationsbasierter Ansätze in der digitalen Ära

Die frühen Wissensmanagement-Theorien basierten auf einer vereinfachten Hierarchie: Mehr Daten führen zu mehr Informationen, mehr Informationen zu mehr Wissen, und mehr Wissen ermöglicht weise Entscheidungen in der Zukunft. Diese Annahme entstand in einer Zeit, in der Information knapp war.

Mit dem Aufkommen des Internets Anfang der 1990er Jahre begann ein gewaltiges Experiment. Suchmaschinen wie Yahoo, Alta Vista und schließlich Google machten Informationen in einem nie dagewesenen Ausmaß zugänglich. Wikipedia und andere Plattformen demokratisierten den Zugang zu Wissen weltweit.

Nach dieser Logik hätte dies zu einem goldenen Zeitalter weiser Entscheidungen führen müssen. Regierungen hätten perfekt ausbalancierte Budgets erstellt, Kriege wären vermieden worden, und die Menschheit hätte ihre größten Herausforderungen gemeistert.

Die Realität sieht anders aus. Das Green Wall Project in Afrika – ein Projekt, das sich über neun Länder erstreckt und das Vordringen der Sahara nach Süden stoppt – wird von Menschen umgesetzt, die kaum Zugang zu Informationen haben. Es könnte eines der wirkungsvollsten Klimaprojekte des Planeten sein. Gleichzeitig zeigen Statistiken aus den USA ein beunruhigendes Bild: 30 Prozent der 18- bis 24-Jährigen sind sich nicht sicher, ob die Erde rund oder flach ist – und das trotz ständigem Informationszugang über ihre Smartphones.

Diese Diskrepanz zeigt deutlich: Mehr Information führt nicht automatisch zu mehr Wissen. Die Aufgabe von Knowledge Managern geht weit über bessere Suchmaschinen und effizientere Dokumentenverwaltung hinaus. Diese Werkzeuge sind wichtig, aber bei weitem nicht ausreichend.

Die Messung von Wissen durch Kompetenz statt Informationswiedergabe

Wenn Wissen nicht durch die Wiedergabe von Informationen gemessen werden kann, wie dann? Die Antwort liegt in der Betrachtung von Kompetenz und Fähigkeit zur Anwendung.

Ein Apfelbaum wird nicht danach beurteilt, wie gut er aussieht oder wie viele Blätter er hat, sondern danach, wie gut die Äpfel schmecken, die er hervorbringt. Einen Musiker beurteilen wir nicht danach, wie gut er Noten lesen oder Musikgeschichte rezitieren kann. Wir hören ihm beim Spielen seines Instruments zu und erkennen sofort, welches Wissen er besitzt.

In der Industrie zeigt sich dasselbe Prinzip: Ein Einzelner verfügt über Wissen, wenn er in der Lage ist, unabhängig von der Situation angemessen zu handeln. Nicht nur, wenn er Fragen in einem Test richtig beantworten kann, sondern wenn er in völlig neuen Situationen weiß, was zu tun ist – oder zumindest weiß, wie er herausfinden kann, was zu tun ist.

Auf organisatorischer Ebene zeigt sich das Wissen eines Unternehmens oder einer Fabrik in ihrer Fähigkeit, Produkte, Güter und Dienstleistungen unabhängig von personellen Wechseln zu produzieren. Der industrielle Vorteil im Markt hängt von dieser organisationalen Kompetenz ab, nicht nur von individuellen Wissensbeständen.

Diese Perspektive ist besonders relevant, wenn wir über den Einsatz von KI nachdenken. Die Fähigkeit von KI-Systemen wächst rasant. Einige neuere Modelle erreichen bereits PhD-Niveau in Mathematik. Auch wenn nicht garantiert ist, dass dieses Wachstum anhält oder dass Urheberrechtsgesetze die Trainingsdatensätze nicht einschränken werden, ist die Entwicklung momentan beeindruckend.

Neue Technologien wie RAG (Retrieval-Augmented Generation), Knowledge Graphs und andere unterstützende Tools reduzieren Halluzinationen und bringen lokales Wissen ins Spiel. Der Satz “Wenn jemand nicht weiß, was Wissensmanagement ist, sag ihm einfach, wofür das R in RAG steht” bringt diese Verbindung auf den Punkt.

Potenzielle Risiken von KI für die Entwicklung menschlicher Expertise

Sowohl in den Medien als auch in staatlichen Leitlinien wird derzeit betont, dass die Zukunft im “Human in the Loop”-Ansatz liegt: Mensch plus KI, nicht KI als Ersatz. Die Vision ist, menschliche Expertise durch KI-Expertise zu erweitern und so die menschlichen Fähigkeiten zu verstärken.

Doch es gibt einen besorgniserregenden Aspekt, den wir nicht ignorieren dürfen. Immer mehr Forschungsergebnisse deuten darauf hin, dass etwas im menschlichen Gehirn passiert, wenn Menschen KI nutzen. Dieser Effekt ist besonders stark bei Jugendlichen ausgeprägt, was noch alarmierender ist.

Es wächst eine Basis wissenschaftlicher Belege, die nahelegt, dass KI in ihrer aktuellen Frage-Antwort-Form – selbst wenn sie die Begründung für ihre Antworten zeigt – der Entwicklung von Expertise abträglich sein könnte. Noch beunruhigender: Es gibt starke Hinweise darauf, dass KI nicht nur die Entwicklung neuer Expertise verhindert, sondern die bereits vorhandene Expertise der Menschen untergräbt.

Dies ist besonders besorgniserregend, weil ein gefährlicher Effekt eintreten kann: Während die menschliche Kompetenz sinkt, steigt die Gesamtleistung durch KI-Unterstützung weiter an. Dies verdeckt das Problem. Kognitive Auslagerung und der Abbau kritischen Denkens sowie tiefer Expertise geschehen unter der Oberfläche, während die sichtbare Produktivität steigt.

Wenn man diese Entwicklung einem CEO zeigen würde, könnte die Reaktion sein: “Die Wachstumsrate ist nicht so hoch wie erwartet.” Aber die eigentliche Gefahr – dass unsere kognitiven Fähigkeiten abnehmen – würde nicht erkannt werden. Das Wachstum ist einfach nicht so stark, wie es sein sollte.

Das wirklich Beängstigende daran: Wenn die Pre-KI-Experten – Menschen wie wir, die ihre Expertise ohne KI-Unterstützung entwickelt haben – in Rente gehen, könnte es zu spät sein. Der Schaden wäre bereits angerichtet.

Ein zusätzliches Problem verschärft die Situation: KI lernt zunehmend nicht mehr von menschlicher Expertise, sondern von Inhalten aus dem Internet. Wenn immer mehr Inhalte von KI generiert werden, beginnt die KI bald, von KI zu lernen statt von menschlicher Expertise. Dies ist das klassische “Garbage in, Garbage out”-Problem der Zukunft.

Ein Vergleich aus der Medizinabfall-Industrie verdeutlicht die Gefahr: Prionen sind Proteine, die bei Kontakt mit Gehirngewebe dieses in Brei verwandeln. In England gab es einen Ausbruch des sogenannten Rinderwahns (BSE). Diese Krankheit entstand, weil Kosteneinsparungen in der Schweinezucht dazu führten, dass Schweineabfälle an Schweine verfüttert wurden. Es entstand ein Kreislauf, in dem Schweine frühere Schweine fraßen, und dann Menschen diese Schweine aßen. In diesem Kreislauf konnten die Prionen mutieren.

Genau das passiert gerade mit KI: Wir füttern KI-generierte Inhalte zurück in KI-Systeme. Dieser sich selbst verstärkende Kreislauf könnte in den nächsten zwei Jahren schädliche Auswirkungen zeigen.

Doch es gibt ein noch dringenderes Problem, das bereits jetzt auftritt: Low-Frequency, High-Impact-Szenarien.

Das Meister-Lehrlings-Modell als Vorbild für KI-gestütztes Lernen

Ein eindrückliches Beispiel aus der Notfalldienst-Praxis illustriert die Grenzen von KI bei seltenen, aber kritischen Ereignissen: Eine Feuerwehreinheit in Südaustralien wurde zu einem Haus gerufen. Eine Frau hatte den Notruf gewählt und berichtet, dass ihre drei Söhne bewusstlos seien und sie sich schrecklich fühle.

Als die Feuerwehrleute ankamen, war die Haustür offen. Sie konnten die Frau im Flur liegen sehen, mit dem Telefon in der Hand. Die Feuerwehrleute vermuteten Gas als Ursache und holten ihre Kohlenmonoxid-Detektoren heraus. Die Geräte zeigten keine schädlichen Gase an.

Daraufhin liefen zwei Feuerwehrleute schnell hinein, um die Frau zu retten – und fielen prompt bewusstlos um. Vier weitere Feuerwehrleute rannten zum Fahrzeug, legten Atemschutzgeräte an, drangen ins Haus ein, zogen die beiden bewusstlosen Kollegen und die Frau heraus und retteten dann die drei Söhne.

Was war tatsächlich passiert? Die Mutter hatte es satt, dass ihre Söhne das tropische Aquarium nicht reinigten. Sie ließ etwas Wasser ab, nahm eine Bürste und schrubbt die Vorderseite, die Seiten und die Rückseite des Aquariums. Dann schrubbt sie die lebenden Korallen am Boden des Aquariums, die ebenfalls mit grünen Algen bedeckt waren. Die Korallen reagierten darauf, indem sie ein defensives Aerosol-Toxin in die Luft freisetzten, das alle Menschen im Haus bewusstlos werden ließ.

Dies war vermutlich das erste Mal, dass ein solcher Vorfall passierte. ChatGPT nach der richtigen Vorgehensweise zu fragen, würde nicht helfen, weil es einfach nicht genügend Daten zu dieser Art von Vorfall gibt. Die korrekte Maßnahme, die in der Nachbesprechung erarbeitet wurde, war: Egal ob der Detektor anschlägt oder nicht, gehe immer mit Atemschutz hinein.

Doch das nächste ungewöhnliche Ereignis wird anders sein. Und genau darin liegt das Problem mit KI: In Bereichen mit wenig verfügbaren Daten zeigen aktuelle KI-Modelle extreme Zuversicht in ihren Antworten, obwohl sie auf minimalen Daten basieren.

Diese Probleme sind es, die die größten Kosten verursachen. Beispiele dafür sind:

  • NASA verlor die Fähigkeit, eine Saturn-V-Rakete zu starten – obwohl zehn Jahre in die Entwicklung einer völlig neuen Form der Ingenieurskunst (Systems Engineering) investiert wurden, konnte dies 15 Jahre später nicht mehr repliziert werden
  • Die Menschheit verlor 1600 Jahre lang die Fähigkeit, Beton herzustellen, bevor wir sie wiederentdeckten
  • Frankreich hatte fast nicht mehr das Wissen, Notre Dame wiederaufzubauen

Glücklicherweise gab es im Fall von Notre Dame Hunderte wunderbarer Menschen, die über Generationen hinweg – ihre Väter und Großväter – in den Wäldern ausgebildet wurden, um diese handwerklichen Fähigkeiten am Leben zu erhalten. Für Knowledge Manager, die im Bereich Expertise arbeiten, war es ein bewegender Moment zu sehen, wie diese erstaunlichen Menschen Fähigkeiten einsetzten, die über Generationen weitergegeben wurden, um die Kathedrale mit den ursprünglichen Techniken wiederaufzubauen.

Aus dem Handwerk können wir wichtige Lektionen für den Umgang mit KI lernen. Meister verwenden ein dreistufiges Modell:

  • Lehrlinge gehen einen Tag pro Woche oder eine Woche pro Monat zur Schule, wo sie die Theorie von Lehrern lernen
  • Sie kehren zur Arbeit zurück, wo der Meister oder ein Geselle mit ihnen sitzt und ihnen die Praxis beibringt – wie man die Theorie anwendet
  • Dies geschieht durch Coaching: Ein Beispiel zeigen, dann den Lehrling kopieren lassen und ihn dann korrigieren

Was viele nicht wissen, die keine Ausbildung gemacht haben: Wie clever und strategisch diese Meister vorgehen. Sie nutzen sokratische Diskussionen, modellieren Denkprozesse mit den Lehrlingen und konstruieren absichtlich Fehlersituationen. Der Lehrling muss scheitern und durch diese Erfahrung lernen.

Dave Snowden sagt, dass wir 88-mal mehr aus Fehlern lernen als aus Erfolgen. Dies zeigt sich deutlich im Ausbildungsmodell. Der Meister versucht nicht einfach, dem Lehrling etwas beizubringen. Er versucht, die Lücken in dessen Denken aufzudecken, herauszufinden, was der Lehrling nicht weiß oder was er falsch versteht auf eine Weise, die zu schlechten Ergebnissen führen würde.

Der Lehrling wird getestet und herausgefordert. Er wird gebeten, mitten in einer Arbeit innezuhalten und zu erklären, warum er etwas tut. Der arme junge Mensch hat sich gemerkt, dass er es in der Reihenfolge ABC tun muss, aber er hat keine Ahnung, warum es ABC und nicht ACB sein sollte.

Ein persönliches Beispiel: Als Lehrling in einer großen Gas- und Ölraffinerie wurde der Vortragende losgeschickt, um einen Linkshänder-Schraubenzieher zu finden. Als junger Lehrling dachte er: “Okay, linkshändig. Da ich Rechtshänder bin, müssen alle meine Schraubenzieher rechtshändig sein.”

In der Werkstatt angekommen, bemerkte er das Lächeln des Mannes, als er fragte, dachte sich aber nichts dabei. Der Mann sagte, Bill habe den Schraubenzieher und sei hinten bei den Klärbecken. Aber bevor er dorthin gehen könne, müsse er die Augendusch-Schulung absolvieren.

Nach der Schulung ging er zum Kontrollraum, stellte sich vor und erklärte, warum er dort war. Die Mitarbeiter – wieder mit Lächeln im Gesicht – zeigten ihm einen alten Foxbro-Computer, der gerade ausgemustert wurde, und verbrachten eine halbe Stunde damit, ihm die alten Ferrit-Speicherboards zu zeigen.

Schließlich fand er Bill, der ihm erklärte, dass es so etwas wie einen Linkshänder-Schraubenzieher nicht gibt – und ihn dann nach allem fragte, was er auf dieser Reise gelernt hatte. Sie hatten diese Erfahrung bewusst konstruiert.

Ein wichtiger Grundsatz: Expertise fühlt sich für diejenigen, die sie besitzen, einfach wie gesunder Menschenverstand an. Deshalb denken sie nicht daran, sie zu teilen. Ein Meister, der mit einem Lehrling arbeitet, ist weniger ein Lehrer und mehr wie jemand, der Ton formt. Der Trick besteht nicht darin, eine Form auszuschneiden, sondern den Ton geschmeidig zu halten, ihn zu bewegen, etwas hinzuzufügen, etwas zu entfernen und ihn in die richtige Form zu strecken – nicht nur in die richtige Form, sondern mit der richtigen Struktur, damit er den Brennprozess übersteht.

Praktische Ansätze zur Entwicklung von Mentor-KI-Systemen

Um das Konzept praktisch zu machen, präsentierte Stuart French eine Übung: Ein Junior-Analyst präsentiert eine fehlerfreie Tabelle mit Energiebedarfsprognosen. Auf die Frage, wie die Annahmen abgeleitet wurden, antwortet er: “Sie stammen aus dem Modell des letzten Jahres. Das hat damals gut funktioniert.”

Der Meister erkennt, dass der Analyst die neue CO2-Preispolitik, die letzten Monat angekündigt wurde, nicht berücksichtigt hat. Natürlich könnte man ihn einfach korrigieren: “Es gibt neue Gesetzgebung. Du musst deine Zahlen anpassen, geh und korrigiere es.”

Aber wenn man das täte, würde der Analyst nichts lernen. Die Herausforderung besteht darin, Fragen zu stellen, die den Junior-Analysten dazu bringen, über das fehlende Wissen nachzudenken – und ihm beizubringen, in Zukunft ständig nach dem zu suchen, was fehlt.

Aus der Diskussion ergaben sich folgende Ansätze:

  • Fragen, was sich vom letzten Jahr zu diesem Jahr geändert haben könnte
  • Nach den verwendeten Annahmen fragen und ob diese noch gültig sind
  • Den Analysten durch seine Denkprozesse führen, während er die Arbeit erstellt hat
  • Interesse und Ermutigung zeigen, um zu vermeiden, dass sich der Lehrling angegriffen fühlt
  • Gemeinsam überprüfen, wenn Widerstand auftritt

Ein wichtiger Punkt aus der Diskussion: Expertise aufzubauen erfordert oft, Aufgaben immer wieder zu wiederholen, die niemand machen möchte. Man muss zum Beispiel Multiplikationen hunderte Male durchführen, bis man sie wirklich kann und überprüfen kann, ob die KI sie korrekt ausführt oder nicht.

Dies erinnert an eine persönliche Erfahrung: In den 1980er Jahren gab es bereits Taschenrechner in der Schule, aber die Schüler durften sie nicht benutzen. Sie mussten die Mathematik selbst ausarbeiten und konnten dann den Taschenrechner zur Überprüfung verwenden. Damals erschien dies unfair – schließlich würde man im Berufsleben einen Taschenrechner haben.

25 Jahre später ging der Sohn des Vortragenden zur Schule und hatte tatsächlich Taschenrechner – sogar ausgefeilte grafische Taschenrechner. Aber er hatte keine Ahnung, wie man die Mathematik tatsächlich macht. Er musste die Anweisungen befolgen und den Taschenrechner programmieren, indem er die Anweisungen nacheinander aus dem Buch las, um einfache Arithmetik durchzuführen.

Der Vortragende holte seinen alten wissenschaftlichen Taschenrechner von 1982 heraus und löste das Problem in Sekunden. Sein Sohn war verblüfft – nicht nur, dass es mit dem alten Taschenrechner funktionierte, sondern dass sein Vater wusste, was er in welcher Reihenfolge eingeben musste.

Dies führte zur Erkenntnis: Die Beschwerden über die Nutzung von Taschenrechnern waren falsch. Die Lehrer hatten recht. Man kann Taschenrechner bei der Arbeit verwenden, aber man muss es zuerst manuell lernen, sonst weiß man nicht, wie man es macht.

Eine Definition von Expertise ist nicht, dass man eine Frage beantworten kann, sondern dass man weiß, welche Frage man stellen muss.

Der Ansatz für reflektierte Praxis (Reflective Practitioner Approach) wurde ebenfalls diskutiert: Wirklich zu reflektieren, was man gelernt hat, was überraschend war und wie man die eigene Praxis verbessern kann. Dies ist nicht nur für zukünftige Generationen wichtig, sondern auch für uns in den nächsten Jahren unseres Berufslebens.

Fazit und Ausblick

Die zentrale Frage lautet: Kann das Problem Teil der Lösung sein? Könnte es möglich sein, KI nicht nur zur Beantwortung von Fragen zu nutzen, sondern auch zum Aufbau von Expertise bei den Nutzern, die die Fragen stellen?

Der vorgestellte Ansatz für einen Mentor-KI-Chatbot funktioniert nach folgenden Prinzipien:

  • Herausforderung der Denkweisen des Nutzers: Der KI-Chatbot (Mentor-KI) leitet aus der Konversation die Annahmen des Nutzers ab
  • Verstehen der Grundlagen: Wenn die KI die zugrundeliegenden Annahmen nicht vollständig versteht oder keine hohe Sicherheit hat, stellt sie Fragen, um die Denkweise und Annahmen der Person zu verstehen
  • Gezielte Fragetechnik: Sobald die KI ausreichend Vertrauen in ihr Verständnis hat, sagt sie der Person nicht, was sie verpasst hat – sie stellt die Frage, die den Nutzer zwingt, die Lücke in seinem eigenen Denken zu erkennen

Durch die Beantwortung dieser Frage hat der Nutzer selbst den “Aha-Moment”. Er kommt zur Erkenntnis: “Oh mein Gott, was für ein Fehler. Ich hätte die aktuelle Gesetzgebung überprüfen sollen, um zu sehen, ob etwas fehlte.”

Es ist der Nutzer, der zur Erkenntnis kommt – nicht der Chatbot, der ihm sagt, dass er falsch lag und wie er falsch lag.

Handlungsempfehlungen:

  • Engagiere dich aktiv in den IT-Abteilungen, wenn KI-Lösungen entwickelt werden – Knowledge Manager müssen die Stimme der tiefen Experten im Unternehmen sein
  • Gestalte die Interaktion zwischen Chatbot als Meister und Mensch als Lernendem, der vielleicht nicht alle Fakten hat
  • Implementiere KI-Systeme, die nicht nur sykophantisch Lücken füllen und den Nutzern sagen, wie wunderbar sie sind, sondern die intentional darüber nachdenken, was dem Nutzer fehlt
  • Fördere einen Ansatz, der zu besseren Ergebnissen von Mensch plus KI führt und tatsächlich zu einer Zunahme menschlichen Wissens führt, weil Menschen zum Denken angeregt werden
  • Entwickle Pre-Prompts für KI-Chatbots, die als Mentoren agieren und durch Fragen zum eigenständigen Denken anregen
  • Achte darauf, dass KI-Tools nicht nur Produktivität steigern, sondern auch die Entwicklung kritischen Denkens und tiefer Expertise fördern

Offene Fragen:

  • Wie motivieren wir die nächste Generation, die grundlegenden Aufgaben zu erledigen, die zum Aufbau von Expertise notwendig sind, ohne dabei auf KI zurückzugreifen?
  • Wie können wir sicherstellen, dass KI nicht zunehmend von KI-generierten Inhalten lernt, sondern von menschlicher Expertise?
  • Wie messen wir den langfristigen Effekt von KI-Nutzung auf die Entwicklung menschlicher Kompetenz?
  • Welche Rolle spielt die organisationale Kultur bei der Implementierung von Mentor-KI-Systemen?

Die Vision ist klar: Sowohl menschliche Fähigkeiten als auch KI-Fähigkeiten sollen wachsen – nicht ein Wachstum auf Kosten des anderen. Dies erfordert ein fundamentales Umdenken in der Art und Weise, wie wir KI-Systeme gestalten und implementieren. Knowledge Manager sind in der einzigartigen Position, diese Transformation zu führen und sicherzustellen, dass KI neue Experten hervorbringt, anstatt bestehende zu ersetzen.