Gkc25/Prompting ist Kommunikation, nicht Kommando: Unterschied zwischen den Versionen
Die Seite wurde neu angelegt: „'''Der Vortrag behandelt den fundamentalen Paradigmenwechsel in der Mensch-Computer-Interaktion durch generative KI und Chatbots. Die zentrale These: Prompting ist keine Kommandoeingabe, sondern Kommunikation. Seit dem Launch von ChatGPT am 30. November 2022 befinden wir uns im dritten Paradigma der Computerinteraktion – dem Intention-Based Interface. Doch die meisten Nutzer verharren noch im Command-Line-Denken der letzten 60 Jahre. Der Referent demons…“ |
KKeine Bearbeitungszusammenfassung |
||
| Zeile 184: | Zeile 184: | ||
Der Paradigmenwechsel ist da. Die Frage ist nicht mehr, ob wir ihn vollziehen, sondern wie schnell wir verstehen, was bereits geschehen ist. | Der Paradigmenwechsel ist da. Die Frage ist nicht mehr, ob wir ihn vollziehen, sondern wie schnell wir verstehen, was bereits geschehen ist. | ||
[[Kategorie:gkc25]] | |||
Aktuelle Version vom 23. November 2025, 14:53 Uhr
Der Vortrag behandelt den fundamentalen Paradigmenwechsel in der Mensch-Computer-Interaktion durch generative KI und Chatbots. Die zentrale These: Prompting ist keine Kommandoeingabe, sondern Kommunikation. Seit dem Launch von ChatGPT am 30. November 2022 befinden wir uns im dritten Paradigma der Computerinteraktion – dem Intention-Based Interface. Doch die meisten Nutzer verharren noch im Command-Line-Denken der letzten 60 Jahre. Der Referent demonstriert anhand einer Live-Chat-Session mit klassischen Wissensmanagement-Büchern, wie dialogorientiertes Arbeiten mit KI funktioniert und warum “simple prompts” wie “Summarize this book” fundamental scheitern müssen. Der Schlüssel liegt nicht in magischen Prompt-Formeln, sondern im Verständnis von Sprechakten, Intentionen und diszipliniertem Dialog.
Session Owner: Stefan Holtel
Hauptthemen der Präsentation:
- Die drei Paradigmen der Computer-Interaktion
- Warum “Summarize” der schlechteste Prompt ist
- Von Command-Line zu Intention-Based Interfaces
- Dialogorientiertes Prompting in der Praxis
- Die Rolle von Motivation und Kontext
- 21st Century Skills als Voraussetzung für KI-Kompetenz
Die drei Paradigmen der Computer-Interaktion
Die Geschichte der Mensch-Computer-Interaktion lässt sich in drei fundamentale Paradigmen unterteilen, die jeweils völlig unterschiedliche Denkweisen und Arbeitsweisen erfordern.
Paradigma 1: Stapelverarbeitung (1940-1960)
Das erste Paradigma war die Stapelverarbeitung. Nutzer saßen tagelang am Schreibtisch, überlegten genau, was sie vom Computer wollten, kodierten ihre Anfragen auf Lochkarten und gaben diese ans Rechenzentrum. Eine Woche später erhielten sie ein Ergebnis – oder mussten bei Fehlern von vorne beginnen. Diese Arbeitsweise erforderte vollständiges Vorausdenken aller möglichen Fehlerquellen.
Paradigma 2: Command-Line Interfaces (1960-2022)
Das zweite Paradigma begann mit einer interessanten Innovation: Man ersetzte die umständlichen Lochkarten durch Teletypewriter, später durch Bildschirme – anfangs “Glass Typewriter” genannt. Was wie eine Revolution aussah, war jedoch nur eine technische Weiterentwicklung desselben Grundprinzips: Computer werden durch Kommandos bedient.
Dieses Command-Line-Interface-Paradigma prägte 60 Jahre lang unser Verständnis von Computernutzung. Wir alle sind damit aufgewachsen und haben es verinnerlicht: Computer funktionieren durch Kommandos mit Parametern. Bei Kommandos weiß man bereits bei der Eingabe, was herauskommen soll – sie sind finit und vorhersagbar. Selbst die Einführung grafischer Benutzeroberflächen wie Windows änderte nichts am Paradigma, sondern legte nur eine Metapher-Ebene darüber, um die Bedienung zu vereinfachen.
Paradigma 3: Intention-Based Interfaces (seit November 2022)
Am 30. November 2022 geschah etwas Fundamentales: ChatGPT wurde veröffentlicht. Äußerlich sah es aus wie ein Command-Line-Interface – eine Zeile mit einem Blinker. Doch dahinter verbarg sich ein völlig neues Paradigma. Plötzlich sagte der Computer: “Mach mit mir, was du willst, schreib rein, was du willst. Ich werde immer antworten.”
Eine entscheidende Eigenschaft: Chatbots haben immer das letzte Wort. Es ist schwierig, einen Chatbot nicht antworten zu lassen. Was früher Kommandos waren, sind jetzt Gespräche. Jacob Nielsen, einer der Pioniere des UX-Designs, prägte dafür den Begriff “Intention-Based Interface” – Interfaces, die eine Intention, eine Motivation erfordern, um überhaupt sinnvoll genutzt werden zu können.
Das Problem: Es sieht nach außen genauso aus wie in den letzten 60 Jahren, tut aber etwas völlig anderes. Damit hadern wir seit drei Jahren.
Warum “Summarize” der schlechteste Prompt ist
Der Referent demonstriert seine These anhand zweier Klassiker des Wissensmanagements: “Working Knowledge” (2000) von Davenport und Prusak sowie “Thinking for a Living” (2005) von Davenport. Diese Bücher werden bewusst zu Beginn hochgeladen, um sie ins Kurzzeitgedächtnis des Chatbots zu bringen.
Die Analyse des “Simple Prompt”
Eine Studie von Sieran et al. (“Understanding User Prompting Behavior”) zeigt: 42,8% aller Prompts sind “simple prompts”, nur 18% nutzen Multi-Component-Strukturen. Der vermeintlich naheliegendste Prompt lautet: “Summarize Working Knowledge” oder “Summarize Thinking for a Living”. Dieser Prompt war bei Copilot sogar der erste vorgeschlagene Prompt überhaupt – vergleichbar mit der Summenformel in Excel.
Doch dieser Prompt ist fundamental problematisch. Der Referent führt den Chatbot in einen Dialog darüber, warum Zusammenfassungen scheinbar wertvoll sind. Die Argumente: schneller mentaler Modellaufbau, Vergleichsmöglichkeiten, bessere Erinnerung. Doch dann kommt die entscheidende Wende.
Die drei kritischen Dimensionen
Der Referent lässt den Chatbot die Trade-offs von Summarization analysieren, besonders in Bezug auf:
- Motivation: Niemand liest ein Buch, um eine Zusammenfassung zu haben. Ein Buch braucht eine Motivation zum Lesen. Bei “Summarize” spielt Motivation überhaupt keine Rolle – außer bei Diensten wie GetAbstract, die damit Geld verdienen wollten.
- Application: Warum wird die Zusammenfassung erstellt? Welche Dringlichkeit, welcher Impuls steht dahinter? Es interessiert nicht, was Davenport geschrieben hat, sondern was das mit der eigenen Arbeit, einem Projekt oder der Zukunft von Wissensarbeit zu tun hat.
- Individual Relevance: Eine Zusammenfassung ist wertneutral. Sie hat nichts mit dem Leser zu tun, nichts mit dessen Welt, nichts mit dem Autor als Person. Die Stimme des Autors (“Author’s Voice”) geht verloren – dabei hat Davenport eine spezielle Auffassung von Wissensarbeit, geprägt durch seine Vergangenheit bei McKinsey und seinen Wechsel in die Wissenschaft.
Das Dartscheiben-Prinzip
Das fundamentale Missverständnis: Nutzer glauben, sie müssten auf den roten Punkt in der Mitte der Dartscheibe zielen – das Buch selbst. Sie wollen alles herausbekommen, was im Buch steht, möglichst genau. Doch die Mächtigkeit eines Chatbots liegt in der gesamten Dartscheibe: herauszufinden, was im Buch NICHT steht, aber drinstehen müsste. Oder wie das Buch im Vergleich zu anderen Werken positioniert ist. Erst wenn das eigene Wissen mit dem Wissen der Welt verbunden wird, entsteht echter Mehrwert.
Von Command-Line zu Intention-Based Interfaces
Der Paradigmenwechsel ist so fundamental, weil er unsere tiefsten Annahmen über Computernutzung in Frage stellt. 60 Jahre lang haben wir gelernt: Computer werden mit Kommandos bedient. Dieses Denken sitzt extrem tief.
Das Problem der Kontinuität
Alle bisherigen Erfahrungen mit Software basieren auf dem Command-Line-Paradigma. Selbst grafische Oberflächen änderten daran nichts Grundsätzliches. Dann kam ChatGPT – und äußerlich änderte sich nichts. Eine Eingabezeile mit Cursor, wie seit Jahrzehnten. Doch das System dahinter funktioniert völlig anders.
Menschen denken weiterhin in Kommandos und suchen nach “magischen Prompts” – der einen perfekten Formel, die das gewünschte Ergebnis liefert. Prompt-Bibliotheken versprechen die “10 besten Prompts der Welt” mit möglichst vielen Parametern zum Ausfüllen. Doch diese Herangehensweise führt systematisch in die Irre, weil die Grundannahme falsch ist.
Was wirklich passiert
Bei Intention-Based Interfaces geht es nicht um Kommandos, sondern um Intentionen. Der Nutzer muss wissen, was er will – und das ist nicht trivial. Viele Experten sind hervorragend in ihrem Job, aber unfähig, darüber zu reden. Deshalb gibt es seit 20 Jahren Methoden wie Expert Debriefing.
Die Schwierigkeit: Nutzer müssen ihre eigenen Tätigkeiten reflektieren und artikulieren können. Was mache ich den ganzen Tag? Welche Bestandteile hat meine Arbeit? Was wiederholt sich, was ist einzigartig? Was ist wichtig, was unwichtig? Diese Selbstreflexion ist unangenehm – Menschen wollen Chatbots lernen, nicht über ihre eigene Arbeit nachdenken.
Der Unterschied zwischen Steuern und Kontrollieren
Ein Chat kann gesteuert, aber nicht kontrolliert werden. Kontrolle würde bedeuten, wieder bei Kommandos zu sein. Steuern heißt: einen Dialog führen, der eine Richtung hat, aber offen für Wendungen bleibt. Der Nutzer hat zwei Rollen: Er führt das Gespräch UND beobachtet, wie das Gespräch läuft. Wird es präziser? Reduziert sich die Unsicherheit? Oder schweift es ab?
Dialogorientiertes Prompting in der Praxis
Der Referent demonstriert seine Methode in einer Live-Chat-Session. Dabei werden mehrere Prinzipien deutlich:
Strukturierung durch Gesprächsmarker
Statt lange, komplexe Prompts zu schreiben, arbeitet der Referent mit kurzen, klaren Schritten, die nie länger als zwei bis drei Zeilen sind. Zwischen den Schritten nutzt er Marker wie “Thanks for this” – nicht aus Höflichkeit, sondern um Kapitel zu schaffen. Diese Marker signalisieren: Hier ist etwas abgeschlossen, jetzt beginnt etwas Neues. Sie verhindern, dass der Chatbot sich verhaspelt oder halluziniert.
Präzise Erwartungen kommunizieren
Statt einfach “Read this book” zu schreiben, formuliert der Referent: “Read both books very precisely that you are capable to answer questions about the books’ content.” Er drückt aus, welche Erwartung er hat und auf welcher Granularitätsebene er arbeiten will. Die längere Verarbeitungszeit des Chatbots ist ein Hinweis, dass die Erwartung erfüllt wurde.
Kontrolle über den Dialogfluss
Als der Chatbot auffordert “Ask your questions”, antwortet der Referent: “No, let’s first do something different.” Er bestimmt den Zeitpunkt und die Richtung, nicht der Chatbot. Sonst würde er durch den Chatbot geführt statt umgekehrt.
Vom Simple zum Advanced Prompt
Der Referent führt den Chatbot durch eine Analyse, warum simple prompts dominieren und was die Konsequenzen eines Wechsels zu dialogorientiertem Arbeiten wären. Dabei taucht der Begriff “Turn-Taking Refinement” auf: Es geht hin und her, und durch jede Runde wird die Unsicherheit reduziert, die Präzision erhöht.
Beispiele für echte Buch-Dialoge
Statt “Summarize” lauten sinnvolle Prompts:
- “List the core mechanisms Davenport/Prusak describe for knowledge transfer. Explain how those mechanisms differ from knowledge creation.”
- “Compare Davenport’s concept of knowledge markets with Nonaka-Seki Model.”
- “Apply the productivity principles in ‘Thinking for a Living’ to a hybrid research team.”
Diese Prompts verbinden das Buch mit der Welt außerhalb, mit anderen Theorien, mit aktuellen Arbeitsrealitäten. Sie nutzen das Buch als Ausgangspunkt, nicht als Endpunkt.
Die Rolle von Motivation und Kontext
Ein zentrales Problem: Menschen müssen ihre Absicht klären, bevor sie promten. Das ist nicht trivial und wird oft unterschätzt.
Die Operationalisierung der Intention
Die Frage “Was will ich?” reicht nicht aus, weil die meisten das nicht operationalisieren können. Hilfreicher ist: “Was mache ich den ganzen Tag?” Diese Tätigkeitsbeschreibung muss ein Niveau erreichen, auf dem erkennbar wird, wo ein Chatbot relevant sein könnte – nicht nur zur Automatisierung, sondern um völlig anders zu denken.
Der Dialog als Klärungsprozess
Ein Vorschlag aus dem Publikum: Den Chatbot nutzen, um die eigene Absicht zu klären, bevor man an die “richtige Arbeit” geht. Das entspricht dem systemischen Coaching – man klärt im Dialog, was wirklich wichtig ist. Der Chatbot kann dabei helfen, aber nur, wenn man bereit ist, über die eigene Arbeit nachzudenken.
Constraints setzen
Je mehr der Nutzer definiert, was gilt und was nicht gilt, desto präziser werden die Ergebnisse. Constraints sind keine Einschränkung, sondern Fokussierung. Man kann sich auch ausfragen lassen: Was sind die Rahmenbedingungen? Welche Annahmen gelten? Was soll ausgeschlossen werden?
Evidenz prüfen
Nicht jeder vom Chatbot genannten Quelle blind vertrauen. Nachprüfen, ob sich die Antworten in einem plausiblen Expertise-Bereich bewegen. Das funktioniert am besten, wenn man selbst Expertise im Thema hat – was ein Problem für Neulinge darstellt.
Von Wissen zu Handlung
Knowledge ist nicht Knowledge an sich. Es wird erst wirksam, wenn es eine Konsequenz hat, wenn es zu Handlung führt. Das gemeinsame, augmentative Arbeiten mit Conversational AI dient dazu, “knowledge into action” zu verwandeln.
21st Century Skills als Voraussetzung für KI-Kompetenz
Eine überraschende These des Referenten: Seit den 1980er Jahren wird über 21st Century Skills diskutiert – kritisches Denken, Kreativität, Kommunikation, Kollaboration. Jahrzehntelang schwebten diese Konzepte als abstrakte Wolke im Raum.
Der Lackmustest
Chatbots sind der Lackmustest für 21st Century Skills. Plötzlich haben diese Skills einen konkreten Anknüpfungspunkt. Man braucht kritisches Denken, um Chatbot-Antworten zu bewerten. Man braucht Kreativität, um die Ecke zu denken und Verbindungen herzustellen. Man braucht Kommunikationsfähigkeit, um Dialoge zu führen statt Kommandos zu geben.
Die Bildungsfrage
Aus dem Publikum kommt der dringende Hinweis: Wir bräuchten eine völlig andere Ausbildung, auch schulisch. Wann, wo und wie erwerben wir diese Fähigkeiten? Die Zukunft hat schon vor Jahren begonnen, doch wir verlieren die Fähigkeiten zur menschlichen Interaktion, die wir brauchen, um mit KI kommunizieren zu können.
Näher zu uns selbst
Die entscheidende Einsicht: Diese ganze Chatbot-Sache wird uns, wenn wir es verstanden haben, näher zu uns selbst führen – nicht zu Computern. IT hilft uns nicht einfach, etwas zu tun. Wir müssen besser verstehen, was wir den ganzen Tag tun, damit IT uns helfen kann.
Die Agenten-Herausforderung
Wer jetzt schon Schwierigkeiten hat, einen Chatbot zu nutzen, wird erst recht Schwierigkeiten haben, 100 Agenten auszusteuern. Das wird eine Managementaufgabe. Es ist unrealistisch, dass wir alle in 15 Jahren 100 Agenten haben, die für uns arbeiten – uns fehlen die Fähigkeiten dafür.
Linguistik statt Programmierung
Der Referent empfiehlt: Keine Schulungen über die Grundlagen generativer KI besuchen, das bringt nur Verwirrung. Stattdessen: Sprechakte nach John Searle studieren (einem Schüler von Austin, der kürzlich verstorben ist). Wie reden Menschen miteinander? Diese linguistische Forschung ist Jahrzehnte alt und hilft enorm zu verstehen, was bei Chatbot-Interaktionen wirklich passiert.
Fazit und Ausblick
Zusammenfassung der Kernbotschaften
Prompting ist Kommunikation, nicht Kommando. Wir befinden uns in einem fundamentalen Paradigmenwechsel, den die meisten noch nicht vollzogen haben. 60 Jahre Command-Line-Denken sitzen tief, doch seit November 2022 funktionieren Computer anders – auch wenn sie äußerlich gleich aussehen.
Simple Prompts wie “Summarize” sind nicht nur ineffektiv, sondern kontraproduktiv. Sie entfernen uns vom eigentlichen Wert: der Verbindung zwischen eigenem und fremdem Wissen, zwischen Buch und Welt, zwischen Theorie und Praxis.
Erfolgreiche KI-Nutzung erfordert:
- Klare Intention und Selbstreflexion über die eigene Arbeit
- Dialogorientierung statt Kommando-Denken
- Strukturierung durch kleine, klare Schritte
- Steuerung statt Kontrolle
- Kritische Prüfung der Evidenz
- Fokussierung durch Constraints
Offene Fragen
Die zentrale bildungspolitische Frage bleibt unbeantwortet: Wie vermitteln wir diese Fähigkeiten systematisch? Die benötigten 21st Century Skills waren jahrzehntelang abstrakt, sind jetzt plötzlich konkret erforderlich – doch die Bildungssysteme sind nicht darauf vorbereitet.
Wie führen wir Neulinge an diese Technologie heran, wenn sie die Plausibilität von Antworten nicht beurteilen können? Die Gefahr ist real, dass Studierende Arbeiten abgeben, die sie nicht verstanden haben und die größtenteils falsch sind.
Handlungsempfehlungen
Ethan Mollick formuliert es treffend: Wenn die Entwicklung von KI heute stoppen würde, hätten wir noch Jahrzehnte damit zu tun, das Bisherige zu verstehen. Doch die Entwicklung geht weiter. Umso wichtiger:
- Nicht auf noch mehr Trainings und Prompt-Bibliotheken setzen – das führt in die Irre
- Stattdessen: Tätigkeitsbeschreibung und Selbstreflexion üben
- Linguistik und Sprechakttheorie studieren statt KI-Grundlagen
- In Dialoge gehen statt Kommandos zu geben
- Die Grenze zwischen eigenem und fremdem Wissen als Mehrwert-Zone verstehen
- Akzeptieren, dass KI uns zu uns selbst zurückführt, nicht von uns wegführt
Der Paradigmenwechsel ist da. Die Frage ist nicht mehr, ob wir ihn vollziehen, sondern wie schnell wir verstehen, was bereits geschehen ist.