Für alle Fragen rund um unsere Webseite, unsere Medien und Abonnements finden Sie hier den passenden Ansprechpartner:
Übersicht AnsprechpartnerBeitrag von Sandra Mareike Lang und Franz Hütter aus Training aktuell 11/23, November 2023
Die menschliche Neigung, sich selbst als Maß aller Dinge zu sehen, und dadurch gerne mal an Gesprächspartnern vorbeizukommunizieren, bildet den Anlass vieler Coachings und Kommunikationstrainings. Während der eigene lebenslange Lernbedarf im Bereich der zwischenmenschlichen Kommunikation den meisten von uns durchaus bewusst ist, haben wohl nur wenige schon daran gedacht, gezielt an ihrer Mensch-Maschine-Kommunikation zu feilen. Dabei liegt es oft an überraschend menschlich anmutenden Kommunikationsproblemen, wenn wir mit den Ergebnissen von ChatGPT und Co. unzufrieden sind. Braucht es also ein eigenes interkulturelles Training zur Verständigung zwischen Mensch und Bot? Möglicherweise ist das ein Geschäftsfeld, das in unserer Branche Zukunft hat. Heute schon können wir aber mit Grundkonzepten der Kommunikation aus dem Soft-Skill-Seminar die Qualität des Outputs von KI-Tools erheblich verbessern. Wir zeigen diese am Beispiel der Recherche von Trainingsinhalten und Workshop-Übungen.
Es liegt oft an überraschend menschlich anmutenden Kommunikationsproblemen, wenn wir mit den Ergebnissen von ChatGPT und Co. unzufrieden sind.
Eine der nützlichsten Funktionen der KI ist es, sich im Handumdrehen die relevante Literatur zu einem beliebigen Seminarthema zu besorgen. Besonders praktisch ist die kommentierte Literaturliste, die sowohl ChatGPT als auch Google Bard ausgeben, wenn Sie zum Beispiel eingeben:
So erhält man nicht nur einen schnellen Überblick über die relevante Fachliteratur, sondern auch prägnante Zusammenfassungen zum Inhalt der Publikationen. Auf diese Weise recherchieren wir seit Monaten im Handumdrehen hochwertige und manuell oft nicht leicht auffindbare Quellen für Keynotes, Seminare und Beratungseinheiten. Obwohl mit dem Zusatz „Verwende bitte nur wissenschaftliche Primärquellen aus Zeitschriften mit Peer Review“ die Anzahl halluzinierter Fake-Quellen verschwindend gering wird, muss natürlich trotzdem jede Quelle einzeln verifiziert werden – dennoch eine enorme Arbeitserleichterung mit beachtlichem Zeitgewinn. Gerade wenn es um komplexere psychologische, neurowissenschaftliche oder betriebswirtschaftliche Themen geht, wäre für dieselbe Aufgabe eine Arbeitskraft mindestens mit Bachelor-, oft auch mit Master-Abschluss vonnöten.
Eines Tages jedoch versagte ChatGPT diesbezüglich den gewohnten Dienst: Der Bot habe keine Verbindung zum Internet, könne daher auch auf keine wissenschaftlichen Quellen zugreifen, habe nur Trainingsdaten bis 2021, und ja, es tue ihm leid. Nach mehreren verzweifelten Versuchen immer wieder dieselben Floskeln! Schließlich waren Frust und Enttäuschung des dergestalt um seinen Mitarbeiter beraubten Trainers so groß, dass er begann, mit der Maschine zu schimpfen: „Das ist kompletter Unsinn, den du da erzählst“, tippte er wutentbrannt ins Chat-Fenster. „Du hast für mich monatelang haufenweise hochwertige Literatur recherchiert – warum hast du das jetzt auf einmal vergessen?“ So irrational eine solche Interaktion mit einer Maschine auch erscheinen mag, so wirksam war sie doch. „Entschuldigen Sie die Unannehmlichkeiten“, antwortete der Bot, „natürlich verfüge ich über wissenschaftliche Quellen, die in meinen Trainingsdaten bis 2021 enthalten sind.“ Und schon spuckte er wieder wie gewohnt seine Literaturliste aus.
Drei Monate später mutet diese Erzählung fast schon historisch an. Schließlich verfügt inzwischen auch ChatGPT durch die Integration der Microsoft Suchmaschine Bing über Internet-Zugriff sowie durch zahlreiche Plugins über erweiterte Recherche-Funktionen. Außerdem kann man sich derartige faule Ausreden neuerdings über benutzerdefinierte Einstellungen verbitten. Die wertvollste Erkenntnis aus der Szene war aber eine andere: Es war die Idee, menschliche Kommunikationsmuster fortan konsequent auf die Mensch-Maschine-Kommunikation zu übertragen.
Sprechen wir also mit der KI nicht so, wie wir mit einem normalen Computer-Programm interagieren würden – sprechen wir mit ihr wie mit einem Menschen! KI-Systeme mögen weniger empfindlich sein als der durchschnittliche Mensch; schließlich war das obige Feedback nicht wirklich gewaltfrei. Dennoch reagieren die neuronalen Netzwerke der generativen Sprachmodelle ähnlich wie ein menschliches Gehirn, gerade was die assoziative Verarbeitung von Informationen anbelangt. Sie sind technische Systeme, die sich – Niklas Luhmann mag im Grabe rotieren – bereits in Ansätzen autopoietisch selbst organisieren und bei denen ein Input, ganz wie beim Menschen, emergente und mithin nicht vorhersehbare Reaktionen zur Folge hat.
Die neuronalen Netzwerke der generativen Sprachmodelle reagieren ähnlich wie ein menschliches Gehirn, gerade was die assoziative Verarbeitung von Informationen anbelangt.
Darin unterscheidet sich generative KI grundsätzlich von den „Computer-Programmen“, wie wir sie kennen: Will ich in Excel eine Formel berechnen, ist dafür ein ganz bestimmter Ablauf erforderlich, der wenig Spielraum für „kreative Kommunikation“ mit dem Programm lässt. Stimmt die exakte Folge an Klicks und Eingaben nicht, erscheint meist eine Fehlermeldung. Selbst bei den gängigen Suchmaschinen-Anfragen ergibt es keinen Sinn, Romane zu schreiben oder nach Erscheinen der Ergebnisse noch mal nachzuhaken. Durch solche Interaktionsgewohnheiten verbildert, gehen wir mit der KI tendenziell zu wortkarg um und geben Schlagworte ein, als handle es sich nicht um Kommunikation, sondern um eine Google-Abfrage.
So funktioniert generative KI aber nicht. Sie braucht nicht selten Kaskaden-Gespräche mit etlichen Feedback-Schleifen und präzise, oft ausführliche Kommunikation, die – nach Friedemann Schulz von Thun – alle vier Seiten einer Nachricht berücksichtigt.
1. Sachebene. Manche Kolleginnen sind enttäuscht von der KI, wenn die Frage nach „Themen für die Führungsentwicklung“ oder nach „Ansätzen zur Konfliktlösung“ zu eher allgemeinen und oft unbrauchbaren Ergebnissen führt. Interessant ist dabei, dass wir als Kommunikationsprofis die Lückenhaftigkeit solcher Anfragen sofort erkennen würden, wenn sie an einen Menschen gerichtet wären: „Herr Meier, konzipieren Sie mir bitte eine Übung für ein Führungskräftetraining.“ Um welches Führungslevel handelt es sich? Um welche Branche und welche Art von Unternehmen? Welche Führungsmodelle sollen zugrunde gelegt werden? Was sind die Lernziele? Welches Format und welche Dauer soll das Training haben?
Interessanterweise scheinen wir auszublenden, dass wir auch einer KI sagen müssen, was wir genau von ihr wollen. Wer also nach „Themen und Übungen zur Führungsentwicklung für neu beförderte Manager in einem schnell wachsenden Startup“ oder nach „Dynamik von Konflikten innerhalb eines OP-Teams und möglichen Strategien zur Konfliktlösung in hierarchisch strukturierten medizinischen Teams“ fragt, hat wesentlich bessere Karten, hinlänglich präzise und für den Zielkontext adäquate Lösungen zu erhalten. Wer noch viel spezifischer wird, kann die Qualität der Antworten weiter steigern. Manchmal werden Prompts dann eben eine halbe Seite lang, oder man führt ein längeres Zwiegespräch mit der KI. Das Präzisionsgebot auf der Sachebene gilt auch für den erwünschten Output, wie die folgenden Beispiele verdeutlichen:
Der Fantasie sind hier keine Grenzen gesetzt. Wir müssen lediglich der KI möglichst genau beschreiben, was wir haben wollen – wie unseren menschlichen Kollegen und Mitarbeiterinnen eben auch.
Der Fantasie sind beim Prompten keine Grenzen gesetzt. Wir müssen lediglich der KI möglichst genau beschreiben, was wir haben wollen – wie unseren menschlichen Kollegen und Mitarbeiterinnen eben auch.
2. Beziehungsebene. Selbstverständlich sagen wir zur KI auch „Bitte“ und „Danke“ und verkneifen uns Beleidigungen. Erstens wollen wir nicht, dass die Sprachmodelle von uns dauerhaft schlechte Manieren lernen. Zweitens kommunizieren wir mehr und mehr mit den digitalen Kollegen und sollten tunlichst vermeiden, dass rüpelhafte Kommunikationsmuster per Gewöhnung und Abstumpfung auf unsere zwischenmenschliche Kommunikation abfärben. Auch die Art der angestrebten Beziehung zu unseren Adressaten sollten wir bei der Texterstellung mit KI im Blick haben. Obschon wir KI-generierte Texte in der Regel überarbeiten oder uns von ihnen nur zu eigenen Texten inspirieren lassen sollten, hilft es, wenn der Ton, der in Sachen Beziehung die Musik macht, von vornherein stimmt. Dabei hilft zum Beispiel die Anweisung:
So lässt sich die atmosphärische Botschaft eines Textes gleich zielgruppenspezifisch auf die Sprechabsicht ausrichten. Dies kommt auch der Wirkung der Texte im Sinne der Appell-Seite der Nachricht zugute.
3. Appell-Ebene. Wir sollten kommunizieren, was genau die Zielgruppe tun soll bzw. was wir mit unserem Training bezwecken wollen. Hierzu können wir Lernziele und Wirkungsabsichten in die Prompts hinein formulieren:
Das zwingt auch noch mal zur eigenen Lernziel-Abklärung. Ist es mein Ziel, die Teilnehmenden über das Thema zu „informieren“, sie zu „sensibilisieren“, zu „überzeugen“, vor etwas zu „warnen“, zu etwas zu „motivieren“ etc.? Jede bekannte Kategorisierung von Sprechabsichten und Lernzielen – wie etwa die Bloom’sche Taxonomie – kann in die Prompts integriert werden, was die Passung der Resultate drastisch verbessert.
4. Selbstoffenbarung. An diese Seite einer Nachricht denken wir wohl am wenigsten, wenn es um die Äußerungen einer künstlichen Intelligenz geht, die (vermutlich) über kein Bewusstsein ihrer selbst verfügt. Allerdings fließen auch in diese Äußerungen Werte und Bewertungen ein, die dem statistischen Durchschnitt der Trainingsdaten oder den bewusst installierten Filtern der Betreiber wie OpenAI und Google entsprechen. So wurde in einem Paper (arxiv.org/abs/2301.01768) der Technischen Universität München und der Universität Hamburg ein links-liberaler Bias von ChatGPT festgestellt. Wir selbst bemerken gerade bei populären Konstrukten der Weiterbildungsbranche wie der „emotionalen Intelligenz“ oder der „Resilienz“ eine Neigung zu unkritischen Lobreden auf deren Wichtigkeit und Wirkung. Wer solchen politischen oder fachlichen Selbstoffenbarungen der KI vorbeugen und differenziertere Antworten erhalten will, hat bei ChatGPT zwei Möglichkeiten: Über die „benutzerdefinierten Anweisungen“ (Custom Instructions) können wir den Bot zum Beispiel instruieren, Wertungen zu unterlassen, Sachverhalte möglichst objektiv zu berichten und Aussagen grundsätzlich mit wissenschaftlichen Quellen zu belegen.
Zweitens können wir uns angewöhnen, zu jedem Modell oder Konzept die Hintergründe, die Vorteile, aber auch die Nachteile und Kritikpunkte abzufragen. Ein entsprechender Prompt könnte (nach den Angaben zu Thema, Zielgruppe, Lernzielen etc.) etwa die folgenden Formulierungen enthalten:
Auf diese Weise erhalten wir – gerade bei unseren eigenen Lieblingsthemen – einen Bias-Buster und können uns auch optimal auf mögliche Einwände von Teilnehmenden vorbereiten.
Wer also die vier Ebenen einer Nachricht in der Kommunikation mit den Chatbots im Hinterkopf hat, kann sich über große Qualitätsunterschiede im Vergleich zur Eingabe unterkomplexer Suchanfragen freuen. Gott sei Dank muss man das alles nicht jedes Mal von Neuem tun. Denn die meisten KI-Tools wie ChatGPT, Google Bard, Phind oder Perplexity haben Threads, innerhalb derer sich die KI den Gesprächsverlauf mit den User-Präferenzen merkt und zu denen man zurückkehren kann, wenn man an demselben oder einem ähnlichen Thema arbeitet. Immer mehr setzt es sich auch durch, dass man – wie bei ChatGPT – benutzerspezifische Wünsche in den Grundeinstellungen hinterlegen kann. Will man also seine Texte in den meisten Fällen präzise und wissenschaftlich, im lockeren Social Media-Stil oder mit Business-School-Flair, so hinterlegt man all das einfach als Freitext in den benutzerspezifischen Anweisungen und deaktiviert diese nur dann, wenn man mal vom üblichen Tenor abweichen möchte.
Wer die vier Ebenen einer Nachricht in der Kommunikation mit den Chatbots im Hinterkopf hat, kann sich über große Qualitätsunterschiede im Vergleich zur Eingabe unterkomplexer Suchanfragen freuen.
Die mit zwischenmenschlicher Kommunikation vergleichbare Komplexität im Austausch zwischen Mensch und Maschine zeigt, dass die Rede vom „Prompt Engineering“ möglicherweise in die Irre führt. Denn Kommunikation mit KI erweist sich – in der Begrifflichkeit des Cynefin Frameworks – nicht bloß als kompliziert, also durch hinlänglich tiefes Expertenwissen technisch beherrschbar. Die Mensch-Maschine-Kommunikation erweist sich vielmehr auch als komplex in dem Sinne, in dem sich menschliche Kommunikation von Feedback-Schleife zu Feedback-Schleife vorantastet, ohne dass sich das Resultat im Rahmen einer Kybernetik erster Ordnung steuern und regeln ließe. Die Fiktion eines denkenden, fühlenden Gegenübers ist daher eine gute Heuristik für eine erfolgreiche Mensch-Maschine-Interaktion, weiß man doch nie, was in dem digitalen „Kopf“ des Bots gerade vor sich geht.
In der Begriffswelt der Kommunikationsmodelle, wie wir sie täglich in Soft-Skill-Seminaren benutzen, bedeutet das auch für den Chat mit dem Bot den Abschied vom nachrichtentechnischen Sender-Empfänger-Modell nach Claude E. Shannon und Warren Weaver zugunsten eines konstruktivistischen Modells gemäß Paul Watzlawicks Pragmatik menschlicher Kommunikation oder eines systemtheoretischen Verständnisses im Rahmen von Niklas Luhmanns Theorie von der Kommunikation als konstitutivem Element sozialer Systeme.
In jedem Fall sollten wir die Kommunikation mit der KI in Schleifen und Beobachtungsebenen konzipieren. Schließlich ergießen wir ja auch (hoffentlich) nicht am Anfang eines Gesprächs unsere komplette Mitteilung logorrhoisch in die Gesprächssituation hinein, sondern achten auf kurze Feedback-Schleifen durch ein regelmäßiges Turn Taking zwischen den Gesprächspartnern. Wie dieses Prinzip auf die Kommunikation mit der KI übertragbar ist, zeigen wir anhand eines komplexen Beispiels. Es geht um die Entwicklung eines Führungskräftetrainings zum Thema „Transformational Leadership“.
Wir steigen ein mit einer Rollenklärung, wie sie in der zwischenmenschlichen Kommunikation auch gang und gäbe ist: „Liebe Claudia, heute brauche ich mal deine Erfahrung als SCRUM Master/langjährige Führungskraft/Yoga-Expertin/deinen Rat als gute Freundin.“ Wir Menschen tun uns leichter, wenn wir wissen, in welcher Rolle wir gerade gefragt sind oder wenn in einem Job-Profil die Anforderungen klar formuliert sind. So geht es auch der KI:
Während dieser Prompt schon relativ spezifisch anmutet, ist die Anzahl der Interpretationsmöglichkeiten noch viel zu groß, als dass wir all unsere weiteren Anforderungen sinnvollerweise hineinformulieren könnten. Vor allem wissen wir noch gar nicht, welche Informationen unserem digitalen Gegenüber noch abgehen, damit es für uns die bestmöglichen Resultate erstellen kann. So ist unser erster Auftrag an den Bot, uns so lange mit Fragen zu löchern, bis wir ihn bestmöglich gebrieft haben. Der Prompt geht also noch weiter:
Das wird bejaht und schon folgen etliche Fragen: zur spezifischen Zielgruppe des Trainings, deren Vorkenntnisse und Erfahrungen, zu den Lernzielen und den aktuellen Herausforderungen der Teilnehmenden, zum Zeitrahmen einschließlich der Frage, ob es sich um ein einmaliges Event oder eine Workshop-Reihe handelt, zu methodischen Präferenzen und Abneigungen der Trainerin oder der Teilnehmenden, zur Affinität zu oder Aversion gegenüber erlebnisorientierten Formaten bis hin zur gewünschten Evaluationsmethode.
Es empfiehlt sich, solche Fragenkataloge in ein Textverarbeitungsprogramm zu kopieren und in aller Ruhe zu beantworten. Das ist oft alleine schon ein wertvoller didaktischer Klärungsprozess. Nach der Beantwortung aller Fragen kann man die Konversation einfach im folgenden Stil fortsetzen:
Als Ergebnis winkt ein phänomenales Trainingsdesign, bestehend aus logisch aufeinander aufbauenden Modulen mit einem realistischen Timing. Das Design bietet in unserem Beispiel einen guten Wechsel aus Theorie-Impulsen, Reflexion und Workshop-Übungen. Ausgehend von diesem Big Picture können wir nun ins Detail gehen und uns zum Beispiel Slides für den Trainer-Input oder Übungen eines bestimmten Moduls ausarbeiten lassen:
Das Literaturverzeichnis bietet eine praktische Möglichkeit, jede Aussage und jede zitierte Quelle auf Echtheit zu überprüfen. Bereits heute gibt es zum Beispiel für ChatGPT Plugins, die Folien selbstständig erzeugen. Wir bevorzugen nach wie vor die manuelle Übertragung, da wir die Texte immer als Inspiration für die eigene Schaffensfreude nehmen. Alternativ oder zusätzlich zum Foliensatz lassen sich auf ähnliche Weise auch Workbooks, Teilnehmerhandbücher, Handouts, Checklisten oder Quizfragen zur Selbstüberprüfung erzeugen. Wir müssen es dem Chatbot einfach nur sagen. Wer dann noch mit DALL-E, Midjourney, Adobe Firefly oder einer anderen Text-zu-Bild KI einzigartige Bilder für seine Unterlagen zu generieren gelernt hat, punktet nicht nur mit originellen Inhalten, sondern auch mit einem unverwechselbaren Design.
Auch Workshop-Übungen, die passgenau mit Inhalten und Lernzielen verbunden sind, arbeitet der Chatbot mit überraschender Kreativität aus – ein Prompt genügt.
Hier können wir uns mit unserem Prompt kurzfassen, da der Kontext und alle relevanten Parameter aus dem Gesprächsverlauf ja schon bekannt sind. Das Ergebnis, eine Empathy Map, die Führungskräfte für ihre Mitarbeitenden erstellen, sowie eine Übung zu Entscheidungsdilemmata im Führungsalltag, war in unserem Fall wieder umsetzbar, kreativ und – bis hin zur Übungsdauer und dem benötigten Moderationsmaterial – gut dokumentiert. Insbesondere die von ChatGPT konstruierten Dilemma-Übungen für Führungskräfte waren – das bleibt als narzisstische Kränkung für uns Menschen – praxisnäher, fieser und ideenreicher, als wir sie uns für die Zielgruppe in der kurzen Zeit selbst hätten ausdenken können.
Unser Fazit: Wer menschlich zur KI ist und seine langjährige Fach- und Methodenkompetenz durch sie ergänzen lässt, hat als Trainerin und Trainer klar die Nase vorn.
Sie möchten regelmäßig Beiträge des Magazins lesen?
Für bereits 10 EUR können Sie die Mitgliedschaft von Training aktuell einen Monat lang ausführlich testen und von vielen weiteren Vorteilen profitieren.