Für alle Fragen rund um unsere Webseite, unsere Medien und Abonnements finden Sie hier den passenden Ansprechpartner:
Übersicht AnsprechpartnerEin KI-Tool, das Gespräche mitschreibt, Ziele sortiert und Follow-ups formuliert, wirkt zunächst wie eine harmlose Entlastung – gerade in einem Arbeitsalltag, der von Zeitdruck und Dokumentationspflichten geprägt ist. Im Coaching kann genau diese Beiläufigkeit jedoch teuer werden: Wenn eine Klientin erst durch Zufall erfährt, dass die Session von der KI transkribiert und zusammengefasst wurde, kippt das Vertrauen – und damit das Fundament der Zusammenarbeit. Szenarien wie dieses zeigen, dass es bei künstlicher Assistenz nicht um Komfortfragen geht, sondern um Professionalität in der Beratungspraxis. Es geht um Aufklärung und Einwilligung, um Datenschutz und Datenminimierung, um die Verhinderung von Verzerrungen in algorithmischen Empfehlungen – und um die schlichte, aber entscheidende Frage, was im Kontakt mit den Klientinnen und Klienten bewusst nicht automatisiert werden sollte. Denn je mehr Prozesse im Hintergrund laufen, desto leichter gerät aus dem Blick, wie sehr Coaching von Präsenz, Beziehung und situativer Entscheidung lebt. Technische Fehler oder problematische Empfehlungen mögen maschinell entstehen, die Verantwortung dafür tragen dennoch diejenigen, die KI in ihren Coachingprozessen einsetzen. Damit dieser Einsatz verantwortungsvoll und moralisch vertretbar geschieht, schlägt Coach Christian Thiele neun Prinzipien vor, die Sie, liebe Leserinnen und Leser, im Beitrag finden.
Je mehr Prozesse im Hintergrund laufen, desto leichter gerät aus dem Blick, wie sehr Coaching von Präsenz, Beziehung und situativer Entscheidung lebt.
Dass dieses Ringen um Grenzen und Gestaltung beim Einsatz von KI längst ein Branchenthema ist, zeigt auch der Blick auf die OEB, die Anfang Dezember in Berlin stattgefunden hat. Die Konferenz gilt traditionell als Bühne für Technik-Enthusiasmus. Umso auffälliger war der nachdenkliche, teils warnende Grundton, der sich durch die Beiträge der Speakerinnen und Speaker zog: Immer wieder ging es um „Agency“, also um Handlungsfähigkeit angesichts einer Technologie, die gedankliche Arbeit verführerisch reibungslos abnimmt – und damit langfristig Skills erodieren lassen könnte. Dabei stand unter anderem die Frage im Raum, wie Lernen Kompetenzaufbau bleiben kann, wenn Assistenzsysteme in Sekundenschnelle Antworten liefern. Mein Kollege Sascha Reimann war für Training aktuell in Berlin vor Ort und fasst die wichtigsten Diskussionspunkte und Erkenntnisse in seinem Veranstaltungsbericht zusammen.
Viel Spaß beim Lesen dieser Ausgabe und ein fröhliches neues Jahr, in dem wir alle handlungsfähig bleiben mögen!