Wenn KI das Team stresst: zwischen Entlastung und neuem Druck


 
 
 
 
 

KI sollte uns und unsere Teams entlasten. Bei einigen Aufgaben tut sie das auch. Was mich gerade in fast jedem Beratungsgespräch beschäftigt, ist das, was zwischen den Zeilen mitschwingt. Manche im Team arbeiten schon richtig mit KI, andere tasten sich vorsichtig heran, wieder andere wissen nicht einmal, wo sie überhaupt anfangen sollten. Dazwischen entsteht eine eigene Form von Druck – Berührungsängste, das Gefühl, sich selbst zu verlieren, eine leise Erschöpfung, die niemand benennt. Über Tools und Use Cases haben wir viel diskutiert. Über das, was zwischen den Menschen passiert, viel zu wenig.

Genau darum geht es hier. Wie entsteht KI-Stress im Team? Woran erkennst du ihn? Und was kannst du als Führungskraft – und als Organisation – jetzt konkret tun? Den Blick auf dich selbst und deine eigene Belastung im KI-Tempo habe ich an anderer Stelle behandelt [LINK: KI für Führungskräfte: Warum der Job gerade schwerer wird, nicht leichter]. Hier geht es um die Ebene zwischen den Menschen und in den Strukturen.

 

Hallo, ich bin Kasia Hübner
Resilienz-Expertin, Systemische Mental Business & Leadership Coach, Unternehmensberaterin


 

Als Spezialistin für resiliente Persönlichkeisentwicklung und wertschätzende Führungskultur zeige ich Dir, wie Du Deine Arbeits- und Lebensqualität im stressigen Businessalltag verbesserst.

 

Hier auf meinem BLOG findest Du Impulse über Business Resilienz, wertschätzende Führungskultur und eine gesunde Arbeitsweise.

 
 

 

#1. Wenn die einen schon arbeiten und die anderen noch suchen

Vor ein paar Wochen war ich in einem Beratungsgespräch mit einer Bereichsleiterin, die ein Team von zwölf Leuten führt. Ihr Team hatte vor neun Monaten angefangen, KI-Tools systematisch einzusetzen. Drei Mitarbeiter waren von Anfang an dabei, nutzen heute mehrere Tools parallel und liefern Drafts in einem Tempo, das sie selbst überrascht. Vier weitere haben sich inzwischen herangetastet, mit gemischten Erfahrungen. Die restlichen fünf sagen offen, dass sie nicht wissen, wo sie anfangen sollen – und ob das, was die anderen produzieren, überhaupt das richtige Tempo für ihre Aufgaben ist.

Was sie mir dann erzählte, klang anders als das, was offiziell im Quartalsreport stand. Die Stimmung im Team sei gekippt. Manche Kolleginnen würden inzwischen jede Mail dreimal prüfen, ob die andere sie wirklich selbst geschrieben hat. Es gäbe Doppelarbeit aus Misstrauen. Zwei Mitarbeiter hätten sich krankgemeldet und beim Rückkehrgespräch gesagt, sie wüssten nicht mehr, wozu sie eigentlich da seien. Und sie selbst – die Bereichsleiterin – wisse oft nicht mehr genau, wer was wirklich geleistet hat, wenn der KI-Anteil schwer zu trennen ist.

Ich habe sie gefragt, ob jemand im Unternehmen darüber spricht. Sie meinte, offiziell laufe alles gut. Inoffiziell höre sie das Gleiche aus zwei anderen Bereichen.

Solche Gespräche häufen sich gerade. Was als Entlastungsversprechen einzog, hat eine zweite Schicht entwickelt – eine, über die in der öffentlichen Debatte zu KI wenig gesprochen wird. KI verändert nicht nur, wie viel ein Team schafft. Sie verändert auch, wie ein Team miteinander arbeitet, wie Verantwortung verteilt ist und welcher Rahmen die Belastung trägt.

Die Daten unterstreichen das:

  • Eine Studie der FOM Hochschule mit über 6.900 Befragten zeigt, dass 44 % der Berufstätigen fürchten, durch KI überfordert zu werden – besonders ausgeprägt in den älteren Generationen, aber durch alle Altersgruppen hindurch spürbar.

  • Der EY AI Sentiment Index 2025 ergänzt einen weiteren Befund: Nur 27 % der Menschen in Deutschland überprüfen die Ergebnisse, die KI für sie generiert.

  • Und der AXA Mental Health Report 2025 berichtet, dass 26 % aller Voll- und Teilzeitangestellten im vergangenen Jahr mindestens einmal wegen mentaler Probleme krankgeschrieben waren – ein neuer Höchststand. Der Report nennt KI ausdrücklich als Faktor, der den Druck weiter erhöht.

Was diese Zahlen zeigen, geht über reine Werkzeug-Akzeptanz hinaus. Sie geben Auskunft über die innere Verfassung von Beschäftigten, die täglich entscheiden müssen, wie viel sie an KI delegieren – und wie viel sie noch selbst können wollen.

Ein Hinweis zur Begrifflichkeit: Ich verwende KI-Stress, weil der Begriff gerade Traktion gewinnt. In der Forschung wird dieselbe Klasse von Belastungen seit Jahren unter Technostress oder Digitalstress beschrieben. Beide Begriffe existieren seit den 1980er Jahren und sind durch die Studie von Henner Gimpel und Kollegen (Hans-Böckler-Stiftung 2018) auch für Deutschland breit empirisch belegt, mit zwölf identifizierten Belastungsfaktoren in der digitalen Arbeitswelt. KI verändert die Dynamik dieser Belastungen. Sie entstehen schneller, sie greifen tiefer, und sie haben eine neue Quelle: den Rahmen rund um das Tool. Erwartungen, Tempo, Verantwortlichkeiten – die Strukturen, in denen all das eingeführt wird.

Genau darum lohnt es, einmal genauer hinzuschauen, was im eigenen Team gerade passiert. Manche der Symptome sind offensichtlich, andere laufen unter dem Radar.

 

#2. Woran du erkennst, dass dein Team mit KI ringt

KI-Stress zeigt sich selten als klares Signal. Die meisten Symptome wirken erst harmlos und werden auffällig, wenn sie bleiben.

Manche Anzeichen siehst du im Alltag direkt. Die Tool-Nutzung verteilt sich ungleich. Drei Mitarbeiter prompten täglich, andere haben den Zugang noch nicht aktiviert. Bei Kritikgesprächen kommt häufiger der Satz: „Hat sie das selbst geschrieben oder die KI?“ Vorlagen werden dreimal geprüft, weil niemand sich mehr sicher ist, was eine echte Empfehlung ist und was ein generierter Text. Aus Misstrauen entsteht Doppelarbeit, ohne dass das jemand ausspricht.

Andere Symptome bleiben unter der Oberfläche. Ein erfahrener Mitarbeiter sagt im Mitarbeitergespräch, er wisse nicht mehr, wozu seine Erfahrung eigentlich gut ist, wenn jeder Berufseinsteiger in zwanzig Sekunden einen passablen Entwurf erzeugt. Eine Teamleiterin, die früher gerne Texte überarbeitet hat, merkt, dass sie nur noch Outputs prüft – Stunde für Stunde, Tag für Tag. Sie spürt keine klassische Überforderung. Sie spürt, dass sie überflüssig wird. Beides ist Stress, mit umgekehrtem Vorzeichen.

Eine dritte Form bleibt komplett im Verborgenen: die heimliche Nutzung. Eine Mitarbeiterin nutzt ChatGPT trotz Verbot, weil sie sich anders das Pensum nicht zutraut – und gibt nichts davon zu, weil sie Sorge vor Reaktionen hat. Diese Form von KI-Stress ist die belastendste: zur eigentlichen Arbeit kommt das Verbergen, und zur Belastung das schlechte Gewissen.

Im Coaching frage ich Führungskräfte oft, ob sie wissen, welche Tools ihre Leute tatsächlich nutzen. In der Mehrheit der Fälle bekomme ich eine ehrliche Antwort, die sinngemäß lautet: „Eigentlich nicht.“ Das ist kein Vorwurf. Es ist ein Befund. Wer das genauer wissen will, muss einen Rahmen schaffen, in dem die Wahrheit ohne Risiko gesagt werden kann.

 
 
 

Wie widerstandsfähig bist du momentan?

Erfahre mit Hilfe meines kostenlosen online Selbsttests, wie es um Deine RESILIENZ steht!

 
 
 

Hast du das Zeug zum erfolgreichen LEADER?

Hier kannst du deine Führungskompetenzen einschätzen lassen.

 
 

RESILIENCE WALK & TALK

Der Resilienz Coaching-Spaziergang im Hamburger Stadtpark

Baue Stress ab und bringe frischen Schwung in Deine Gedanken 

Du bestimmst die Themen und das Tempo.
Ich navigiere Dich durch den Weg und unterstütze mit Fragen und kleinen Übungen. 

1,5 Std. morgens, nachmittags oder abends

 
 

#3. Wo der Stress wirklich herkommt

Wenn du verstehen willst, was den Stress trägt, hilft es, drei Ebenen zu unterscheiden. Sie greifen ineinander, aber sie haben unterschiedliche Quellen – und unterschiedliche Hebel.

#3.1. Was zwischen den Kollegen passiert

Die offensichtlichste Quelle ist die direkte Zusammenarbeit. KI verändert, wie Texte, Ideen und Entscheidungen entstehen – und damit die Frage, wem ein Beitrag eigentlich gehört. Wenn die Bereichsleiterin oben nicht mehr weiß, wer was wirklich geleistet hat, dann erleben Mitarbeitende dasselbe untereinander.

Hinzu kommt die ungleiche Geschwindigkeit. In jedem Team sind manche schneller in Tools und experimentierfreudiger als andere – das war schon vor KI so, aber nie in diesem Tempo. Wer sich mit GPT- und/ oder Claude-Modellen auskennt, kann in zwei Stunden produzieren, was eine Woche gekostet hätte. Wer noch unsicher ist, sieht das, vergleicht – und gerät unter Druck. Diesmal kommt der Druck aus den eigenen Reihen, aus dem Vergleich mit Kollegen, die schon weiter sind.

Im bestehenden Artikel zur einzelnen Führungskraft habe ich von drei Gruppen geschrieben, die in fast jedem Team auftauchen: Enthusiasten, Skeptiker, Überforderte. Auf Teamebene wiederholt sich diese Dynamik – nicht als Führungsaufgabe einer einzelnen Person, sondern als strukturelles Phänomen. Solange diese Gruppen nebeneinander existieren, ohne dass über die Unterschiede gesprochen wird, baut sich Spannung auf.

Was darunter liegt, ist eine Frage, die sich kaum jemand traut auszusprechen: Wer trägt die Verantwortung für Ergebnisse, an denen KI mitgearbeitet hat? Im Alltag wird das routinemäßig delegiert – an die Person, die unterschreibt, vorträgt, abnimmt. Bei genauerem Hinsehen stellt sich aber raus, dass kaum jemand wirklich überprüft hat, was in der Box steckt. Diese stille Verantwortungs-Diffusion ist eine Hauptquelle von Belastung. Sie wird gefühlt, lange bevor sie benannt wird.

#3.2. Wie Strukturen den Druck erhöhen

Die zweite Quelle liegt in der Organisation drumherum. Hier wird es spezifisch deutsch.

Erstens: die Tool-Flut.

Was vor einem Jahr neu war, ist heute überholt. Was heute Standard ist, kann morgen abgekündigt sein. Mitarbeitende sollen lernen, anwenden, auswählen – während sich das Feld unter ihnen weiterbewegt. Wer einmal in einer Schulung saß, in der das gezeigte Tool drei Wochen später durch eine neue Version ersetzt wurde, kennt das Gefühl. Das hat mit Inkompetenz nichts zu tun. Es ist eine Eigenschaft des Marktes, die als persönliche Überforderung ankommt.

Zweitens: der Compliance-Druck.

In Deutschland ist KI nicht nur eine Werkzeugfrage. Sie ist eine Datenschutzfrage, eine Mitbestimmungsfrage und seit 2025 auch eine AI-Act-Frage. Was rechtlich erlaubt ist, was unter den eigenen DSGVO-Verträgen passiert, was der Betriebsrat mitzeichnen muss – das wissen die wenigsten Mitarbeitenden im Detail. Sie wissen nur: Wenn ich etwas falsch mache, kann es teuer werden. Diese Unsicherheit erzeugt eine eigene Form von Lähmung. Manche probieren gar nicht erst aus. Andere probieren heimlich – worauf wir gleich kommen.

Drittens: die Erwartungslücke.

KI wird in vielen Unternehmen eingeführt, ohne dass die Strukturen mitgewachsen sind. Die Erwartung lautet: schneller, mehr, besser. Die Realität: dieselben Personen sollen plötzlich auf neuen Wegen arbeiten, oft ohne klare Zielvorgaben, ohne neue Zeitbudgets und ohne dass jemand definiert hat, was Qualität in einer KI-gestützten Welt eigentlich heißt. Was anfangs als Tempo-Gewinn galt, wird zum Maßstab, der nicht mehr erklärt wird – nur noch erwartet.

Eine Studie der FOM Hochschule (2025) zeigt, wie tief diese Unsicherheit reicht. 66 Prozent der Befragten haben Datenschutzbedenken im Umgang mit KI. Nur 39 Prozent vertrauen den KI-Ergebnissen, denen sie täglich begegnen. Und 73 Prozent sind der Meinung, dass KI menschliche Entscheidungen unterstützen kann, aber keine endgültigen Entscheidungen treffen sollte. Diese Zahlen beschreiben keinen Mangel an KI-Begeisterung. Sie beschreiben Menschen, die in einer noch ungeklärten Lage gut entscheiden wollen – und keinen klaren Boden unter den Füßen haben.

#3.3. Schatten-KI: das stille Symptom

Wenn die offiziellen Wege zu eng sind, entsteht ein inoffizieller. So ist es bei Software immer gewesen – und so ist es jetzt mit KI. Mitarbeitende nutzen Tools, die in ihrer Organisation nicht freigegeben sind, weil sie die Aufgaben sonst nicht mehr in der erwarteten Zeit schaffen. Oder weil sie experimentieren wollen, ohne sich zu blamieren. Oder weil die Genehmigungsprozesse länger dauern, als die nächste Deadline noch zulässt.

Die Daten sind eindeutig. Eine Bitkom-Studie aus 2025 zeigt: 10 Prozent der Erwerbstätigen in Deutschland nutzen KI beruflich, ohne dass ihre Führungskraft davon weiß. Das ist eine Verdopplung gegenüber 2024 (damals 5 Prozent). Eine YouGov-Studie im Auftrag von SThree (2025) berichtet, dass 77 Prozent der MINT-Fachkräfte in Deutschland KI-Tools wie ChatGPT, Gemini oder Perplexity bei der Arbeit verwenden, ohne dass IT-Abteilung oder Geschäftsführung diese freigegeben haben. Eine ifo-Studie vom Januar 2026 ergänzt: Zwei Drittel aller KI-Anwendungen in deutschen Unternehmen werden eigeninitiativ eingeführt, ohne formale Freigabe. Und eine Microsoft-Studie aus November 2025 zeigt, dass selbst in der Bundesverwaltung 45 Prozent der Mitarbeitenden KI-Tools nutzen, die nicht von ihrer Organisation als sicher eingestuft wurden.

Das ist kein Einzelfall mehr – es ist die Realität, in der in vielen Teams gerade gearbeitet wird.

Diese stille Schicht erzeugt eine doppelte Belastung. Zur Aufgabe selbst kommt der Druck, die Nutzung zu verbergen. Zum Arbeitsergebnis kommt die Sorge, ob unbemerkt etwas geleakt wurde, was sensibel war. Zur Eigenverantwortung kommt das Wissen, dass im Zweifel die persönliche Haftung bleibt. Wer einmal versucht hat, eine vertrauliche Kundeninformation in einen öffentlichen Chatbot zu kopieren und sich dabei beim Unternehmens-Datenschutz wegzucken zu müssen, kennt diese Form von Stress. Sie ist nirgends in einer offiziellen Mitarbeiterbefragung sichtbar.

Die Reaktion vieler Organisationen auf Schatten-KI lautet: schärfere Verbote. Die Forschung legt nahe, dass das nicht funktioniert. Verbote führen dazu, dass die Nutzung besser versteckt wird – die Belastung verschwindet damit nicht, sie wird nur unsichtbarer. Wirksamer ist eine andere Bewegung, die im nächsten Kapitel beginnt.

 

#4. Warum psychologische Sicherheit hier alles entscheidet

Bevor wir zu den konkreten Hebeln auf Führungs- und Organisationsebene kommen, gehört eine Sache vorgeschaltet, ohne die alles andere ins Leere läuft: psychologische Sicherheit.

Der Begriff stammt von der Harvard-Forscherin Amy Edmondson und beschreibt das Klima in einem Team, in dem Mitarbeitende ohne Angst vor sozialen Konsequenzen sagen können, was sie denken, fragen, vorschlagen oder zugeben, …:

  • dass sie etwas nicht wissen.

  • dass sie unsicher sind.

  • dass sie einen Fehler gemacht haben.

  • dass sie etwas nicht verstehen.

In Teams mit hoher psychologischer Sicherheit werden solche Aussagen als normaler Teil der Arbeit behandelt. In Teams ohne diese Sicherheit werden sie verschwiegen.

Wenn man sich anschaut, was KI-Stress in vielen Teams gerade auslöst, wird sofort klar, warum dieser Faktor hier alles entscheidet.

Wer mit einem Tool unsicher ist, das andere im Team flüssig nutzen, gerät in eine soziale Vergleichssituation. Wer nicht weiß, ob er KI für eine bestimmte Aufgabe einsetzen darf, traut sich nicht zu fragen, weil schon die Frage als Lücke wahrgenommen werden könnte. Wer heimlich ChatGPT nutzt, weil offiziell ein Verbot gilt, baut eine zweite Schicht aus Heimlichkeit auf, die belastet. Und wer als erfahrene Mitarbeiterin merkt, dass die eigene Erfahrung vielleicht nicht mehr der zentrale Wert ist, hat eine Identitätsfrage, die sich nicht mehr offen stellen lässt.

Hinter all diesen Situationen steckt dieselbe Mechanik: Menschen, die etwas verbergen, weil sie befürchten, dass das Aussprechen ihnen schadet. Genau darin liegt der Hebelpunkt, der jedem anderen Hebel vorgeschaltet ist. Solange dieses Klima nicht gegeben ist, kannst du als Führungskraft fragen, sortieren, Reflexionsräume schaffen, vorleben – die Wahrheit hörst du trotzdem nicht. Die Mitarbeitenden geben höfliche Antworten und behalten die echten Antworten für sich.

Das ist auch in der Forschung belegt. Eine groß angelegte Untersuchung von Google (Project Aristotle, abgeschlossen 2015) identifizierte psychologische Sicherheit als den wichtigsten Faktor für Teamleistung – noch vor Kompetenz, Klarheit der Ziele und Bedeutung der Arbeit. In den Jahren danach hat Edmondson in mehreren Studien gezeigt, dass psychologische Sicherheit besonders dort kritisch wird, wo Teams unter Veränderungsdruck stehen oder mit unbekannten Anforderungen konfrontiert sind. Beides trifft auf KI-Einführung in Reinform zu.

Was bedeutet das praktisch?

Psychologische Sicherheit entsteht nicht durch eine einmalige Ansage, dass jetzt alles offen besprochen werden darf. Sie entsteht durch wiederholtes Erleben, dass es tatsächlich folgenlos bleibt, wenn jemand etwas zugibt.

Drei kleine Bewegungen helfen dabei.

Erstens: eigene Unsicherheit zeigen.

Wenn die Führungskraft offen sagt, dass sie selbst noch ausprobiert, dass sie nicht alle Tools beherrscht, dass sie Fehler gemacht hat im Umgang mit KI – dann nimmt das die Hierarchiehürde aus der Frage heraus. Edmondson nennt diesen Mechanismus „modeling fallibility": vorleben, dass Fehlbarkeit hier akzeptiert ist.

Zweitens: Fragen aushalten, ohne sofort zu antworten.

Wenn jemand im Team eine Unsicherheit ausspricht, ist die häufigste Reaktion gut gemeint und wirkungslos – schnelle Beruhigung, schneller Tipp, schnelles Weiterhüpfen. Was psychologische Sicherheit aufbaut, ist das Gegenteil. Die Frage stehen lassen. Sie ernst nehmen. Sie als Information behandeln, die etwas über das System sagt – nicht über die Person, die sie stellt.

Drittens: Sanktionsfreiheit für Lernkurven sichtbar machen.

Wer im Team einmal beobachtet hat, wie ein Kollege eine Frage gestellt hat und danach in der nächsten Runde subtil weniger ernst genommen wurde, stellt diese Frage nie wieder. Das ist die unsichtbare Mechanik, die psychologische Sicherheit zerstört. Als Führungskraft hast du die Aufgabe, solche Momente bewusst zu vermeiden – und zu intervenieren, wenn andere sie erzeugen.

Auf Organisationsebene gilt dasselbe in größerem Maßstab. Eine Kultur, in der Fehler im KI-Umgang sofort sanktioniert werden, produziert mehr Schatten-KI, nicht weniger. Eine Kultur, in der Lernkurven explizit eingeplant sind und in der Mitarbeitende eine Rückfallebene haben, wenn ein KI-Output schiefgeht, produziert mehr Lernen und weniger Verbergen.

Wer tiefer einsteigen will, dem empfehle ich meinen Blogartikel zu psychologischer Sicherheit: PSYCHOLOGISCHE SICHERHEIT als Schlüssel zur TEAMEFFEKTIVITÄT: 10 Maßnahmen für Führungskräfte

Für diesen Kontext bleibt der Punkt einfach: Alles, was im nächsten Kapitel folgt, setzt psychologische Sicherheit voraus. Wo sie fehlt, bleiben die Hebel theoretisch.

 

Immer dienstags spannende Impulse über Business-Resilienz, wertschätzende Führung und menschliche Arbeitskultur

Melde dich einfach zu meinem RESILIENT LEADERSHIFT LETTER an!

(Du kannst dich jederzeit wieder schnell abmelden.)

 

#5. Wie du dein Team in dieser Phase unterstützen kannst

Was hilft, wenn ein Team unterschiedlich weit ist und KI eine eigene Belastung erzeugt? Vier Hebel, die in meinen Coachings immer wieder gut funktionieren – ohne Anspruch auf Vollständigkeit.

Erstens: KI-Nutzung sprechbar machen.

Solange niemand weiß, wer welche Tools wofür einsetzt, kann auch niemand sortieren, wo die Belastung herkommt. Eine einfache Runde im Team-Meeting, in der jeder sagen darf, was er nutzt und was nicht, ohne Bewertung, ist in vielen Teams ein erster Schritt. Wichtig ist die Haltung dabei: keine Inventur, sondern eine gemeinsame Bestandsaufnahme. Manche werden mehr sagen, als du erwartest. Manche werden weniger sagen, als du befürchtet hast. Beides ist Information.

Zweitens: Erwartungen und Verantwortung sortieren.

Wer trägt die Verantwortung, wenn ein KI-generierter Text nach außen geht? Wer prüft was, in welcher Tiefe, in welchem Tempo?

Diese Fragen sind in den meisten Teams ungeklärt – nicht, weil niemand sie beantworten könnte, sondern weil sie nie gestellt wurden. Eine kurze, klare Vereinbarung darüber, wer wofür haftet und welche Qualitätsstandards für KI-gestützte Arbeit gelten, nimmt enorm viel Druck aus dem Alltag.

Drittens: Reflexionsräume schaffen, in denen ohne KI gearbeitet wird.

Nicht als Romantik, sondern als handwerkliche Notwendigkeit. Es gibt Aufgaben, bei denen das Tempo der KI die Qualität schmälert – Strategiearbeit, schwierige Personalentscheidungen, Spannungen und Konflikte. Wer in diesen Räumen bewusst langsamer arbeitet, schützt die Qualität, die woanders durch KI-Geschwindigkeit unter Druck gerät. Das gilt für dich selbst genauso wie für dein Team.

Viertens: den eigenen Umgang transparent vorleben.

Wer im Team sieht, dass die Führungskraft selbst mit KI experimentiert, dabei Fehler macht, davon erzählt und reflektiert, wie sie damit umgeht – der bekommt eine Art Erlaubnis, das Gleiche zu tun. Wer dagegen merkt, dass die Führungskraft selbst unsicher ist, aber nichts davon zeigt, lernt nur eines: dass Unsicherheit hier kein Thema sein darf. Das verschärft den Stress, statt ihn zu mildern.

Was alle vier Hebel verbindet, ist dieselbe Logik: Druck, der entsteht, weil etwas verschwiegen wird, lässt sich kaum mit individuellen Maßnahmen abbauen. Er löst sich dort, wo gemeinsam darüber gesprochen wird. Das klingt einfach. In der Praxis ist es eine der schwierigsten Führungsaufgaben gerade.

 

#6. Was Organisationen jetzt klären müssen

Was in einem Team nicht aufgefangen werden kann, gehört auf die Ebene darüber. Vier Punkte, die in deutschen Unternehmen 2026 dringend einer Klärung bedürfen.

Erstens: Governance, die ermöglicht statt nur einzuschränken.

Die meisten KI-Richtlinien, die ich in Unternehmen sehe, sind Verbotslisten. Was nicht erlaubt ist, ist klar. Was erlaubt ist, weniger. Mitarbeitende lesen so etwas und ziehen die Schultern hoch. Wirksamer wäre eine Governance, die konkrete Use Cases freigibt – mit Beispielen, mit Grenzen, mit klarem „so ja, so nein“. Das gibt Orientierung und reduziert die heimliche Nutzung wirkungsvoller als jede Verschärfung.

Zweitens: pragmatische Datenschutzlösungen.

Wenn die offizielle Lösung „kein ChatGPT auf der Arbeit“ lautet, während der Markt rund um Microsoft Copilot, Google Gemini Workspace und vergleichbare Enterprise-Lösungen reift, dann steigt nur die Schatten-KI. Eine Enterprise-Lizenz mit klaren Datenschutzbedingungen ist teurer als ein Verbot, aber sie schließt die Lücke, durch die heute monatlich vertrauliche Daten in öffentliche Modelle wandern. Diese Investition ist in vielen Unternehmen überfällig.

Drittens: Schulungen, die Tool-Wissen mit Reflexion verbinden.

Reine „Wie prompte ich richtig“-Workshops greifen zu kurz. Sie qualifizieren die schnellen Anwender, lassen die Vorsichtigen weiter ratlos und beantworten keine der eigentlichen Fragen, die im Team kursieren: Wann darf ich KI einsetzen? Wann nicht? Wie gehe ich damit um, dass mein Output sich plötzlich anders anfühlt? Eine sinnvolle Schulung verbindet praktisches Können mit Räumen für genau diese Fragen. Sonst entsteht Tempo, aber kein Vertrauen.

Viertens: mentale Gesundheit als ernsthafter Faktor, nicht als Wellness-Add-on.

Der AOK Fehlzeiten-Report 2025 mahnt ausdrücklich, dass die Implikationen von KI für die mentale Gesundheit der Mitarbeitenden nicht ausreichend betrachtet werden. Der DEKRA Arbeitssicherheitsreport 2025 widmet der psychischen Belastung durch KI ein eigenes Kapitel und empfiehlt eine Gefährdungsbeurteilung psychischer Belastungen, die die KI-Einführung explizit mit aufnimmt. Diese Empfehlung ist gesetzlich gedeckt – der Arbeitsschutz verpflichtet ohnehin dazu. Aber sie wird in den meisten Unternehmen nicht umgesetzt. Hier liegt ein Hebel, der struktureller Belastung strukturell begegnet.

Keiner dieser vier Punkte ist neu. Was neu ist, ist die Dringlichkeit. KI breitet sich gerade schneller aus als die organisationalen Antworten darauf reichen. Wer als Unternehmen jetzt nicht klärt, riskiert, dass die Belastung im Alltag der Mitarbeitenden weiter zunimmt – mit Folgen, die bei den Krankenständen sichtbar werden, lange bevor sie in den Quartalszahlen auffallen.

 

#7. Drei Fragen für deinen Führungsalltag

Wenn dich dieser Artikel an Stellen erwischt hat, an denen du dich wiedergefunden hast, helfen drei Fragen, das Gelesene in deinen Alltag zu übersetzen.

Erstens: Was belastet dein Team an der KI-Nutzung gerade am stärksten – und sprecht ihr darüber?

Wenn du auf die zweite Hälfte der Frage keine klare Antwort hast, ist das die wichtigste Information.

Zweitens: Welche Verantwortung ist bei euch gerade ungeklärt?

Wenn du in deinem Bereich nicht in einem Satz sagen kannst, wer für KI-gestützte Ergebnisse haftet und nach welchen Standards geprüft wird, ist das ein Hinweis, wo in den nächsten Wochen am meisten zu gewinnen ist.

Drittens: Wo ermöglicht eure Organisation KI-Nutzung – und wo verhindert sie sie ungewollt?

Der ehrliche Blick auf diese Frage trennt die Themen, die du selbst angehen kannst, von denen, die du nach oben tragen musst. Beides ist legitim. Sie zu verwechseln, kostet Energie.

 

FAZiT

Was ich in den letzten Monaten in Beratungsgesprächen immer wieder beobachte, lässt sich auf einen einfachen Punkt bringen: Was im Alltag belastet, hat selten direkt mit der KI zu tun. Was belastet, sind die Strukturen drumherum.

KI-Stress entsteht dort, wo Tempo schneller wächst als Klarheit. Wo Tools verfügbar sind, aber Vereinbarungen fehlen. Wo Verantwortung bei den Einzelnen landet, weil oben niemand sie sortiert. Und wo Mitarbeitende sich gegenseitig misstrauen, weil das Gemeinsame fehlt, das ihnen Halt geben würde.

Das ist gestaltbar. Auf Teamebene durch klare Gespräche, sortierte Verantwortung und transparenten Umgang mit dem eigenen Lernen. Auf Organisationsebene durch Governance, die ermöglicht, durch pragmatische Datenschutzlösungen und durch eine ehrliche Auseinandersetzung mit den mentalen Folgen einer Veränderung, die niemand mehr stoppen wird.

Wer in diesem Umfeld führen will, braucht keine besseren KI-Skills. Was es braucht, ist die Bereitschaft, die Strukturen anzuschauen, in denen die Belastung entsteht – und sie zu verändern, wo das möglich ist.

 

Quellen

 

Und wenn du gerade denkst: „Ich möchte herausfinden, wo ich stehe – und wie ich mich innerlich besser aufstellen kann“ – dann mach gern den ersten kleinen Schritt:

📥 Hol dir jetzt meinen RESILIENZ-TEST für 0,-

Denn innere Stärke beginnt nicht irgendwann. Sie beginnt genau heute – mit dir.

 

 
 

Wichtige HINWEISE für DICH:

Meine Strategien sind nur Ideen und Impulse, damit Du Dich inspirieren lassen kannst.

Sie ersetzen weder einen professionellen Check beim Facharzt noch eine Therapie.


Wenn ich beispielsweise von KUNDEN, KLIENTEN oder MITARBEITERN spreche, sind damit MENSCHEN aller GESCHLECHTER und IDENTITÄTEN gemeint.


 
 
 

Speichere dir diesen Artikel bei Pinterest:

 
Weiter
Weiter

KI für Führungskräfte: Warum der Job gerade schwerer wird, nicht leichter