Teil 2: KI verändert, wer wir sind – Kultur, Rollen und Macht neu definieren
Leitthese: Die Einführung von KI im Unternehmen verändert unweigerlich dessen Kultur und Machtgefüge. Damit KI ihr Potenzial entfalten kann, müssen Rollen neu gedacht und Macht neu verteilt werden. Anders ausgedrückt: Nicht nur was wir tun, ändert sich durch KI, sondern wer wir als Organisation sind.
Kulturwandel: Von Angst zu Offenheit
Ein oft unterschätzter Faktor bei KI-Projekten ist die Unternehmenskultur. Zahlreiche Mitarbeiter nutzen schon heute im Verborgenen KI-Tools, um ihre Arbeit zu erleichtern – sie werden von Ethan Mollick treffend als „heimliche Cyborgs“ bezeichnet. Warum diese Geheimniskrämerei? Die Gründe reichen von Angst vor Bestrafung bis zur Sorge, sich selbst überflüssig zu machen. Wenn Mitarbeiter fürchten, dass geteiltes Wissen über KI-Nutzung zu Jobverlust oder Mehrarbeit führt, bleibt der Einsatz individuell und im Schatten – ein kulturelles Problem.
Die Folgen dieser Angstkultur: Innovative Bottom-up-Impulse werden ausgebremst. Anstatt Erfolge mit KI im Team zu teilen, halten Mitarbeiter lieber den Mund. Unternehmen entgehen so wertvolle Lernchancen. Hier zeigt sich, wie eng Technik und Kultur verzahnt sind: Ohne Vertrauen und Offenheit keine breite KI-Adoption. „Die eigentliche Wahrheit ist: Kultur ist jetzt der Engpass“, konstatierte kürzlich ein Fortune-1000-Innovationsgipfel. Unternehmen, die noch damit beschäftigt sind, von Papier auf digital umzustellen, „hinken bereits hinterher“. Drastische Worte, die den Kulturwandel einfordern.
Was tun? Zunächst brauchen Mitarbeiter psychologische Sicherheit, um KI-Experimente offen zu kommunizieren. Dazu gehört von oben ein klares Signal: Nutzung von KI ist gewünscht und wird nicht sanktioniert, solange ethische und rechtliche Leitplanken eingehalten werden. Statt pauschaler Verbote oder vager Warnungen sollten klare Guidelines erarbeitet werden, wo KI eingesetzt werden darf Wichtig: Führungskräfte müssen glaubhaft versichern, dass Produktivitätsgewinne durch KI nicht direkt zu Stellenabbau führen. Wenn jede Effizienzsteigerung nur Angst vor Kündigung auslöst, wird niemand sein Wissen teilen. Einige Unternehmen gehen bereits mit gutem Beispiel voran – z.B. indem sie interne KI-Communities aufbauen, in denen Mitarbeiter Anwendungsfälle vorstellen und voneinander lernen. Andere belohnen aktiv Vorschläge, wie KI Prozesse verbessern kann. Entscheidend ist, eine Kultur zu schaffen, in der Experimentieren belohnt statt bestraft wird.
Ein realer Vorreiter ist hier etwa Morgan Stanley: Das Finanzinstitut hat nicht nur als eines der ersten ein eigenes GPT-basiertes Assistenzsystem für Berater eingeführt, sondern parallel dazu ein Schulungsprogramm aufgesetzt und Richtlinien veröffentlicht, die Mitarbeitern explizit erlauben, generative KI kreativ einzusetzen – natürlich unter Wahrung der Kundendaten. Dieses Zusammenspiel aus Technologie-Einführung und Kulturmaßnahmen sendet die Botschaft: Wir vertrauen euch mit KI. So etwas spricht sich im Haus herum. Im Gegensatz dazu gibt es die Fälle von Unternehmen, die ChatGPT & Co. rigoros blockierten – dort werden die findigen Mitarbeiter eben heimlich zu Cyborgs oder die Innovationschancen bleiben ungenutzt.
Neue Rollen und Fähigkeiten
Mit KI halten neue Rollen Einzug und etablierte Rollen verändern sich tiefgreifend. Organisationsdesign und Personalentwicklung müssen Schritt halten, wenn KI Werkzeuge in nahezu jedem Funktionsbereich bereitstellt. Einige Beispiele aus der Praxis und nahen Zukunft:
- „Prompt Engineers“ und KI-Kuratoren: Um komplexe generative KI-Modelle im Unternehmen zu nutzen, braucht es Spezialisten, die wissen, wie man die richtigen Fragen stellt und Ergebnisse evaluiert. Diese Rolle – teils neu geschaffen, teils als Kompetenz bestehenden Rollen hinzugefügt – sorgt dafür, dass KI-Ausgaben qualitativ hochwertig und anschlussfähig sind. Allerdings gehlrt auch zur Wahrheit, dass gerade die Rolle des Promot-Engenieers schon nach kurzer Zeit, aufgrund der Weiterentwicklung der KI-Modell wieder an Bedeutung verloren hat
- Datenethiker und KI-Governance-Teams: Große Unternehmen wie z.B. die Deutsche Telekom oder SAP haben bereits AI Ethics Boards eingerichtet, um den KI-Einsatz intern zu überwachen. Solche Gremien und Rollen (bis hin zum „Chief AI Ethics Officer“) gewinnen an Einfluss und definieren mit, welche Anwendungen zulässig sind. Hier verschiebt sich also Macht hin zu den Hütern von Verantwortung und Transparenz.
- Augmentierte Fachkräfte: Statt reiner Ablösung beobachten wir in vielen Bereichen eine Erweiterung bestehender Rollen. Ein Architekt etwa, der KI nutzt, um in Sekunden alternative Entwurfskonzepte zu generieren, wird produktiver und kann sich stärker auf die Bewertung und Feinjustierung der Entwürfe konzentrieren. Seine Rolle wird kreativer, strategischer – Routineanteile übernimmt die KI. Ähnlich im Kundenservice: Mitarbeiter mit KI-gestützter Analyse können persönlicher und schneller auf Anliegen eingehen, während Standardanfragen automatisiert sind. Die Aufgabenprofile verschieben sich in Richtung Ausnahmefall-Behandlung, Empathie und Qualitätskontrolle.
- Wegfall von Zwischenebenen? KI könnte mittelfristig bestimmte koordinative oder analytische Tätigkeiten so gut unterstützen, dass sich Organisationsstrukturen verschlanken. Wenn eine KI täglich Projektstatus auswertet und optimale Ressourcenallokation vorschlägt, braucht es vielleicht weniger klassische Projektmanager zur Datenzusammenführung. Das heißt nicht zwangsläufig Kündigungen – oft werden diese Menschen dann für höherwertige Aufgaben benötigt – aber die Hierarchieebenen könnten flacher werden. Das stellt Führung neu auf: weniger Mikromanagement, mehr strategische und zwischenmenschliche Führung.
Interessant ist: Studien zeigen, dass KI derzeit vor allem Low Performern dabei hilft, deutlich bessere Ergebnisse zu erzielen, während Top-Performer nur geringfügig zulegen. KI wirkt also kurzfristig als Leveler, ein Ausgleich: Junioren können mit AI-Assistenz plötzlich auf einem höheren Niveau arbeiten. Langfristig ist es denkbar, dass sich das Blatt wendet und diejenigen am meisten profitieren, die KI am versiertesten steuern – was tendenziell erfahrenere Fachkräfte oder Manager sein könnten. Dieses Spannungsfeld müssen Unternehmen im Blick haben: Weiterbildung wird zentral, damit nicht ein Teil der Belegschaft abgehängt wird. Wer heute in breiter Front KI-Kompetenzen aufbaut, sorgt dafür, dass möglichst alle Mitarbeiter zu den Gewinnern der Entwicklung gehören.
Machtverschiebungen: Wer entscheidet, Mensch oder Maschine?
KI zwingt uns, Machtfragen neu zu stellen: Welche Entscheidungen treffen Menschen, welche überlassen wir Algorithmen? Und wie verändert sich das Machtgefüge zwischen Management und Mitarbeitern, wenn beide Zugriff auf dasselbe superintelligente Assistenzsystem haben?
Eine provokante Sicht skizzierte ein Kommentator folgendermaßen: KI-Tools könnten die kreative Belegschaft „aufspalten – in eine Managerklasse, die durch KI übermächtig wird, und eine viel größere Masse an ‚Talenten‘ […] die in der täglichen Arbeit weitgehend überflüssig gemacht werden“. Dieses düstere Zukunftsbild – eine Handvoll KI-gestützter Entscheider, die den Rest ersetzen – soll uns wachrütteln. Es ist keineswegs unausweichlich, aber es zeigt, was passieren kann, wenn Führungskräfte die Einführung von KI allein top-down steuern und die Belegschaft nicht mitnehmen. Dann entsteht tatsächlich die Gefahr, dass Wissen und Kompetenzen sich an der Spitze konzentrieren und ein „AI Gap“ zwischen Management und Ausführenden klafft.
Demgegenüber steht das Leitbild der partizipativen KI-Transformation: Alle Ebenen der Organisation werden mit einbezogen und erhalten Mitspracherecht. So berichten innovative Unternehmen, dass sie bereichsübergreifende KI-Taskforces einrichten, in denen auch junge Talente oder Betriebsräte sitzen, um Einsatzfelder auszuloten. Macht verteilt sich hierbei neu: Nicht nur IT oder Führung entscheiden, welche KI eingeführt wird, sondern es wird gemeinschaftlich erarbeitet. Das kostet zu Beginn mehr Zeit, erhöht aber die Akzeptanz enorm – und die Lösungen passen besser zur gelebten Praxis.
Zudem müssen Entscheidungsprozesse adaptiert werden. Wenn KI-Systeme beispielsweise eigenständig Analysen liefern und sogar Empfehlungen aussprechen („Diese Produktvariante hat laut KI die höchste Erfolgschance am Markt“), wie gehen wir damit um? In einigen Firmen werden bereits Regeln diskutiert wie: Eine KI-Empfehlung muss mindestens von einem Verantwortlichen gegengeprüft werden, bevor ein Beschluss erfolgt – ähnlich dem Vier-Augen-Prinzip, nur dass ein „Auge“ eine AI ist. Interessanterweise führt die Einbindung von KI teils zu demokratischeren Entscheidungen: Wenn alle Zugriff auf dieselben Datenanalysen haben, zählen Hierarchien weniger, sondern Überzeugungskraft und Fachargumente gewinnen Gewicht. KI kann also, richtig eingesetzt, Macht dezentralisieren, weil Wissen nicht mehr exklusiv ist.
Allerdings: Wer die KI-Systeme baut und trainiert, hat natürlich zunächst viel Macht. Daher sehen wir in großen Organisationen gerade einen Anstieg an interdisziplinären Governance-Runden – IT, Fachbereiche, Compliance, HR – um gemeinsam die Leitplanken festzulegen. Beispielsweise entscheidet ein solches Gremium, ob eine KI in der Personalabteilung Vorselektionen von Bewerbern durchführen darf oder ob das Risiko von Bias zu hoch ist. Durch solche Strukturen stellt man sicher, dass Macht durch KI kontrolliert und gerecht verteilt wird.
Soziotechnische Transformation gestalten
Aus systemischer Sicht ist klar: Technischer und organisatorischer Wandel müssen Hand in Hand gehen. Schon die Soziotechnik der 1950er-Jahre lehrte, dass neue Technologien nur dann erfolgreich sind, wenn auch die sozialen Systeme – also Menschen, Kompetenzen, Werte und Zusammenarbeit – angepasst werden. KI-Integration ist ein Paradebeispiel dafür.
Ein realer Fall aus der strategischen Beratung: In einem Industrieunternehmen experimentierte das Innovations-Team mit einer KI zur Produktionsoptimierung. Technisch vielversprechend – aber die Schichtleiter ignorierten die KI-Empfehlungen, weil sie die Algorithmen misstrauisch als „Einmischer“ empfanden, die ihre Erfahrung infrage stellen. Erst als man die Schichtleiter frühzeitig ins Boot holte, Workshops zur Vertrauensbildung durchführte und klar kommunizierte, dass die finale Entscheidung bei den Menschen verbleibt, änderte sich die Haltung. Heute berichten dieselben Schichtleiter, dass sie die KI gar nicht mehr missen möchten, weil sie ihnen lästige Routineanalysen abnimmt und sie „endlich mehr Zeit für die Mitarbeiterführung und Problemlösung vor Ort“ haben. Dieses Beispiel zeigt: Kultur und Rollenverständnis sind der Schlüssel, nicht die Technik an sich.
Unsere Erfahrung bei Innovationeers: Bei KI-Projekten in großen Organisationen sollte mindestens 50 % der Energie auf Change Management, Schulung und Kulturarbeit verwendet werden. Oft lautet die Faustregel sogar 70:20:10 – 10 % der Investition in die besten Algorithmen, 20 % in die passenden Technologien und Daten, aber 70 % in Menschen und Prozesse. Die BCG fand genau dies als Erfolgsfaktor bei KI-Vorreitern: Sie investieren überproportional in Workforce Enablement und Veränderungsprozesse.
Kurzum, KI verändert, wer wir sind, als Individuen in unseren Rollen und als Organisation im Ganzen. Dies aktiv zu gestalten, ist Führungsaufgabe. Es erfordert Mut, traditionelle Machtmuster zu hinterfragen (z.B. die eigene Expertenrolle, wenn plötzlich die KI fachlich mitredet) und aktiv eine lernende Kultur zu fördern. Wer das meistert, wird nicht nur effizienter, sondern auch attraktiver als Arbeitgeber – denn die Talente von morgen wollen in Unternehmen arbeiten, die Mensch und KI gemeinsam besser machen. Ein solches Unternehmen versteht KI nicht als Bedrohung der menschlichen Identität, sondern als Gelegenheit, das Menschliche neu zu definieren: repetitives Abarbeiten tritt zurück, kreative, strategische und zwischenmenschliche Aspekte treten hervor.
In der nächsten und letzten Folge der Serie richten wir den Blick nach vorn: Wie entwickelt man eine KI-Strategie, die auch in fünf oder zehn Jahren noch trägt? Es geht um die Architektur für das Unbekannte – denn die Zukunft bleibt ungeschrieben, und genau darauf muss die Organisation vorbereitet sein.