Das oben in diesen Blog eingebettete Video ist die Aufzeichnung meines Beitrags, den ich dankenswerterweise im Rahmen des Digital-Work-Forums des Teams um Björn Negelmann am 11.02.26 online bei der KongressMedia halten durfte. Wir von der ESBYTE haben das Video mit der Erlaubnis zur Veröffentlichung hier auf unserer Webseite erhalten.
Das Video gliedert sich in folgende Inhalte und Zeiten:
- 00:00 – Einführender Dialog mit Björn
- 04:20 – Vorstellung der ESBYTE und Erläuterung unseres KI-Checks
- 06:38 – Uns fehlen einfach die Worte
- 08:28 – System Failure oder: Was wir über die KI nicht wissen
- 11:20 – Was wir über KIs sehr wohl wissen
- 15:50 – Was KIs über „sich selbst“ wissen
- 18:00 – Was wir über uns wissen
- 21:50 – Was das für uns bedeuten kann
- 23:58 – Weitere Diskussion mit Björn und Antwort auf Fragen zum Beitrag
Mit dem Zeitindex kann jede:r direkt zu den Aspekten ins Video springen. Mit dem Beitrag möchte ich ein paar Anmerkungen zum Hintergrund der jeweiligen Ausführungen machen. Den Index verwende ich dafür als Gliederung, wobei meine Erläuterungen mit dem Titel und Aufbau des Beitrags anfangen.
Inhaltsverzeichnis
ToggleKollaborativ gestützte Räume mit KI
Am Anfang war das Thema, so könnte man sagen. Das Forum beschäftigte sich wesentlich mit der Frage, welche Folgen der Einsatz generativer KI-Systeme für die Arbeit hat bzw. was das für die Arbeitsplätze bedeutet, also „wie Organisationen digitale Arbeitsumgebungen produktiv weiterentwickeln“ können und wie dafür das konkrete Zusammenspiel zwischen Mensch und KI gestalten müssen. Die Erfahrung bei uns, also der ESBYTE, dabei ist die, dass dies gar nicht so einfach ist, weil nicht so richtig klar ist, was denn generative KI-Systeme von Menschen unterscheidet und was eine KI „tut“, wenn sie gemäß der Prompts und Weisungen „arbeitet“. Der Klärung dieses komplizierten Verhältnisses diente die grundlegende Unterscheidung in KIs und das Wir, bezogen auf uns Menschen, im Beitrag.
Uns fehlen einfach die Worte
Die Unterscheidung war zugleich auch mein Einstieg in den Beitrag, denn, das lässt sich jetzt aus vielen Diskussionen dazu gut ableiten: uns fehlen schlicht die Worte, um adäquat zu beschreiben, was denn eine KI „macht“ oder „ist“. Deshalb verwenden wir ständig Begriffe, die unserem eigenen Handeln als Menschen entstammen, uns also selbst-verständlich und geläufig sind. Das macht aber die Einordnung nicht einfacher und ist im Regelfall falsch, zumindest was die Bedeutung betrifft. Das wiederum ist nicht zufällig so, das sollte mit der ersten Folie deutlich werden. Bereits bei der Prägung des Begriffs waren nämlich unterschiedliche Definitionen im Gespräch. Am Ende ging es bezüglich der Unterscheidung nur noch um folgendes: Würde die KI ein „menschenähnliches Verhalten“ zeigen, würde sie das am Ende ununterscheidbar machen. Das zumindest ist der berühmte und bis heute gültige Vorschlag von Alan Turing (Turing-Test) gewesen.
System Failure
Bei der eingebetteten Grafik in der Präsentation ging es mir darum zu zeigen, dass das vorgebliche Nichtwissen um eine KI, die oft zitierte Black-Box, sich nicht auf die Technik oder Funktionsweise bezieht. Die große Unbekannte, die auch das Thema des Forums war, ist, was der Einsatz der KI in sozialen und kollaborativen Kontexten der Unternehmen bedeutet. Das sollte mit der Grafik deutlich werden und ich selbst finde eigentlich sehr schön darin dargestellt, dass im Zentrum eine zentrale Vorstellung von Organisation steckt, nämlich das Maschinenmodell. Zumindest kann man das anhand der Zahnräder so interpretieren. Dass es beim Einsatz zu vielen Schwierigkeiten kommt hat genau damit zu tun, dass Organisationen eben keine Maschinen sind, sondern kollektive Akteure darstellen, die es nur aufgrund menschlicher und vor allem gemeinschaftlicher Aktivitäten darin gibt. Insofern, und hier stimme ich Cerys Hearsey, von der ich die Grafik übernommen habe, absolut zu, enthüllt uns der Einsatz der KI etwas Fundamentales.

Was wir über KIs sehr wohl wissen
Auf der nächste Folie gehe ich darauf ein, dass wir zwar die konkreten Ergebnisse, also die Ausgaben, welche generative KIs produzieren, nicht im Sinne eines Algorithmus vorhersagen können. Das heisst aber noch lange nicht, dass wir nicht wissen, wie sie zustande kommen. Wir wissen also eigentlich eine ganze Menge über KIs. An dieser Stelle möchte ich nicht alles wiederholen, sondern noch einmal auf das Thema des Forums insgesamt fokussieren: Eine KI ist tatsächlich kein:e Kolleg:in, wie es mitunter, und selten scherzhaft, behauptet wird. Sie „kennt“ kein Vertrauen, hat kein Körpergefühl, kennt keinen Schmerz, hat keine Emotionen und leidet auch nicht an Erschöpfung. Sie hat insgesamt keine „eigenen“ Bedürfnisse. Das sind alles Gründe, warum sich eine KI echter Teamarbeit nicht anpassen kann, wie Jayshree Seth und Amy Edmondson am Beispiel der psychologischen Sicherheit, die notwendig ist, sehr überzeugend aufweisen.
Was KIs über sich selbst wissen
An dieser Stelle verweise ich auf unsere 7-teiligen Serie „Kritik der KI“, in deren Rahmen wir vier verschiedenen LLMs zu den Bedingungen ihres Einsatzes in Organisationen „befragt“ hatten. Die wesentlichen Ergebnisse habe ich auf dieser Folie vorgestellt.
Was wir über uns wissen
In diesem Zusammenhang komme ich noch einmal auf die „fundamentale Enthüllung“ zurück, welche uns der Einsatz von KI-Systemen im Rahmen der Teamarbeit bieten kann. Erstaunlicherweise wissen wir nämlich weniger über uns als Menschen, die in Teams agieren, als wir zu wissen glauben. An dieser Stelle also ein paar Erkenntnisse aus jahrelanger Arbeit in der Transformation von Organisationen – und auch einer theoretischen Auseinandersetzung damit.
Wir als Menschen sind bis in die biologische Ausstattung hinein kollektive Akteur:innen. Wir haben eine Intelligenz, die im Team entsteht und in den Kollaborationen zu Tage tritt. Dazu müssen die kollaborativen Teams jedoch real vorhanden sein, die Hierarchie muss in der Zusammenarbeit „draußen bleiben“. Die psychologische Sicherheit des kollaborativen Raumes ergibt sich ebenfalls durch die Verlässlichkeit von Absprachen und Verantwortlichkeiten im Tun, das wir Menschen intentional, also aus uns heraus, vollziehen.
Leider gestalten wir unsere Organisationen und Unternehmen nicht in diesem Sinne, sondern vereinzeln die Beschäftigten systematisch und übertragen ihnen dann jeweils individuelle Tätigkeiten – wenn sie nicht gerade agil zusammenarbeiten sollen. Das ist übrigens eine Korrektur des entsprechenden Punktes auf meinen Folien bzw. im Beitrag.
Was das für uns bedeuten kann
Am Ende noch etwas, was diese Ausführungen für uns als Menschen in den Unternehmen bedeuten könnten. Das war auch der Aspekt, den wir dann nach der Präsentation noch etwas länger diskutiert hatten. Der wichtigste Aspekt scheint mir zu sein, dass die Verwendung einer generativen KI über eine Vereinbarung geregelt und sie dann prozessual ins Team eingebunden werden muss (es bedarf einer Kollaborationsvereinbarung). Sie darf kein individuelles Werkzeug bleiben und erst eine gemeinschaftliche Reflexion zur Kontrolle der Ergebnisse sichert, dass kein KI Müll entsteht.
Es ist kein Bug, sondern ein Feature, wie man so sagen würde: Generative KIs werden aufgrund ihrer statistischen Funktion immer halluzinieren. Die dabei entstehenden Fehler können aber ein Anlass sein, über die eigene Fehlerkultur nachzudenken und Fehler als Lernquellen zu begreifen. Wenn schon eine KI Fehler macht, so könnte das doch umso mehr für uns Menschen gelten. Das setzt natürlich voraus, dass man ein LLM nicht in blinden Glauben an die Richtigkeit der Ergebnisse einsetzt.
Die Kontrolle der Ergebnisse durch „kritisches Denken“ wiederum ist etwas, was man im Team wesentlich einfacher und eleganter handhaben kann, als alleine auf sich und die KI gestellt. Arbeiten mit KI ist eine Team-Aufgabe und Herausforderung der Teams zugleich. So gebraucht kann eine KI jedoch als „Intelligenzverstärkerin“, nämlich der Verstärkung der kollektiven Intelligenz von Menschen, genutzt werden. Womit wir wieder am Anfang des Vortrags, nämlich dem Titel „Vom Einsatz der KI als kollektive Intelligenzverstärkerin“, angelangt wären.
Quellen
- Acar, O. A., Gai, P. J., Tu, Y., & Hou, J. (2025). The Hidden Penalty of Using AI at Work. Harvard Business Review. https://hbr.org/2025/08/research-the-hidden-penalty-of-using-ai-at-work
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623. https://doi.org/10.1145/3442188.3445922
- Hearsey, C. (2026). Why Does Individual AI Literacy Fail to Translate into Organisational Impact? Shift Academy. https://academy.shiftbase.info/p/why-does-individual-ai-literacy-fail
- Schmutz, J. B., Outland, N., Kerstan, S., Georganta, E., & Ulfert, A.-S. (2024). AI-teaming: Redefining collaboration in the digital era. Current Opinion in Psychology, 58, 101837. https://doi.org/10.1016/j.copsyc.2024.101837
- Seth, J., & Edmondson, A. C. (2026). How to Foster Psychological Safety When AI Erodes Trust on Your Team. Harvard Business Review. https://hbr.org/2026/02/how-to-foster-psychological-safety-when-ai-erodes-trust-on-your-team