Die Einführung generativer KI-Systeme in Unternehmen zeigt für uns bei der ESBYTE eine verblüffende Widersprüchlichkeit: Während sich die Nutzung dieser Technologie seit 2023 nahezu verdoppelt hat und die Zahl der Firmen mit vollständig KI-gestützten Prozessen im gleichen Zeitraum erheblich gestiegen ist, verzeichnen 95 Prozent der Organisationen keinen messbaren Mehrwert, also keinen ROI (Return on Investment) ihrer KI-Investitionen. Diese Diskrepanz zwischen Enthusiasmus und Ergebnis, zwischen Aktivität und Wertschöpfung ist nicht nur ökonomisch problematisch, sondern wirft grundsätzliche Fragen über die Art und Weise auf, wie Unternehmen diese Technologie überhaupt implementieren und nutzen.
Inhaltsverzeichnis
ToggleFür dieses widersprüchliche Phänomen gibt es mittlerweile sogar einen Fachbegriff: Workslop. Abgeleitet wird er aus dem Begriff KI-Slop, zu deutsch etwa KI-Abwasser oder KI-Schrott. Workslop bezeichnet dabei das Phänomen, dass sich mit Hilfe generativer KIs im Handumdrehen gut aussehende Präsentationen, ansprechende und strukturierte Berichte oder auch coole Code-Schnipsel erstellen lassen. Am Ende aber fehlen dann entscheidende Informationen, sind die Inhalte unvollständig und ohne Kontext oder gar für den Projektfortschritt völlig nutzlos. Die Konsequenzen sind für die Empfänger von Workslop erheblich: Sie müssen sich nämlich mit jedem einzelnen Fall befassen und jedes Mal nachfragen, korrigieren, neu strukturieren oder das Material komplett überarbeiten.1 Workslop bezeichnet insofern ein strukturelles Problem, wie nämlich eine generative KI im Zusammenhang von Arbeitsprozessen genutzt wird.
„Workslop breitet sich aus, wenn KI zu einer Krücke statt zu einem Instrument der Zusammenarbeit wird […] Organisationen verlieren Zeit, werden durch falsche Produktivität in die Irre geführt und erleben eine stockende KI-Einführung“ (BetterUp Labs, 2025, eigene Übersetzung.).
Die entstehenden Kosten sind nicht nur ökonomisch eine Belastung.2 Es gibt auch erhebliche soziale und emotionale Auswirkungen: Die meisten Kolleg:innen ärgern sich nämlich über erhaltenen Workslop, viele sind verwirrt, und manche fühlen sich sogar beleidigt. Konsequenterweise sehen sie die Kolleg:innen, die Workslop verschicken, als wenig kreativ, unfähig und unzuverlässig, bzw. als nicht vertrauenswürdig und wenig intelligent an. Die gängige Interpretation des Workslop-Phänomens verstärkt diese Konsequenzen, weil sie sich auf die individuellen Verhaltensweisen im Sinne fehlender Kompetenzen einschießt. So wird in der Literatur mittlerweile zwischen „Piloten“ und „Passagieren“ – zwischen Menschen, die KI nutzen, um bessere Arbeit zu leisten, und solchen, die KI hauptsächlich nutzen, um Arbeit zu vermeiden – unterschieden. Das aber greift zu kurz, denn die Attribuierung der Fehler an die Kolleg:innen, so wird es in der Psychologie bezeichnet, verschleiert, dass es sich hierbei um ein Problem handelt, das tief in der Architektur der Organisationen verborgen liegt.
Die vorgeschlagenen Lösungen folgen dieser individualistischen Logik indem sie betonen, dass klare Vorgaben notwendig sind, die richtige Denkweise zu fördern sei oder gar eine bessere KI-Literalität entwickelt werden sollte. Diese Perspektive übersieht jedoch komplett die tiefliegende strukturelle bzw. kulturelle Dimension des Problems. Das Workslop-Phänomen ist nicht primär ein individuelles Versagen, sondern Ausdruck einer fundamental a-sozialen Organisationslogik und einer daraus folgenden Unternehmenskultur, die durch den Einsatz von KI noch verstärkt wird. Die Wurzeln der Organisationslogik stecken in der tief verankerte Annahme, dass der oder die einzelne Beschäftigte die primäre Einheit der ökonomischen Wertschöpfung darstellt.
Die Konsequenzen für die jeweilige Organisationsarchitektur sind weitreichend: Aufgaben werden individuell zugewiesen, Leistung wird individuell gemessen, Verantwortung ist individuell, Zeitbudgets sind individuell, und Karrieren verlaufen stets individuell. Das gilt selbst dort, wo Organisationen vermeintlich „kollaborativ“ arbeiten – in Teams, Projektgruppen und agilen Strukturen, denn die grundlegenden Bewertungs- und Anreizsysteme bleiben in der Regel individualistisch ausgerichtet. Die a-sozialen Strukturen schaffen den Nährboden für Workslop, denn wenn die Mitarbeitenden unter Zeitdruck stehen, individuell für die Erledigung einer Aufgabe verantwortlich sind und daran gemessen werden, ob die Aufgabe „erledigt“ erscheint, dann wird KI zum verlockenden Instrument, um diese Aufgaben schnell „vom Tisch zu bekommen“ – unabhängig davon, ob das Ergebnis für andere im Arbeitsprozess tatsächlich nutzbar ist.
Die Arbeit verschwindet in den Organisationen aber nicht, sie wird nur verschoben – von einer Person zur anderen, von einem Zeitpunkt zu einem späteren. Die individuell „gewonnene“ Zeit wird zur kollektiv verlorenen Zeit. Genau diese Logik manifestiert sich im Workslop-Phänomen: KI-Systeme wie ChatGPT, Gemini oder Claude sind auf individuelles Effizienzstreben ausgerichtet. Sie helfen dem Einzelnen, seine Aufgabe schnell zu erledigen, ohne die sozialen Zusammenhänge der Arbeit zu berücksichtigen. Die Kolleg:innen werden nicht als Kooperationspartner verstanden, deren Bedürfnisse und Arbeitskontexte relevant sind, sondern werden faktisch zu Hindernissen oder bestenfalls zu nachgelagerten Instanzen, die mit dem Output irgendwie zurechtkommen müssen.
Die Frage nach alternativen Ansätzen führt nach vorne und zur Diskussion um die Kultur der Digitalität als grundsätzliche Unterscheidung zur rein technisch verstandenen Digitalisierung.3 Eine alternative Herangehensweise müsste darauf ausgerichtet sein, die Felder der Kollaboration und des kollektiven Handelns zu erschließen. Rein technisch ist es keine Schwierigkeit, algorithmisches Wissen so auszuwerten, dass Menschen bewusst wird, dass sie Teil kollektiver Dynamiken in den Unternehmen sind. Für KI-Systeme im Arbeitskontext würde dies bedeuten, dass sie beispielsweise, statt einfach Output zu produzieren, explizit machen müssten, wo Informationen fehlen, wo Unsicherheiten bestehen, wo menschliche Expertise notwendig ist. Weiter könnte die KI verstehen, oder zumindest „erfragen“, für wen der Output bestimmt ist, was diese Personen möglicherweise wirklich brauchen bzw. in welchem Arbeitszusammenhang das Ergebnis verwendet wird.
Mit anderen Worten: Das Problem ist nicht primär die KI-Nutzung, sondern der Mangel an echten Kollaborationsarchitekturen in Organisationen. Unter Kollaborationsarchitekturen verstehen wir bei der ESBYTE nicht einfach die Existenz von Teams oder agilen Strukturen, sondern eine fundamentale Neuausrichtung organisationaler Strukturen auf kollektive Zielvorgaben, gemeinsame Verantwortung, kollektive Ressourcenverwaltung und teambasierte Bewertungssysteme. Doch – und dies ist der entscheidende Punkt – solche „sozialen Algorithmen“ würden weiterhin ins Leere laufen, wenn die Organisationsarchitektur nicht auch entsprechend angepasst wird. Solange Organisationen weiterhin individuell messen, bewerten und belohnen, werden Menschen die Technologie individualistisch nutzen. Die beste „soziale KI“ kann nicht funktionieren, wenn die Organisationsarchitektur a-sozial bleibt.
Die gegenwärtige Situation ist durch ein bemerkenswertes Paradox gekennzeichnet: Noch nie war es technisch so einfach, kollaborative Prozesse zu unterstützen, Wissen zu teilen, gemeinsame Kontexte zu schaffen. Gleichzeitig zeigt das Workslop-Phänomen, wie dieselbe Technologie ganz praktisch zur Verstärkung individualistischer und letztlich dysfunktionaler Muster in den Unternehmen genutzt wird. Sie stehen damit vor einem Scheideweg. Der eine Weg führt zur Fortsetzung der bisherigen Praxis: KI wird in bestehende, individualistische Strukturen implementiert, mit Appellen an die „richtige Nutzung“ und Versprechungen künftiger Produktivitätsgewinne.
Die bisherigen Ergebnisse sprechen jedoch eine klare Sprache: Dieser Weg führt nicht zu messbarem ROI, sondern zu Workslop, zu Produktivitätsverlusten, zu sozialen Kosten und zur Erosion von Vertrauen und Kooperation in Organisationen. Der andere Weg erfordert grundlegendere Veränderungen. Er bedeutet anzuerkennen, dass das Problem nicht die Technologie ist, sondern die organisationalen Strukturen, in die sie eingebettet wird. Er erfordert die Entwicklung echter Kollaborationsarchitekturen, die kollektives Handeln nicht nur rhetorisch beschwören, sondern strukturell ermöglichen und belohnen. Und er erfordert die Einsicht, dass dieser Wandel nicht von oben verordnet werden kann, sondern partizipativ, mit den Betroffenen und durch neue Praxiserfahrungen gestaltet werden muss.
Wir von der ESBYTE bieten Ihnen zur Einschätzung möglicher Auswirkungen beim Einsatz von KI in ihrem Unternehmen zwei Analysemöglichkeiten an:
Kommen Sie im Bedarfsfall gerne auf uns zu.
1 Die Studie von Stanford und BetterUp zeigt, dass 40 Prozent der befragten Vollzeitbeschäftigten in den USA im vergangenen Monat Workslop erhalten haben, der etwa 15 Prozent aller Arbeitsinhalte betrifft. Besonders häufig tritt das Phänomen zwischen Kollegen auf (40 Prozent), aber auch in hierarchischen Beziehungen zwischen Vorgesetzten und Mitarbeitenden. Siehe hierzu: BetterUp/Stanford University (2025): Workslop: The Hidden Cost of AI-Generated Busywork.
2 Basierend auf den Zeitaufwänden und den selbst angegebenen Gehältern der Studienteilnehmer ergibt sich eine „Workslop-Steuer“ von 186 Dollar pro Person und Monat. Bei einem Unternehmen mit 10.000 Mitarbeitenden und der ermittelten Prävalenz von 41 Prozent summiert sich dies auf einen Produktivitätsverlust von über 9 Millionen Dollar pro Jahr (siehe Fußnote 1).
3 Genauer geht es um Felix Stalders Konzept der „Algorithmen, die wir brauchen“ (Stalder 2017). Stalder argumentiert, dass die zentrale Herausforderung nicht darin besteht, Algorithmen technisch besser zu machen, sondern die Programmatik zu ändern, die ihnen zugrunde liegt. Solange algorithmische Systeme – und dazu gehören auch generative KI-Systeme – einer Programmatik folgen, die individuelles Handeln privilegiert und Konkurrenz als zentralen Motivationsfaktor betont, werden sie die problematischen Strukturen nicht überwinden, sondern verstärken. Siehe hierzu Stalder, F. (2017): Algorithmen, die wir brauchen. Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven.
Bildnachweis: geralt auf pixabay