Workslop: Wenn generative KI die Arbeit behindert
Künstliche Intelligenz hat den Ruf, bei der Arbeit durchaus aushelfen zu können. Allerdings kann auch das Gegenteil eintreten: Generative KI verursacht mehr Arbeit und senkt die Produktivität. Das kommt laut aktuellen Studien dann vor, wenn KI genutzt wird, um sogenannten „Workslop“ zu produzieren. Entsprechend ernten bisher nur wenige Unternehmen wirklich finanzielle Früchte ihrer KI-Investitionen.
Das MIT Media Lab hat etwa ermittelt, dass ca. 95 % der Organisationen, die in KI investiert haben, bisher keine wirtschaftlichen Vorteile dadurch erhalten haben. Einer der möglichen Gründe: Einige Mitarbeiter nutzen KI-Tools, um damit auf den ersten Blick solide wirkende Arbeitsergebnisse zu generieren, die sich am Ende aber als sinnlos erweisen und dadurch den Kollegen wieder mehr Aufwand bescheren. Analog zu AI Slop, den ihr z. B. aus sozialen Netzwerken kennt, spricht Harvard Business Review daher von „Workslop“. Darunter versteht man KI-generierte Arbeiten, die sich als sinnvolle Ergebnisse tarnen, aber am Ende die eigentliche Aufgabenlösung gar nicht voranbringen.
Was dann dabei herauskommt, ist nur eine Verlagerung der Arbeit: Jemand spart sich Aufwand und generiert Workslop, der dann aber aufwändig vom jeweiligen Empfänger überarbeitet und korrigiert werden muss. In den USA scheint das schon ein Problem zu sein, denn in einer industrieübergreifenden Umfrage haben dort 40 % der Befragten angegeben, im letzten Monat mit Workslop zu tun gehabt zu haben. Am Ende erledigt also nicht die KI die Aufgabe, sie hilft nur mit einer Täuschung sozusagen dabei, den Arbeitsauftrag von einem Menschen zum nächsten weiterzureichen.
Workslop verursacht hohe Kosten
Workslop kann dabei hohen Zeitaufwand verursachen – im Durchschnitt seien das pro Workslop-Vorfall laut einer Untersuchung fast zwei Stunden. So müssen die Betroffenen entweder die Arbeit nochmal zurück zum Verursacher dirigieren, selbst die Aufgabe neu ausführen oder aufwändige Korrekturen durchführen. Dabei ergeben sich zudem oft Stresssituationen, weil Betroffene, die Workslop erhalten, oft genervt, verwirrt oder verärgert sind. In Zusammenarbeiten sinkt oft das gegenseitige Vertrauen.
Wer einmal Workslop von einem Kollegen hat, ist danach in der Regel weniger interessiert, mit diesem nochmals zusammenzuarbeiten. „Drückeberger“ hat es natürlich im Beruf schon immer gegeben, generative KI verschärft dieses Problem jedoch. Gegensteuern lässt sich wohl primär mit einer realistischen Herangehensweise an KI, welche den Einsatz weder verherrlicht noch verteufelt. Hier befinden sich die meisten Unternehmen derzeit aber noch in einer Selbstfindungsphase.
| Vorschau | Produkt | Preis | |
|---|---|---|---|
|
Reolink Elite Floodlight WiFi, 4K Wi-Fi 6 Überwachungskamera Aussen mit 3000 Lumen Flutlicht,... | 183,99 Euro | Bei Amazon ansehen |
| Vorschau | Produkt | Preis | |
|---|---|---|---|
|
Reolink 4K 8MP Wi-Fi 6 PTZ Überwachungskamera Aussen mit Dual-Objektiv, Auto-Tracking-Zoom, WLAN... |
139,99 Euro |
Bei Amazon ansehen |
| Vorschau | Produkt | Preis | |
|---|---|---|---|
|
Reolink Erste 4K Solar Überwachungskamera Aussen Akku, Argus PT Ultra + Solarpanel, 2,4&5GHz WiFi,... |
113,99 Euro |
Bei Amazon ansehen |
| Vorschau | Produkt | Preis | |
|---|---|---|---|
|
Reolink 4K 8MP PTZ PoE Überwachungskamera Außen mit Dual-Objektiv, 6X Hybridzoom, 355°/90°... |
119,99 Euro |
Bei Amazon ansehen |
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Drückeberger und Workslop sind harte Begriffe. Oft ist es nicht vernünftig kommunizierte persönliche Erwartungshaltung an den Outcome von Kollegen. Wer nicht ausdrücken kann, was er genau will (weil er sich dessen vielleicht gar nicht bewusst ist) oder aber sich selbst für den größten hält, so dass arbeit von Kollegen nie den eigenen „hohen“ Anforderungen genügt, der nennt andere dann Drückeberger und ihre Arbeit Workslop.
Arbeitspsychologisch hingegen wollen Leute leisten, scheitern aber an der Umgebung/Organisation, in der sie arbeiten (müssen).
Was du beschreibst, gibt es natürlich auch, genau wie es aber halt auch Leute gibt, die bevorzugt die Arbeitszeit einfach mit Nichtstun totschlagen möchten.
Siehe meinen zweiten Absatz.
Deinem 2. Absatz stimme ich so pauschal keineswegs zu. Es gibt auch Menschen, die sich aktiv Wege suchen Arbeit zu umgehen und das liegt dann nicht an dem System, sonden an den Individuen.
Es gibt auch eine dritte Variante, insbesondere im öffentlichen Dienst.
Wer dort viel leistet und Mehrarbeit auf sich nimmt, wird meist bestraft dadurch das man noch mehr Arbeit aufgedrückt bekommt, ohne etwas davon zu haben.
Seit der Kopplung des Entgelts an die Art der Tätigkeit ist das eine beliebte Methode mehr Arbeit an weniger Leute aufzuteilen.
Ob man das erforderliche Minimum oder 200% mehr schafft, macht keinen Unterschied. Die Art der Tätigkeit bleibt ja die gleiche.
Wer eine Höhergruppierung möchte, kann sich eigentlich nur noch wegbewerben.
Ach das gibt es doch in jedem Beruft. Ist ja ja verständlich , das die Vorgesetzten Arbeiten lieber an zuverlässige Mitarbeiter delegieren , statt zum 3 mal an den, der es eh wieder unzureichend erledigt . Belohnung für gute Arbeit = mehr Arbeit . Belohnung für schlechte Arbeit = weniger Arbeit . Ist überall so , schlimmer dort , wo allgemein Personal stark begrenzt ist ,in meinem Fall im Gesundheitswesen
Ja, ist leider so.
Denn wie meistens sitzt das Problem auch hier vor dem Bildschirm.
Hat ganz generell falsche Vorstellungen/Erwartungen und kann z.B.
weder vernünftige Prompts für die Lösung einer Aufgabe formulieren
noch die Arbeit mit einer KI sinnvoll strukturieren. Beides ist aber zwingend
notwendig, sonst kommt man auch mit KI auf keine grünen Zweig.
> Wer nicht ausdrücken kann, was er genau will
Dann weißt Du ja, wo Du bei Deiner selbst zusammengereimten und in den Raum gestellten Behauptung ‚Oft ist es nicht vernünftig kommunizierte‘ ansetzen mußt. Natürlich nicht bei Dir, sondern bei den anderen – wie praktisch!
Einen unsauber definierten Task darf man gar nicht erst annehmen. Man muss andere Leute/Abteilungen an ihren Job erinnern und wenn der lautet Arbeitspakete zu erstellen, dann müssen diese auch sauber erstellt sein. Sonst stellt man eine Nachfrage und ist im Falle des Ausbleibens einer genaueren Spezifikation exkulpiert, wenn man dann nach eigenen Annahmen arbeitet. Was uns zum eigentlichen Thema der Meldung bringt.
Workslop kann nur dann passieren, wenn man selber keinerlei Anspruch an seine Arbeit hat, nicht versteht wie der Task im Gesamtzusammenhang mit dem Projekt/der Firma zu sehen ist, keine Vorstellung davon hat, wie die Arbeit ordentlich ausgeführt werden müßte und was am schwersten wiegt, es einem auch überhaupt nicht interessiert, ob das gelieferte Ergebnis die optimale Form hat, andere bei ihrer Arbeit zu unterstützen. Denn nur dann ist einem schlichtweg egal, ob die KI ewig lange nichtssagende Pseudotexte und für den speziellen Fall ungeeignete Grafiken erzeugt, da das einzige was für einen zählt ist, dass der Task in welcher Form auch immer, für einen selber mit möglichst wenig Aufwand abgeschlossen ist.
Solche Leute denken nur in ihrem kleinem Kreis und ihren kleinlichen Kategorien „Hauptsache *ich* habe möglichst wenig Arbeit damit.“ – ob es unter dem Strich bei anderen Mehrarbeit auslöst und somit für die Firma und dann den Kunden teurer wird, das blendet man völlig aus. Da findet kein Team Work und kein Verfolgen eines gemeinsamen Ziels statt. Solche Leute braucht niemand als Kollegen, da ist die Formulierung „Drückeberger“ fast noch zu schmeichelhaft.
Für den KI Einsatz in der Arbeit gilt das Gleiche wie für die KI in der Lehre. Jörn Loviscach, der früher viele gute Vorlesungsvideos gepostet hat und in der letzten Zeit über KI in der Lehre postet https://www.youtube.com/@JoernLoviscach , zitiert dort häufig den Matthäus-Effekt „Wer hat, dem wird gegeben.“. Konkret heißt das, kluge und interessierte Studenten nutzen die KI zur *Unterstützung* bei der Lösung einer Aufgabe, die lassen sich schrittweise und punktuell helfen und Dinge erklären, schwächere Studenten, werfen die Aufgabe als Ganzes gegen die KI und was auch immer als Antwort rauskommt, das wird dann als Ergebnis hingeschrieben – diese denken und lernen mit der KI noch weniger, jene denken und lernen Dank der KI mehr.
Nur was man prinzipiell auch selber machen kann, darf man sich von einer KI abnehmen lassen – und ist dann immer noch in der Pflicht, das gelieferte Ergebnis auf Plausibilität und Angemessenheit zu prüfen.
Die oben erwähnten ‚Kollegen‘ sind die, die sich auch einem Taschenrechner völlig unterwerfen und nicht parallel im Kopf eine Überschlagrechnung anstellen, um eventuelle Eingabefehler erkennen zu können.
Vielleicht ist das bei einigen Leuten auch einfach nur eine Reaktion auf völlig sinnlose Anforderungen. Wenn ich mir beispielsweise das Projektmanagementhandbuch bei uns in der Firma anschaue, da schmeißt jeder Hinz und Kunz irgendwelche Anforderungen rein, will hier noch ein Formular ausgefüllt und da noch einen völlig nebensächlicher Prozess ausgeführt haben. Wenn dann 50% der Arbeit eines Projektleiters nur noch daraus bestehen, irgendwelchen Cargo-Kult-Prozessen hinterher zu rennen, die für das eigene Arbeitsergebnis überhaupt keinen Belang haben, kann ich verstehen, dass man sich einfache Lösungen sucht.
Ich habe sogar selber ein Beispiel dazu. Mein Frau ist Lehrerin und wurde von Eltern eines ihrer Schüler darum gebeten, eine Stellungnahme zu verfassen, dass die Hörgeräte des Kindes dazu dienlich sind, dass das Kind dem Unterricht folgen kann. Die Stellungnahme hat die Krankenkasse gefordert, ohne die würde nicht gezahlt. So eine Stellungnahme erfordert ca. 45 Minuten Arbeit, die entstehen, weil irgendeine Nassbirne bei der Krankenkasse Arbeitsleistung von einer Resource einplant, die die Krankenkasse nicht bezahlt und auf die sie keinen Anspruch hat. Natürlich ist da eingeplant, dass Lehrer sowas aus Goodwill trotzdem liefern, man will ja weder das Kind noch die Eltern im Regen stehen lassen. ChatGPT hat in ein paar Minuten eine schöne Stellungnahme aus Sicht der Schule geliefert, die sicher ohne je gelesen worden zu sein bei der Krankenkasse abgeheftet wurde. Wer sinnlosen Müll bestellt, bekommt sinnlosen Müll, jetzt noch aufgeblasener und mit mehr Nullinformation durch KI.
Dieser „sinnlose Müll“ ist die Voraussetzung dafür, dass von Mitgliedern und Arbeitgebern entrichtete Zwangsgelder (aka Beiträge) zweckentsprechend verwendet werden. Sonst lässt sich der Nächste den Reifenwechsel von der Kasse bezahlen (ich spreche da aus Erfahrung…).
Wenn ein Arzt sagt, dass das Kind ein Hörgerät benötigt, dann hat das auszureichen. Und wer gibt der Krankenkasse das Recht an einer Stelle Arbeitsleistung abzufordern, die sie nicht bezahlt? Keine Ahnung was Du beruflich machst, aber stell dir mal vor es kommt jemand mit einem Arbeitsauftrag von irgendeiner wildfremden Firma, für den weder Du noch deine Firma Geld bekommt. So funktioniert das nicht.
In Behörden gibt’s zu wenig Juristen und zuviele Mitarbeiter mit einer Ausbildung in Büroorganisation. Die ganzen Fachangestellten haben sozusagen eine Ausbildung in Büroorganisation plus bereichsspezifischen Crashkurs, der aber in polemisch ausgedrückt gefährlichem Halbwissen besteht und daher in der Praxis streng nach sogenannten Verwaltungsvorschriften agiert wird. Also statt Ermessen auszuüben usw. wird nach einem Leitfaden gearbeitet den ein paar wenige Juristen zentral für die jeweilige Organisation ausarbeiten.
Es gab für diesen Fall vermutlich keinen Punkt im Leitfaden und dann gerät der überforderte Nichtjurist in Panik eine falsche Entscheidung zu treffen die ihm viel Ärger einbringen könnte und dann ist der Reflex sich mit einem Papierberg an unnötigen Belegen sozusagen abzusichern.
Oft sind auch die Teamleiter usw. keine Juristen und verhalten sich bei internen Rückfragen genauso.
Das ist wirklich ein großes Problem in Behörden.
Dort wären mehr Juristen und weniger Fachangestellte dringend gefragt, dazu braucht es auch kein Staatsexamen, Bachelor of Laws reicht, aber die Personalpolitik deutscher Behörden ist gedanklich noch im Deutschen Reich oder Preußen.
So wie seit einiger Zeit plötzlich alle Kinder eine Zahnspange „benötigen“, weil genau DER Arzt, der das verkauft, das so sagt?
Wir haben sogar versucht das zu verhindern, weil uns das total „drüber“ erschien. Keine Chance. „Wenn dann was schiefgeht, tragen SIE die Folgekosten!“
…und so tragen jetzt fast alle Kinder viele Jahre lang unter erheblichen Schmerzen ein Premium-Zahnklammer, die oft überflüssig oder rein kosmetisch ist. Und wir müssen das gegen unseren Willen mit unseren Beiträgen zahlen.
Es gibt schon Gründe dafür, es gab früher eine Unterversorgung in Deutschland. Ich selbst habe zB einen zu weit nach vorne gehenden Unterkiefer und die Zähne passen nicht richtig aufeinander. Mit einer Zahnspange als Kind hätte man das im Wachstum korrigieren können. Hat damals nur niemand interessiert, Zähne putzen und gut. Jetzt ginge nur noch eine aufwändige Kiefer-OP.
Ein Hörgerät ist etwas komplett anderes als eine Zahnspange, das mutet man seinem Kind nicht zu, weil es gerade in ist. Meine Frau hat teilweise zwei Kinder mit Hörhilfen im Unterricht, also muss sie sich dann auch zwei Mikrofonsender umhängen. Macht niemand freiwillig gerne.
Und rein kosmetische Zahnspangen bezahlt die Krankenkasse gar nicht, nur mittlere bis sehr schwere Zahnfehlstellungen. Da hat man leider in der Vergangenheit sehr wenig gemacht.
Workslop tritt bei uns auch ohne KI auf. Aufgaben werden an extrem schlecht bezahlte Mitarbeiter in Niedriglohnländern, die dann dort bei einer Zeitarbeitsfirma angestellt sind, weiter vergeben. Die Ergebnisse, die zurückkommen, verursachen oft mehr Arbeit als sie helfen. Der Fehlanreiz entsteht durch die Bezahlung der Kollegen pro geschlossenem Ticket.
Ich finde die Sache wird sehr dramatisiert und das ist kein Problem, welches durch die KI kommt. Dieses Problem gab es schon vorher. Die Annahme der Mitarbeiter hätte die Aufgabe besser gelöst, ohne KI ist eine Vermutung und kein Fakt. Da wird sich dies einfach so gedacht, aber am Ende könnte es genau der gleiche Quatsch sein. Man schaut sich doch an, was die KI erstellt hat und bewertet dies. Wenn das Ergebnis nicht gut ist, so sollte man es nicht verwenden. Für mich wirkt es so, als wüssten die Mitarbeiter gar nicht, was nun richtig oder Flasch ist. Daher vermute ich mal, dass mit oder ohne KI das Ergebnis schlecht wird, weil es die Person gar nicht beurteilen kann.
Lustig, genau das habe ich hier kürzlich in einer Diskussion angemerkt, darauf kamen dann nur aggressive Allgemeinplätze von anderen Usern, mit dem Tenor ich habe entweder keine Ahnung oder sei wohl generell gegen den Fortschritt.
Es ist ein großes Missverständnis was diese sogenannte KI ist.
Es sind einfach nur riesige Datenbanken von vorhandenen Werken der Menschheit die katalogisiert sind und durch statistische Methoden abgefragt und paraphrasiert werden können. Weil das sehr schnell geschieht und zumindest oberflächlich in einer kohärenten Form sind die Nutzer erstmal beeindruckt, weil man aus eigener Lebenserfahrung weiss wieviel Denkarbeit Textproduktion usw. benötigt und wir übertragen unsere Mühe als angenommene Fähigkeiten auf die Systeme, das Framing als künstliche Intelligenz scheint dazu dann perfekt zu passen.
Hier liegt einfach keine Existenz vor. Sondern eine Paraphrase von vorhandenen Werken, die natürlich durch Menschen unter Nutzung ihrer Intelligenz entstanden sind. Weil nichts perfekt ist muss unser Hirn zu Gunsten von Effizienz das Gedächtnis möglichst sparsam auslegen, weswegen uns besonders beeindruckt mit welcher Leichtigkeit die Systeme auf die riesen Datenbanken zugreifen, was wir im Zusammenhang mit der schnellen Paraphrase von Texten, Bildern usw. als „Wissen“ missverstehen.
Selbst wenn wir eine Abfrage durchführen für die es eine perfekte Antwort irgendwo in den Trainingsdaten gibt, dann ist nicht sicher, dass die sog. KI die Antwort korrekt erkennt. Eine „dumme“, optimierte Googlesuche wäre hier besser gewesen. Aber Googles Suche wurde ja sogar absichtlich verschlechtert, so ein Zufall.
Nun ja, richtig spannend wird es wenn die Blase im silicon valley platzt, der Hype ist ja gewöhnlich am Anschlag wenn alle Kritiker fast schon beschimpft werden. Wenn dann hinterher die meisten Firmen verschwunden sind und die verbleibenden Firmen kostendeckende Preise verlangen müssen, dann werden sich die Leute gut überlegen ob sie pro Quatschabfrage x € bezahlen wollen und insbesondere Firmen werden dann neu kalkulieren.
Selbst eine menschliche Aushilfe ist schließlich lernfähig, anders als die KI die jenseits der Trainingsdaten in einem neuen prompt keine Informationen behalten kann, der Mindestlohn ist ziemlich günstig im Vergleich zu den wahren Betriebskosten einer sog. KI, deren Ergebnisse ja trotzdem noch kontrolliert werden müssen. Nicht mal simpelste Aufgaben, wie Gesprächsprotokoll oder Terminverwaltung kann man KI zuverlässig überlassen, auch hierzu gibt’s inzwischen reichlich Empirie. Das ist der lustigste Hype des digitalen Zeitalters.
Das Fatale am Workslop ist leider, dass es sehr einfach ist, das Ergebnis im Volumen massiv aufzublähen. Wer verschleiern will, dass keine eigene Leistung enthalten ist, lässt die KI im Zweifelsfall eher einen 1000 Worte Text als eine Liste von 5 prägnanten Sätzen erzeugen – und sei es, um Fleiß zu simulieren.
Diese aufgeblähten KI-Ergüsse zu sichten und in etwas Sinnvolles zu bringen, ist eine Heidenarbeit. Mit etwas Glück kann eine KI das erledigen und wir haben den perfekten Teufelskreis geschaffen, in dem für „nichts“ Rechenleistung im Wert von ein paar kWh verbraten wurde.