Prof. Dr. Uta Wilkens (Lehrstuhl Arbeit, Personal & Führung der Ruhr-Universität Bochum)

Uwe Elsholz: Ich freue mich, Frau Professor Wilkens, dass Sie sich bereit sind, Ihre Expertise einzubringen in die Ausgabe der Zeitschrift Denk doch mal. Einleitend möchte ich Sie bitten, zunächst kurz Ihr Forschungsprofil und vor allen Dingen auch Ihre Perspektive auf das Thema Künstliche Intelligenz einzuführen.

Uta Wilkens: Ich leite an der Ruhr-Universität Bochum den Lehrstuhl Arbeit, Personal und Führung und bin zugleich Sprecherin des Kompetenzzentrums HUMAINE. Das steht für eine human-zentrierte Integration von KI in Arbeitsprozesse. Dort arbeiten wir in einem großen interdisziplinären Konsortium daran, wie man unterschiedliche KI-Anwendungen – das kann Single Purpose AI sein, das kann auch generative KI sein – in Arbeitsprozesse so integriert, z.B. in der industriellen Qualitätssicherung oder in medizinischen Anwendungen, dass daraus gute Interaktionsmuster zwischen Technologie und Mensch entstehen und der Mensch idealerweise augmentiert wird. Meine Expertise sehe ich darin: Wie gestalten wir eigentlich betriebliche Veränderungsprozesse – auch solche, wo ein hohes Technologieniveau eine Rolle spielt – so dass sich persönliche Kompetenzen der Individuen, aber auch Problemlösungsfähigkeit von Organisationen gemeinsam weiterentwickeln.

Uwe Elsholz: Nun ist ja gerade der Einfluss der KI auf die Arbeitswelt ein sehr breit diskutiertes Thema. Und es gibt ja auch hin und wieder Studien, die vor großen Arbeitsplatzverlusten warnen – andere verheißen große Produktivitätsgewinne. Wo ist da Ihre Einschätzung zum Einfluss der KI auf die Arbeitswelt?

Uta Wilkens: Also an sich wissen wir erstmal ganz allgemein aus Studien, immer dann, wenn es neue Technologien gibt, gibt es drei parallele Effekte. An einer Stelle substituiert eine Technologie auch menschliche Arbeitskraft. Irgendwas übt sie aus, wo vorher Menschen gearbeitet haben. Dann gibt es einen zweiten Effekt, nämlich der Produktivitätseffekt, wenn man diese Technologie nutzt. Das kann den ersten auch schon mal überkompensieren. Und dann gibt es noch einen Innovationseffekt, dass nämlich in den Bereichen, wo die Technologie entwickelt wird, natürlich auch Wachstum entsteht. Nun müssen wir einräumen, dass, wenn es um KI geht, der disruptive Charakter höher ist als in früheren Zeiten, so sagen es zumindest die Studien vom World Economic Forum oder andere Prognosen. Dass zwar in Summe davon auszugehen ist, dass durchaus wieder auch Wachstumseffekte entstehen, aber wer de facto davon profitiert, können relativ stark auch diejenigen sein, die in der KI-Entwicklung aktiv sind. Da ist jetzt Deutschland mit seinen Industrien und Bereichen nicht führend, so dass wir vor allem daraufsetzen können und müssen, wie man durch die Nutzung von KI in den Arbeitsprozessen und betrieblichen Bereichen den Produktivitätseffekt ausschöpft, einschließlich Qualitätssicherung. Und das ist kein Selbstläufer, dass man gemessen an Beschäftigtenzahlen dort in der Bilanz positiv abschneidet. Man kann aber trotzdem an diesem Punkt der KI-Nutzung ansetzen und sie gut in die Arbeitsprozesse integrieren. Dann kann man immer noch zu einem erheblichen Anteil von der KI profitieren, aber das ist eben kein Selbstläufer.

Uwe Elsholz: Und was würden Sie denken, was das für den einzelnen Beschäftigten bedeutet? Wie kann oder sollte der sich mit generativer KI auseinandersetzen, um eben selbst nicht substituiert zu werden?

Uta Wilkens: Ja, also an sich würde ich es eher so einordnen, dass Unternehmen sich ja erstmal damit auseinandersetzen, wo sie KI einsetzen. Die Intention ist nicht, Bereiche von Beschäftigung wirklich zu substituieren, sondern Unternehmen suchen zukunftsgerichtet nach Produktivitätseffekten. Sie wissen auch, dass eine große Zahl von Arbeitskräften ausscheiden wird und sie diese Fachkräfte auch gar nicht nachbesetzen können und vor dem Hintergrund eher schauen, wie in Zukunft bestimmte Arbeitsbereiche auch mit einer geringeren Personaldecke, aber unter stärkerer Nutzung von KI, auskommen. Also dass da jetzt irgendwie so Abbauwellen oder so drohen, auf die sich Arbeitskräfte wirklich vorbereiten müssen, das kann ich im Moment zumindest nicht an konkreten betrieblichen Beispielen erhärten. Ziel ist eher, dass man die verfügbaren Arbeitskräfte dann auch zukunftsgerichtet weiterentwickelt und begleitet. Wer sich jetzt aber als Arbeitnehmer/Arbeitnehmerin auch konkret vorbereiten möchte, gut unter Nutzung von KI in Arbeitsbereichen tätig zu sein, da geht es schon darum, dass man Expertise aufbaut in der Nutzung der Technologie, sie wirklich auch sicher anwenden kann, sich auch etwas Hintergrundinformationen darüber verschafft oder an entsprechenden Schulungen teilnimmt, dass man auch weiß, welche Lernverfahren sind das eigentlich, was macht die Technologie und wo muss ich gegebenenfalls auch besonders aufmerksam sein, weil ich ihr nicht vollständig einfach vertrauen oder folgen sollte, sondern mein eigenes kritisches Mitdenken schule. Dann geht es auch um Befassung mit ethischen Kriterien und eigentlich darum, wie gelingt es am besten, dass ich mein fachliches Profil, meine Fachdomäne weiter entwickele unter Nutzung von KI. Und was brauche ich aber aus meinem fachlichen Kontext und wo kann ich mit KI zusammenarbeiten und wann fühlt es sich kohärent an. Diese Zusammenarbeit ist also eine eher höherwertige Tätigkeit entsteht. Ich sehe es aber nicht als ausschließliche Aufgabe der Arbeitnehmer, sondern eben als gemeinsame betriebliche Aufgabe von Arbeitgeber und Arbeitnehmerseite.

Uwe Elsholz: Nun gab oder gibt ja auch immer die diese These von dem Radiologen, die davon ausgeht, dass der Radiologe als Solcher nicht abgeschafft wird, aber dass der Radiologe oder die Radiologin, die KI nutzt, die anderen verdrängt, die KI nicht nutzen. Glauben Sie, dass das ein verallgemeinerbares Beispiel ist? Oder müsste man sich eher jedes Berufsbild einzeln anschauen, um die Effekte von KI gut einschätzen zu können?

Uta Wilkens: Also ich würde da schon zu einer differenzierten Sicht neigen. Ich weiß auch nicht, ob ich immer so diese die Beschreibung, dass nur der, der nicht mehr mit KI arbeitet, abgeschafft wird. Für den Bildungsbereich wird es ja auch so charakterisiert. In Teilen kommt es mir so vor, als ist es hier und da zu kurz gesprungen oder übersetzt. Aber es ist auch gleichzeitig schwer, genau dieser Darstellung und in diesem Bild zu bleiben und zu folgen. Also für mich ist es eigentlich eine Frage schon wie lernen wir als Radiologin Radiologen mit KI zu interagieren und damit eben eine noch bessere, treffsicherere Diagnose zu stellen, so dass auch Fehlbehandlungen vermieden werden? Das Problem ist ja nicht immer, dass gar nicht behandelt wird, sondern meistens, weil man unsicher ist, eigentlich viel unnütze Behandlungen auch stattfinden, was ja auch eine Beeinträchtigung und ein Eingriff letztlich in die menschliche Unversehrtheit ist. So, und das kann man optimieren. Und die weitere Optimierung dieser Prozesse, die kann ja nur erfolgen, wenn auch weiterhin radiologisches Fachwissen da ist in der Klassifikation von Daten und man nicht irgendwann darauf angewiesen ist einfach nur eine rein KI-basierte Diagnose zu folgen. Deshalb denke ich, muss sich das Gesamtprofil dieses Berufsbildes weiterentwickeln. Aber ich würde jetzt nicht in zwei Gruppen einteilen, sondern eher sehen, wie kriegen wir eine gute Technologienutzung in das gesamte Arbeitsfeld und dann aber auch eine Rollenentwicklung für dieses Berufsfeld. Denn sonst tritt auch etwas ein, das einfach nur viel mehr Fälle pro Zeiteinheit klassifiziert werden. Wir haben vielleicht eine bessere Diagnose, wir haben aber nicht mehr Zuwendung gegenüber dem Patienten der Patientin. Das kann man alles erreichen, aber dafür braucht man eine Form von Neuausrichtung der Profile. Und dann sind es nicht die Tech-Leute und die, die nichts können, sondern es sind eigentlich immer die integrativen Profile aus bewusster Technologie für eine gute gesamt ärztliche Entscheidung und dann aber auch Weiterleitung innerhalb der Versorgungskette. Ich sehe also auch die sozialen Teile dieses Berufsbildes weiterhin im Zentrum.

Uwe Elsholz: Und bezogen auf den Umgang mit KI eine Frage. Da zeigt sich – und das ist auch meine eigene Erfahrung – dass das Lernen sich in gewisser Weise verändert und dass es ein sehr situatives und experimentelles Lernen ist.  Würden Sie dem zustimmen? Und denken Sie, das wird so bleiben oder wird sich auch irgendwann so eine Art Sättigung, weil man eben mit damit umgehen kann, erfolgt und dass eine stärkere Formalisierung solchen Lernens geben kann?

Uta Wilkens: Oh, das ist eine weitreichende Frage, die Sie stellen. Aber das, was Sie eingangs erwähnt haben, würde ich auf jeden Fall teilen. Dass im Moment Nutzungsverhalten, also gerade dann, wenn es um generative KI geht, doch sehr experimentell bei Vielen ist. Also gar nicht, weil sie einfach nur eine Lösung generieren wollen, sondern weil sie die generative KI schon als zusätzliche Meinung, als erst mal Vorschlag, der im Raum steht, an dem man dann weiterarbeiten kann, gegebenenfalls sogar als Inspirator. Es hilft auch manchmal einfach, dass schon mal was auf dem Blatt steht. Und dann kann man weiterarbeiten. Derzeit gehen die meisten Nutzerinnen und Nutzer so heran und nicht zur Selbstautomatisierung von Prozessen. Das sind dann eher Entscheidungen von anderer Seite, dass man bestimmte Felder der bspw. Standard-Korrespondenz mit bestimmten Kundengruppen wie auch immer, dass man die wirklich vollständig standardisieren kann. Aber das individuelle experimentelle Herangehen hat eigentlich erstmal noch inspirierenden Charakter. Ich denke aber, dass Individuen häufig zu wenig wissen über das, was dahintersteht. Also ein Mitarbeiter von mir hat das in einer Promotion festgehalten.  Kurzfristig wirkt es so, als sei das eigentlich eher so eine Effectuation, also dass wir uns durch KI auch anregen, auf neue Gedanken zu kommen. Aber das ist eigentlich mittel- und langfristig immer Causation, ist also immer nur ein Schließen aus dem, was aus der Vergangenheit schon da ist. Und dann entdeckt man gar nicht so viel Neues. Also dann geben wir uns auch ein bisschen einer Illusion hin.  Und das merken wir vielleicht in unseren eigenen Lernprozessen schleichend nicht mehr, dass da etwas sich verändert. Weil es dann ja auch gut und bequem ist. Das ist schon etwas da und dann überschätzen wir möglicherweise auch den Gehalt von Dingen. Also da müssen wir uns noch weiterentwickeln, sind ja aber auch noch nicht an unsere Grenzen geraten. An sich beschreibe ich das ganz gerne so wie mit dem Nutzerverhalten: Die Problemlösungskompetenz steigt und aktuell wächst die eher noch, weil wir auch einfach produktiver werden und etwas besser können. Aber irgendwann kommt ein Kipppunkt und dann steigt eben die Problemlösungskompetenz nicht mehr mit der Nutzungsintensität, sondern dann fällt sie ab. Und ob wir diesen Kipppunkt erkennen können, ob er dann vielleicht auch mit eigenen Bequemlichkeiten noch einhergeht? Da habe ich den Eindruck, müssen wir schon achtsam sein und genauer schauen, wie wirkt sich das tatsächlich auf unser Lernverhalten aus? Also ja, das beantwortet vielleicht nicht zu 100 % Ihre Frage, aber das sind erstmal die Assoziationen, die ich dazu habe.

Uwe Elsholz: Das trifft schon sehr viel von der Frage, vielen Dank! Und kann man da etwas zu sagen, wo ist die Verantwortlichkeit des Einzelnen und wo die des Betriebes, um so einen verantwortlichen und letztlich klugen Umgang mit KI zu ermöglichen?

Uta Wilkens: Also ich denke schon, dass jedes Individuum für sich auch erstmal ein Prinzip entwickeln sollte. Wann und wo nutzt man generative KI und für welche Aufgabenbereiche auch nicht? Oder wo setzt man Grenzen in der Art und Weise, wie man an etwas herangeht? Das sehe ich auch als Selbstverantwortung in einem Arbeits- und Lernprozess so, dass man, also dass die Bequemlichkeiten nicht da sind. Oder vielleicht passiert es ja auch, wenn man nur Vorlagen für andere machen soll. Also was man schnell abarbeiten kann, worauf man sowieso vielleicht nicht so richtig viel Lust hat. Dann kommt so dieses leicht unmotivierte, dass man dann mit einer KI kompensiert. Von der betrieblichen Seite sehe ich aber schon eine Verantwortung, auch zu sagen, wann und wo möchten wir, dass es genutzt wird, wo aber auch nicht, damit es nicht rein in so ein Effizienzprogramm überführt wird. Und das findet ja schon in Teilen statt, dann animiert man ja quasi zum nahezu unreflektierten Verhalten und was immer möglich ist an Selbstoptimierung erstmal da rauszuholen, ohne sich mit den längerfristigen Folgen dieser Optimierung zu befassen. Also das denke ich, wäre der falsche Anreiz oder die falsche Maßgabe in einer Arbeitspolitik. Sondern schon zu sagen, also Bilder zu haben, einen Rahmen zu haben, wie eigentlich ein gutes Nutzerverhalten aussieht.

Uwe Elsholz: Also ich würde da auch so was wie eine durchaus geteilte Verantwortung heraus interpretieren. Sowohl der Einzelne oder die Einzelne hat eine Verantwortung, das Unternehmen aber auch. (…) Wenn Sie noch mal so reflektieren aus Ihrer Expertise und Erfahrung, wenn Sie so in Richtung berufliche Bildung und ja, auch einzelne Berufe schauen, gibt es da etwas, wo Sie sagen, da sollten Sie darauf achten, da gibt es Veränderungen, da ist die Berufsbildung gefordert. Können Sie dazu noch sagen, was Ihnen da besonders auffällt?

Uta Wilkens: Also ich sage vielleicht als erstes, welche drei Perspektiven beschäftigen uns besonders? Das erste ist wirklich, wie sieht die Mensch/KI-Rollenentwicklung aus? Also das heißt, wie sind die neuen Tätigkeitszuschnitte von Aufgabenfeldern, damit eben wirklich ein augmentiertes Aufgabenfeld entsteht und nicht der Mensch anfängt, Restposten zu bearbeiten oder Resttätigkeiten zu übernehmen; das wäre ja auch eine Aufgabe für die Berufsbildung. Zu sagen, wir konturieren ja dort auch durchaus Berufsbereiche mit unterschiedlichen Tätigkeitsfacetten. Manche sind etwas standardisierter, andere sind anspruchsvoller. Beides zusammen ist auch durchaus ein kohärentes Arbeitsbild. Und diese Form von kohärenten Arbeitsrollen zwischen Mensch und KI würde ich im weitesten Sinne auch in die Richtung Berufsbildung noch einmal adressieren. Der zweite Punkt, der uns in der Forschung befasst, ist die Analyse von KI- Kompetenz in Verbindung auch mit Domänenkompetenz. Also wir haben ja auch die Beschreibung von fachlichen Fähigkeiten im Zusammenhang mit sozialen, methodischen und auch Selbstkompetenzen. Und jetzt kommt eine KI-Kompetenz hinzu, von der ich jetzt nicht sage okay, da steht da irgendwie noch so ein Teilbereich daneben, sondern das verzahnt sich ja insbesondere mit den fachlichen und methodischen Kompetenzen. Und die Frage, wie dieses Zusammenspiel ist und wie man das dann eigentlich auch übersetzt, zum Beispiel in Berufsausbildungskataloge, also auch, wie ich einen fachlichen Teil in Verbindung mit KI erschließe und ausgestalte oder auch erprobe im Rahmen einer Werkstatt. Da denke ich, ist ein großes Handlungsfeld für die betriebliche Praxis oder Ausbildung. Das ist aber auch noch ein großes Forschungsfeld. Und das dritte, was ich anführen würde, ist eben schon die Auseinandersetzung damit, wie verändert sich persönliches Problemlösungsverhalten bzw. auch Problemlösungskompetenz? Weil eigentlich komme ich ja aus der Kompetenzforschung. Und wo wächst diese Kompetenz unter Nutzung von KI? Und wo entsteht nur Illusion von Expertise – möglicherweise, weil man zu schnellen Lösungen kommt, auch wenn man den Hintergrund persönlich gar nicht mehr durchdringt. So, und wo sind dann die kritischen Bereiche, dass man eigentlich an Expertise verliert, also die Kipppunkte des Problemlösens. Das ist ein drittes Feld, das mich beschäftigt. Denn ich sehe die latenten Gefahren einer KI-Nutzung nicht am Anfang. Da experimentieren wir, entwickeln wir uns eher in einem sehr fortgeschrittenen Nutzerverhalten. Da können plötzlich im Sinne einer umgekehrten U-Kurve plötzlich auch kritische Bereiche auftreten. Ob das eine Auseinandersetzung ist für die Berufsbildung? Das ist erstmal ein Forschungsthema. Man muss auch dort, wo man die Technologie einsetzt, bestimmte Fähigkeiten auch immer noch ohne diese Technologie vollständig erwerben. Das haben wir ja auch in anderen Zusammenhängen immer gemacht. Also muss da noch jemand irgendwas feilen oder wie auch immer. Das mag sich auch irgendwann verschieben. Ich habe nur den Eindruck, dass wir aktuell noch auf einem in einem Entwicklungsstadium sind, wo wir noch nicht sicher sagen können, das ist ja alles überhaupt nicht mehr notwendig und wird sowieso absolut sicher technologisch abgebildet. Da wäre es mir schon noch lieb, man hat noch das Domänenwissen, das man auch aktivieren kann in kritischen Fällen. Das wäre, denke ich, unserem aktuellen Kenntnis- und Entwicklungsstand über generative KI angemessen.

Uwe Elsholz: Ja, perfekt. Vielen Dank, Frau Wilkens!

Autor

  • Prof. Dr. Uta Wilkens leitet den Lehrstuhl Arbeit, Personal und Führung am Institut für Arbeitswissenschaft der Ruhr-Universität Bochum und ist Sprecherin des BMFTR-geförderten Kompetenzzentrums HUMAINE der Metropole Ruhr für humanzentrierte Integration von KI in Arbeitsprozesse.

    Alle Beiträge ansehen