Die Auswirkungen der künstlichen Intelligenz auf die Arbeitswelt

KI bringt Risiken mit sich

Hinsichtlich der KI-Nutzung sind prinzipiell zwei Risikokategorien zu unterscheiden: Sie betreffen zum einen die Gesellschaft und den Menschen und zum anderen die Abhängigkeit von der Technologie.

Ein Großteil der Bevölkerung ist besorgt im Hinblick auf die Übernahme von menschlichen Tätigkeiten durch Maschinen und KI. Dabei geht es nicht nur um Endzeitängste wie bei Terminator-Szenarien, die auch von Tesla-Gründer Elon Musk immer wieder aufgeführt werden, sondern viel elementarer um Existenzängste. Viele Menschen stellen sich dabei Fragen wie: Wie passe ich in die digitale Zukunft, wenn intelligente Roboter meinen Job übernehmen und habe ich überhaupt noch die richtigen Skills? Gerade Menschen der älteren Generation sind sehr skeptisch hinsichtlich der technologischen Entwicklung und der zunehmenden Nutzung smarter Maschinen.

Allerdings muss berücksichtigt werden, dass sich die Arbeitswelt definitiv verändern wird. Heute unverzichtbare Jobs können in ein paar Dekaden eventuell nicht mehr relevant sein. Aktuell etwa besteht ein hoher Bedarf an Data-Scientists und Entwicklern, in einigen Jahren aber schon können eventuell Maschinen die Tätigkeiten besser und schneller erledigen.
Die technische Weiterentwicklung auf der einen Seite und die Beunruhigung der Bevölkerung auf der anderen Seite macht es zwingend erforderlich, gesellschaftspolitische Initiativen zu ergreifen, in deren Rahmen neben den technologischen Möglichkeiten auch bildungspolitische Vorkehrungen und digitalpolitische Strategien entwickelt und umgesetzt werden. Ohne ein „Konzept für Deutschland“ wird der Standort Deutschland trotz einer hervorragenden Ausgangsbasis – man betrachte nur die Innovationsführerschaft in Bereichen wie Automotive, Maschinenbau oder Medizintechnik – international den Anschluss verlieren.

Die zweite Risikokategorie betrifft die Frage „Wie viele Entscheidungsbefugnisse geben wir der Maschine und KI?“ Es besteht die Gefahr, schnell in Abhängigkeit zu geraten und nicht mehr nachvollziehen zu können, wie eine Maschine oder Algorithmus zu einem Ergebnis gekommen ist. Neuronale Netze, die Millionen von Verbindungen haben und interagieren, kommen zu Entscheidungen, die sie aufgrund mangelnder Kommunikationsfähigkeiten und Komplexität der „Gedankengänge“ nur unzureichend erläutern können. Man könnte sagen: „Maschinen sind keine emphatischen Erzähler und wissen mehr, als sie uns erzählen und verstehen auch nicht, welche Informationsbedürfnisse wir haben!“

Ohnehin wird man sich in kritischen Bereichen und bei schnellen Entscheidungsprozessen – etwa bei einer erforderlichen sofortigen Abschaltung eines Kernkraftwerks – irgendwann auf Informationen einer Maschine verlassen müssen, da die in solchen Fällen notwendigen „komplexen Gedankengänge“ nicht schnell genug nachvollzogen werden können.

Oft übersehen wird zudem, dass auch Maschinen Vorurteile haben können, basierend auf Informationen aus der Vergangenheit, auf die sie zugreifen. Ein Beispiel wäre ein Recruiting-System, das bei der Auswahl optimaler Kandidaten unterstützt und dazu Tausende von historischen Entscheidungen des Unternehmens analysiert. Wenn ein Recruiter in der Vergangenheit – aus welchen Gründen auch immer – Männer bevorzugt und Frauen schlechter bewertet hat, übernimmt dieses „Vorurteil“ dann auch die Maschine. Das heißt, das Vorurteil steckt im Algorithmus.
Außerdem gibt es heute schon KI, die ihre Nachfolger selbst und unabhängig von Menschen entwickelt, wie das Beispiel des AutoML-Projekts von Google zeigt. Hier entsteht eine nicht mehr zu kontrollierende Dynamik, die in der Tat beunruhigend ist. Umso mehr muss es ein Gebot der Stunde sein, moralische und ethische Rahmenbedingungen zu schaffen.

weiter zu: KI und Cyber-Security…

Post Author: Redaktion des ROBINAUT