Was wäre, wenn Technologie uns die Arbeit abnähme?

"Wir können uns überlegen, welche Roboter wir bauen wollen"

Wie berechtigt ist die Angst, durch intelligente Maschinen ersetzt zu werden? Und stimmt es, dass Technik neutral ist? Wir haben den KI-Experten Frank Jäkel gefragt.

Ein alter Computer von der Größe eines Wandschranks
Ein Computer im Jahre 1950

Fangen wir doch direkt mit der Leitfrage unserer Debatte an: Was wäre, wenn Technik uns die Arbeit abnähme?

Frank Jäkel: Das sind im Grunde zwei Fragen. Zum einen, was wird passieren, wenn die Maschinen alles übernehmen und zum anderen, wird das überhaupt passieren? Die Diskussion kam so richtig in Gang mit der Studie von Frey und Osborne aus dem Jahr 2013. Darin haben sie behauptet, dass knapp fünfzig Prozent aller US-Arbeitsplätze durch KI gefährdet sind. Bei einer Übertragung auf den deutschen Arbeitsmarkt kamen immer noch zweiundvierzig Prozent heraus. Wenn man sich die Studie aber genau ansieht, dann ist es nicht besonders überzeugend, was da gemacht wurde. Eine Handvoll KI-Expert*innen hat sich eine lange Liste des US-Arbeitsministeriums mit allen Berufen angeschaut und ins Blaue spekuliert, welche Berufe ersetzt werden können und welche nicht. Bei den allermeisten Berufen hatten sie eigentlich keine Ahnung. Ausgehend von den Berufen, bei denen sie meinten, es einschätzen zu können, wurden dann statistische Vorhersagen über vergleichbare Berufe gemacht. So kam die hohe Zahl zustande.

Aber was ist in diesem Fall mit dem Argument, dass auch neue Jobs entstehen würden?

Genau, das ist ein sehr wichtiger Kritikpunkt. In der Vergangenheit gab es bereits Automatisierungswellen. In der Gesamtschau kann man sagen, dass immer mehr Stellen neu entstanden als weggefallen sind. Wenn aber in kürzester Zeit fünfzig Prozent der Menschen neue Jobs suchen müssten, wäre das trotzdem ein Problem. Wenn wir mit dem Nachqualifizieren nicht hinterher kommen, wenn also neue Jobs entstehen, aber die Menschen sie nicht übernehmen können, haben wir viele ohne Arbeit.

"Dass wir es können, heißt nicht, dass wir es machen müssen"

Frank Jäkel hat Kognitionswissenschaft, Neurowissenschaft und Künstliche Intelligenz in Osnabrück, Tübingen und Edinburgh studiert und ist jetzt Professor am Centre for Cognitive Science der TU Darmstadt. Dort forscht er zu menschlichem und maschinellem Lernen und arbeitet außerdem gerade an einem populärwissenschaftlichen Buch über Künstliche Intelligenz.


Zur Autor*innenseite

Ist das denn realistisch?

Ich glaube, es stimmt, dass die Geschwindigkeit der technologischen Entwicklung stark zunimmt, das bedeutet aber nicht, dass diese Entwicklung auf dem Arbeitsmarkt genauso schnell abläuft. Da muss man genauer hinschauen. Die Zahl von fünfzig Prozent ist sehr hoch gegriffen. Nachfolgende Studien haben genauer gearbeitet. Die haben nicht bei ganzen Berufen Daumen hoch oder runter gesagt, sondern bei den einzelnen Berufen geschaut, aus welchen Tätigkeiten sie bestehen. Es werden nämlich nicht ganze Berufe durch Maschinen ersetzt, sondern bestimmte Tätigkeiten.

Wenn man sich also anschaut, welche Fähigkeiten man für einen Beruf braucht und welche Fähigkeiten aktuelle KI-Technologien haben, dann findet man in der Tat Tätigkeiten, die leicht automatisierbar sind. Aber es gibt eigentlich keine Berufe, bei denen ein Großteil der Tätigkeiten automatisierbar wäre. Nehmen wir einen Fahrer von Essen auf Rädern. Autos fahren zwar immer autonomer, aber der Fahrer fährt ja nicht nur von A nach B. Vielleicht hält er ein kleines Schwätzchen mit den Menschen, die das Essen erhalten, vielleicht schaut er nach dem Rechten, ob es den Menschen gut geht. Das sind Aspekte seines Jobs, die nicht leicht automatisierbar sind. Auch das Essen in den vierten Stock zu tragen, da sehe ich nicht, dass Roboter das in naher Zukunft übernehmen können. Auch wenn das Auto von alleine fährt, ist der Fahrer nicht schnell und leicht zu ersetzen. Und dann ist die Frage noch, wollen wir das überhaupt?

Wie sieht Ihre Antwort aus?

Wenn wir die erwähnte Studie von Frey und Osborne nehmen, dann ist es ja nicht nur so, dass wir schauen müssen, ob es technisch möglich ist, bestimmte Berufe zu ersetzen, sondern ob wir das überhaupt möchten. Dass wir es können, heißt nicht, dass wir es machen müssen. Die Roboter und KI-Programme sind ja noch nicht da. Wir können uns überlegen, welche wir bauen wollen und welche Anwendungen uns sinnvoll erscheinen. Es wird Umstrukturierungen geben, die alle Jobs unabhängig von Expertise und Einkommen betreffen. Wir müssen diskutieren, wie wir unsere Arbeitswelt organisieren wollen.

Im besten Fall wird der Mensch durch KI entlastet. Dann hat er mehr Ressourcen, sich um jene Bereiche seines Berufs zu kümmern, die nicht automatisiert werden können oder sollen. Zum Beispiel in der Pflege. Dort hat man durch die technische Unterstützung dann vielleicht mehr Zeit für die Patient*innen. Das ist vermutlich, weshalb man den Job machen wollte und nicht etwa der Papierkram. Wir müssen darauf achten, dass wir die Ressourcen, die durch den Einsatz von Maschinen frei werden, für jene Sachen nutzen, für die wir sie nutzen wollen. Also nicht unbedingt nur zur Einsparung von Arbeitsplätzen.

Der Schöpferkomplex und die Waschmaschine

Solche Einsparungen sind kein zukünftiges Problem, wir finden sie heute bereits zuhauf. Etwa am Flughafen, wo man den Check-In und die Gepäckaufgabe alleine macht. Auf Bodenpersonal trifft man meistens erst kurz bevor man ins Flugzeug tritt, dann wird die Bordkarte und der Ausweis kontrolliert. Stellt das für alle Beteiligten eine Verbesserung dar?

Dabei handelt es sich um eine Verlagerung von Arbeit auf den Kunden. Ein Arbeitsplatz wird abgeschafft, aber die Arbeit wird nicht abgenommen. Sie wird nun zum Teil von Maschinen, aber zum Teil auch von der Kundschaft übernommen. In gewissem Sinne glaube ich nicht, dass das eine Verbesserung von Service ist. Man kann natürlich immer sagen, dass es darum geht, möglichst viel Geld einzusparen. Aber ist es besser für die Kundschaft oder die Belegschaft?

Eine Folge des selbständigen Check-Outs im Supermarkt ist, dass mehr betrogen und geklaut wird. Forscher*innen der schottischen Abertay University haben nun herausgefunden, dass dieses Problem verringert werden kann, wenn die Kundschaft am Terminal auf ein digitales menschenähnliches Gesicht trifft. Ist das nicht eine absurde Entwicklung, dass wir die Arbeit auf den Kunden übertragen, dann aber die menschliche Komponente fehlt und simuliert werden muss?

Es gibt viel Forschung zur Interaktion zwischen Mensch und Maschine. Insbesondere weil man gerne eine möglichst natürliche Kommunikation zwischen Mensch und Maschine hätte. Der offensichtliche Ansatz ist, der Maschine eine menschenähnliche Gestalt zu geben. Das finde ich problematisch. Das hat was von einem Taschenspielertrick. Man soll glauben, man hätte es mit einem Menschen zu tun. Natürlich kann man sagen, dass jedem klar sei, dass das nicht der Fall ist. Aber warum macht man das dann? Wenn uns die soziale Interaktion mit einem Menschen wichtig ist, kann sie ja leicht mit einem Menschen erfolgen. Wieso also möglichst menschenähnliche Kopien bauen? Außer man ist, so wie in Ihrem Beispiel, an der Täuschung interessiert oder hat einen Schöpferkomplex. In der Vergangenheit haben wir Maschinen gebaut, die uns unliebsame Arbeiten abnehmen. So wie die Waschmaschine, eine der besten Erfindungen aller Zeiten. Und die sieht überhaupt nicht aus wie ein Mensch.

"Ein Problem der aktuellen Diskussion ist, dass wir den Menschen als Fehlerquelle sehen"

Aber bei KI stellen sich doch andere Fragen, oder? Die Waschmaschine kann schließlich nicht ohne den Menschen funktionieren.

Meine Vision ist, dass wir es bei KI so machen wie bei Technologien der Vergangenheit. Mein Lieblingsbeispiel ist der Taschenrechner. Er kann viel besser rechnen als wir und macht dabei keine Fehler. Dadurch, dass ich ihn nutze, habe ich kognitive Ressourcen frei, um kompliziertere Probleme zu lösen. Ich kann die Arbeit besser machen, die ich wirklich machen will. Der Taschenrechner ist ein tolles kognitives Werkzeug. Ein Problem der aktuellen Diskussion ist, dass wir den Menschen als Fehlerquelle sehen und denken, es gehe darum, ihn zu ersetzen. Ich wünsche mir, dass man KI mehr als kognitives Werkzeug sieht, das den Menschen bei seiner Arbeit unterstützt.

Rechnen ist eine Aufgabe, bei der es meistens auf ein richtiges oder falsches Ergebnis hinausläuft. Was bedeutet KI aber für Berufe, bei denen komplexe oder schwerwiegende Entscheidungen getroffen werden müssen?

Wir müssen debattieren, ob es Entscheidungen gibt, die wir uns nicht von Maschinen abnehmen lassen möchten. Wie finden wir es, wenn Drohnen nicht nur ferngesteuert genutzt werden können, sondern teilweise selbständig Entscheidungen treffen? Zum Beispiel bei militärischen Einsätzen. Das sind wichtige ethische Fragen. Die öffentliche Diskussion beschäftigt sich aber oft mit Science-Fiction-Szenarien. Viele Fragen stellen sich eigentlich bisher nur theoretisch, weil die Technologie gar nicht so weit ist. Bei unserer Frage hier ist es ja auch so, wir sind in vielen Fällen weit davon entfernt, dass Maschinen uns die Arbeit abnehmen. Ich verstehe, dass spekulative Fragen zu interessanten Diskussionen führen. Aber meine Angst ist, dass die konkreten Probleme, die wir mit der Einführung bereits existierender Technologien haben werden, daneben keine ausreichende Aufmerksamkeit bekommen.

Das aktuelle Stadium der KI beruht auf Crowdsourcing

Welche konkreten Probleme sind das?

Mit der Einführung technischer Systeme gehen viele Änderungen in den Abläufen und der Organisation von Arbeit einher. Arbeit wird neu verteilt, Verantwortung wird neu verteilt. Sagen wir, wir möchten ein System einführen, dass Ärzte bei der Diagnose unterstützt. Da haben wir handfeste Probleme, wenn wir überlegen, wer hat die Verantwortung. Ich frage mich, ob Ärzt*innen Entscheidungen an Maschinen abgeben wollen, wenn sie trotzdem ethisch und rechtlich die Verantwortung tragen. Mein Idealbild wäre, dass Ärzt*innen durch diese neuen kognitiven Werkzeuge unterstützt werden, bessere Ärzt*innen zu sein. Sie werden nicht überflüssig und sie verlieren nicht ihre Expertise. Sie stehen nicht nur neben der Maschine und segnen ab, was die Maschine macht. Sie müssen noch immer genau verstehen, was passiert. Das ist so wie beim Taschenrechner. Ich sehe nicht, dass wir in der Medizin komplexe und schwerwiegende Entscheidungen bald vollständig an KI-Systeme abgeben werden. Ganz praktisch stellt sich dann aber das konkrete Problem, wie genau wir Arbeit und Verantwortung zwischen Mensch und Maschine aufteilen. Hier könnte man wahrscheinlich viel aus der Erfahrung der Luftfahrt im Umgang mit Autopiloten lernen.

Wir haben viel über traditionelle Berufe gesprochen. Was ist mit Jobs und Tätigkeiten, die durch die Digitalisierung und KI erst entstehen?

Hinter KI steht sehr viel menschliche Arbeit. Zum einen die Arbeit von den Menschen, die KI-Systeme entwickeln. Sie sind die Gewinner auf dem Arbeitsmarkt, denn momentan gibt es zu wenige KI-Expert*innen. Zum anderen gibt es aber auch noch so einige Hilfsarbeiten im Hintergrund. Der aktuelle Forstschritt in der KI beruht größtenteils auf dem sogenannten maschinellen Lernen. Um zu lernen, dass auf einem Bild eine Katze zu sehen ist, muss ein KI-System sehr viele Bilder gesehen haben. Und zu jedem Bild muss dafür ein Mensch dem System sagen, ob darauf eine Katze zu sehen ist. Ohne viele Daten geht nichts, und diese Daten müssen durch Menschen erst einmal erzeugt werden.

Diese Arbeit wird vielfach in den sozialen Netzen umsonst erledigt, zum Beispiel wenn ein Nutzer in der Bildunterschrift von seiner Katze schreibt. Es kann sich aber auch um schlecht bezahlte Arbeit auf Crowdsourcing-Plattformen wie Amazons Mechanical Turk handeln. Mechanical Turk ist ja ein interessantes Beispiel, da es eigentlich das Gegenteil von KI ist. Die Tätigkeiten dort sind relativ einfach, aber kein Computer kann sie übernehmen. Die crowdsourcet man an ein Online-Prekariat. Das Stadium der KI, in dem wir uns derzeit befinden, beruht in einem gewissen Maße auf solchem Crowdsourcing. Das kann ein Übergangsproblem sein, weil KI diese Hilfsarbeiten vielleicht bald überflüssig macht. Es kann aber trotzdem nicht sein, dass Dinge, auf die wir uns als Gesellschaft arbeitsrechtlich geeinigt haben, durch Crowdsourcing unterlaufen werden.

Die Vorurteile der KI

Der Technikhistoriker Melvin Kranzberger hat bereits Mitte der 1980er den Satz geprägt: "Technik ist weder gut noch böse; noch ist sie neutral." Trotzdem entstehen immer wieder Probleme, weil neue Technologien diskriminierende Strukturen reproduzieren. Gibt es also noch immer kein angemessenes Bewusstsein dafür?

Ich glaube, dass Technik neutral sei, ist so eine Einstellung, die man häufig unter technikaffinen Menschen findet. Sie ziehen sich ein wenig aus der Verantwortung, indem sie sagen, naja, die Technik ist neutral, und was andere damit machen, ist nicht mein Problem. Insofern sollte gelten, dass wir die Entwicklung der Zukunft nicht nur den Techniker*innen überlassen dürfen. Aber es ist auch nicht so, dass es gar kein Bewusstsein dafür gibt. An vielen technischen Universitäten wird Wert darauf gelegt, dass ihre Ingenieur*innen einen Blick über den Tellerrand werfen, also zum Beispiel Kurse in Soziologie, in Psychologie oder Philosophie belegen.

Aber es geht nicht nur um soziologische, psychologische oder philosophische Fragen, sondern auch um konkrete Lebensrealitäten. Was bedeutet es etwa, wenn Teams hauptsächlich aus Männern bestehen oder kaum Erfahrung mit körperlicher Behinderung oder Rassismus haben?

Es stimmt sicherlich, dass überwiegend Männer in den Teams arbeiten, die die Systeme entwickeln. Es würde mich wundern, wenn das keine Auswirkungen darauf hätte, welche Anwendungen als interessant und wichtig angesehen werden. Wenn man sich die frühen Tage der KI-Forschung anschaut und welche Themen das Feld damals aufregend fand, dann sieht man das. Eines der Themen war Schachspielen. Für die Leute war klar, dass Schach ein besonderes Beispiel für Intelligenz ist. Sie haben das gern gespielt, also haben sie an einem Schachcomputer gearbeitet. Wenn diese Art der Forschung in einem anderen Kulturkreis begonnen hätte, wäre es vielleicht etwas anderes gewesen als Schach.

Heute arbeiten Forscher an Robotern, die Fußball spielen, oder an KI-Programmen, die das Computerspiel Starcraft spielen. Da weiß ich nicht, wie viel Selbstreflexion es wirklich gibt. Es ist sicherlich nicht so, dass es keine gibt. Lernende KI-Systeme, die von Menschen mit Daten gefüttert werden, die Vorurteile enthalten, übernehmen diese Vorurteile. Weil deshalb bereits einige KI-Systeme rassistische Vorurteile gezeigt haben, gibt es im Feld gerade viel Diskussion über "Fair AI". In meiner Wahrnehmung dreht sich die Diskussion aber oft um technische Lösungen. Über die Diversität der Entwicklungsteams wird sich im Vergleich wahrscheinlich zu wenig Gedanken gemacht.

"Wir müssen uns da auch selbst behaupten"

Bei der Recherche habe ich einen oft geteilten Thread auf Twitter gefunden, der sehr gut zu Ihrem Beispiel mit dem Bringdienst von Essen auf Rädern passt. Eine Frau, die einen Rollstuhl nutzt, wurde in den USA von einem Lieferroboter daran gehindert, auf die Bordsteinabsenkung zu gelangen. Sie steckte also auf der Straße fest und hätte im schlimmsten Fall in einen Autounfall verwickelt werden können. Da geht es nicht nur darum, ob wir beim Einsatz von Robotern auf ein wenig Zwischenmenschlichkeit verzichten, sondern um ein handfestes Sicherheitsproblem. Ist das nicht ein Zeichen dafür, dass bestimmte Menschengruppen bei der Entwicklung von KI noch immer nicht ausreichend mitgedacht oder eingebunden werden?

Sicher. Es ist aber auch ein Symptom einer Entwicklungsphilosophie, die einfach mal schnell Sachen ausprobiert und sich um auftretende Probleme dann später kümmert. Das spiegelt sich in den beliebten Mottos „move fast and break things“ oder „it‘s better to ask forgiveness than permission“ wider.

Solch eine Haltung klingt für manche Menschen aber bedrohlich. Was passiert, wenn wir der Technik ausgeliefert sind, wenn bestehende Ungerechtigkeiten sogar verstärkt werden?

Ich glaube, es ist ein großer Fehler, zu glauben, dass die Technik über uns hereinbricht, dass da neutrale Sachen entwickelt werden, auf die wir keinen Einfluss haben. Selbst wenn die Technologie sich schnell entwickelt, die gesellschaftliche Entwicklung ist sehr viel langsamer. Die soziale Akzeptanz muss da sein, die rechtlichen Rahmenbedingungen müssen geschaffen werden. Der Wandel wird nicht von heute auf morgen kommen. Das gibt uns Zeit, das alles zu diskutieren und oft sind es genau diese Diskussionen, die verhindern, dass Dinge von heute auf morgen eingeführt werden. Deswegen bin ich zuversichtlich, dass da nichts über uns hereinbricht. Aber wir müssen uns da auch selbst behaupten und die Dinge in die Hand nehmen und sagen, wir möchten die Zukunft gestalten.