›Autonome‹ Systeme, die keine sind – wie uns Propagandisten ›künstlicher Intelligenz‹ in die Irre führen

Peter Brödner

›Autonome‹ Systeme, die keine sind –
wie uns Propagandisten ›künstlicher Intelligenz‹ in die Irre führen[1]

Wieder einmal überrollt uns eine Sturzflut von Meldungen über Projekte vermeintlicher ›künstlicher Intelligenz‹ (KI, engl. AI für ›artificial intelligence‹). Die Spannweite reicht von Heilsversprechen über Erfolgsgeschichten bis zu Szenarien der Apokalypse:

  • Über die künftige ›smarte‹ Automobilfabrik heißt es etwa: »Superschlaue Computer, die ständig lernen, werden vieles übernehmen, was bisher Menschen erledigen: Sie antworten, wenn Kunden oder Lieferanten fragen, automatisch [...] [S]ie entwerfen sogar Autos und rechnen aus, wie sich die Entwürfe in der Fabrik umsetzen lassen.«,
  • »Lernende Maschinen erkennen Gesichter und bringen sich selbst das Schachspielen bei.«
  • Hawking fürchtet, dass »KI Menschen komplett ersetzen könnte« in einer »neuen Lebensform, in der Menschen unterlegen wären«.

Bei solch atemberaubenden Äußerungen hilft nur, nüchtern die Wahrheit in relevanten Tatsachen zu suchen. Freilich beginnen die Schweirigkeiten schon damit, dass ›KI‹-Systeme begrifflich nicht von ›gewöhnlichen‹ Computersystemen zu unterscheiden sind: Auch letztere wurden immer schon zur Bewältigung von Aufgaben geschaffen »die nach landläufiger Auffassung Intelligenz erfordern« (wie übliche ›KI‹-Definitionen lauten). In jedem Fall führen Computersysteme berechenbare Funktionen zur automatischen zweckmäßigen Verarbeitung zugehöriger Daten aus – und nichts sonst.

Zudem zeugt die Fokussierung auf technische Artefakte und ihre Eigenschaften von einem tiefen Missverständnis von Technik. Als »Anstrengung, Anstrengungen zu ersparen« (Ortega y Gasset) umfasst Technik über die bloße Ansammlung technischer Artefakte hinaus stets auch deren sozial konstruierte und kulturell vermittelte Herstellung und Anwendung im Spannungsfeld des technisch Machbaren und des sozial Wünschenswerten, abhängig von jeweils herrschenden Interessen. Artefakte fallen nicht vom Himmel, sondern müssen für bestimmte Zwecke mühsam konzeptionell entwickelt und materiell hergestellt werden. Als solche sind sie aber bloß tote, nutzlose Gegenstände, solange sie nicht für bestimmte Aufgaben zweckgemäß angeeignet und praktisch wirksam verwendet werden.

Die Irrtümer des ›KI‹-Diskurses zu erkennen, erfordert indes nichts weiter als die tatsächliche Funktionsweise fortgeschrittener Computersysteme sowie deren Entwicklungs- und Anwendungsprobleme in den Blick zu nehmen, hier am Beispiel ›künstlicher neuronaler Netze‹ (KNN) und Verfahren des ›Deep Learning‹, die derzeit als vermeintliche Schlüsseltechnik der ›KI‹ besonders hoch im Kurs stehen.

Funktionsweise prominenter ›KI‹-Systeme
Ein KNN besteht im Wesentlichen aus einer Menge miteinander verbundener Knoten j, die in Abhängigkeit von ihrem aktuellen Aktivierungszustand und der momentanen Eingabe ihren neuen Zustand bestimmen und eine Ausgabe produzieren. Die Knoten sind gemäß der Netzwerkstruktur, dargestellt durch einen Graphen oder eine Konnektionsmatrix, miteinander verknüpft. Die Dynamik eines KNN wird beschrieben durch (vgl. Abb.):

  • eine Propagierungs- bzw. Übertragungsfunktion netj, die aus den Ausgaben der vorgeschalteten Elemente sowie der Gewichtung der Verbindungen die aktuellen Eingaben in interne Netzwerkelemente berechnet,
  • eine Aktivierungsfunktion σ, die für jedes Element dessen Aktivierung oj als Ausgabe bestimmt abhängig davon, ob ein Schwellwert von der Netzeingabe netj überschritten wird oder nicht.

                                                      Abb.: Berechnungsfunktionen an einem Netzknoten

                                             Berechnungsfunktion an einem Netzknoten

 

 

In der Regel besteht die Propagierungsfunktion aus einer einfachen Summenbildung der gewichteten Verbindungseinflüsse und die Aktivierungsfunktion wird meist für alle Elemente des Netzwerks einheitlich festgelegt. Innerhalb eines Netzwerks wird noch zwischen Eingabe-, Ausgabe- und internen Elementen unterschieden (›hidden units‹, die zu tief gestaffelten ›hidden layers‹ zusammengefasst werden, daher die Bezeichnung ›Deep Learning‹). Mittels verschiedener Typen von Ausgabe-, Propagierungs- und Aktivierungsfunktionen können Klassen von konnektionistischen Modellen gebildet werden.

Zur Lösung ihrer Aufgaben müssen KNN während des Entwurfs passend strukturiert und ihre Gewichte algorithmisch gesteuert mittels der Eingabedaten trainiert werden. Das Netz wird darüber hinaus nicht programmiert, sondern passt sich durch Veränderung der Gewichte nach Maßgabe eines den Nutzen maximierenden ›Lern‹-Algorithmus an die spezielle Aufgabenstellung an (daher auch die Benennung adaptiv). Beispielsweise werden bei Problemen der Klassifikation oder der Musteridentifikation – ein Aufgabentyp, bei dem KNN, vor allem sog. ›faltende‹ oder ›Convolutional Neural Networks (CNN)‹, besonders leistungsfähig sind – einer langen Reihe von Eingabemustern jeweils die zugehörigen Klassen als Ausgänge zugeordnet; aus diesen Zuordnungen vermag dann der Algorithmus mittels einer Nutzenfunktion automatisch passende Verbindungsgewichte zu bestimmen. Dies funktioniert auch bei Mustern, die durch explizite Merkmalsbeschreibungen schwierig oder gar nicht zu fassen sind (etwa bei der Identifikation von Gesichtern oder handgeschriebenen Buchstaben) – freilich mit Unsicherheiten. Dafür ist meist eine sehr große Zahl von Trainingsbeispielen (in der Größenordnung von 106) erforderlich.

So muss zur Anpassung der Gewichte Wj := Wj – η 𝛻W L eines KNN der Gradient
𝛻W L(N(x)) einer Nutzen- oder Verlustfunktion L(N(x)) berechnet werden (mit N(x) als Netzwerksausgabe und der »Lernrate« η). Die Bestimmung des Gradienten von L erfordert die Bildung der Ableitung von N(x) als Verkettung mehrerer Funktionen nach der Kettenregel. Dabei wiederholt auftretende Faktoren sind während des Trainings oft < 1, sodass das Ergebnis infolge ihrer Multiplikation gegen Null tendiert – daher der »schwindende Gradient« und die Schwierigkeit, vielschichtige KNN zu trainieren. Zudem ist es schwierig, bei der Suche nach den Extremwerten der Nutzenfunktion eine variable, situativ passende Schrittweitensteuerung zu realisieren.

Diese praktischen Schwierigkeiten bei der Strukturierung wie beim Training der Netzwerke sind nur durch jeweils fallspezifische Kunstgriffe zu überwinden, die das Können ihrer Entwickler herausfordern, zumal es für die Gestaltung der KNN keine theoretisch fundierten Erkenntnisse gibt. Folglich müssen für jede Aufgabe passende Netzwerkstrukturen und Nutzenfunktionen mühsam mit großem Trainingsaufwand und ohne Erfolgsgarantie ausprobiert werden. Die Performanz der Netzwerke verdankt sich daher allein der Erfahrung, dem Können und der Kreativität ihrer Entwickler, darüber hinaus auch der exponentiell gesteigerten Leistungsfähigkeit von Computer-Hardware. Zudem sind KNN in hohem Maße störanfällig. Schon durch geringfügige Veränderung eingegebener Daten können sie in ihrer Funktionstüchtigkeit stark beeinträchtigt werden. So gibt es denn auch vielfältige Fehlleistungen von ansonsten erfolgreichen KNN und zahlreiche Beispiele sind belegt etwa bei der Bild-Klassifikation.

In letzter Zeit hat das System AlphaGo von Deep Mind (sic!) viel Aufsehen erregt, das in Turnieren die weltbesten Go-Spieler zu schlagen vermochte. Es wird häufig als der ultimative Nachweis von dem Menschen überlegener ›künstlicher Intelligenz‹ und ›maschinellem Lernen‹ präsentiert (obgleich dessen Funktionsweise mit Lernen im eigentlichen Sinn nichts zu tun hat). Bei genauerem Hinsehen zeigt sich auch hier, dass diese Behauptungen auf dem propagandistischen Treibsand falscher Zuschreibungen gebaut sind.

Zunächst ist festzustellen, dass das Go-Spiel ein mathematisches Objekt ist, das durch seine Regeln vollständig definiert ist. Infolgedessen lässt sich in jeder Stellung eines beliebigen Spielverlaufs eindeutig entscheiden, ob ein Spielzug erlaubt ist oder nicht. Im Prinzip ließe sich daher auch der Baum aller möglichen erlaubten Spielzüge und -verläufe darstellen (was freilich wegen sog. ›kombinatorischer Explosion‹, hier der gigantischen Zahl von geschätzt rd. 200150 Zweigen, physisch unmöglich ist; es handelt sich um ein NP-vollständiges Problem).

Mittels heuristischer Verfahren muss daher die Suche nach erfolgreichen Spielzügen und einem möglichst optimalen Spielverlauf auf aussichtsreiche Teilbäume beschränkt werden. Als Methode bewährt hat sich bei vergleichbaren Aufgabenstellungen die Monte Carlo Tree Search (MCTS), die auch hier als heuristischer Verfahrens-Baustein genutzt wird. Dabei werden für Folgezüge einer betrachteten Stellung Erfolgshäufigkeiten – als Verhältnis der Anzahl gewonnener zur Anzahl der insgesamt über diesen Zweig vollzogenen Spiele – mit Hilfe von parallel durchgängig simulierten Zufallspartien ermittelt, die laufend fortgeschrieben werden. Im Falle von AlphaGo wurden dazu auf 40 parallel arbeitenden Prozessoren jeweils 103 Simulationen je Sekunde durchgeführt (was in einer Minute Bedenkzeit zwischen den Zügen maximal 2,4 Mio. Simulationen pro Zug ermöglicht).

In ihrer Leistung gesteigert wird die MCTS noch durch Kombination mit zwei im Spiel gegen sich selbst trainierten neuronalen Netzen, die im Spielverlauf asynchron zusätzliche Bewertungen zur Zugwahl (»policy«, in Form einer über die Zweige verteilten Erfolgswahrscheinlichkeit) und zur Stellung (»value«, als relativem Wert des zugehörigen Teilbaums) ermitteln. Dabei wächst der betrachtete Teilbaum aussichtsreicher Spielzüge durch Einführung neuer Knoten in besonders erfolgversprechenden Zweigen mit anfangs geschätzten Bewertungsgrößen. Diese werden im Zuge der parallel und asynchron durchgeführten Läufe der MCTS-Simulationen und der Wertbestimmung für Zugwahl und Stellungen durch die neuronalen Netze fortgeschrieben, sobald sie verfügbar sind.

Als mathematische, durch Regeln vollständig definierte Objekte sind Spiele entgegen landläufiger Auffassung geradezu prädestiniert für strenge Modellierung und Formalisierung ihrer Spielverläufe. Es ist daher immer schon a priori sicher, dass es Algorithmen geben muss, die menschlichen Spielern überlegen sind. Dass sie erst jetzt gefunden wurden, erklärt sich aus der jetzt erst verfügbaren methodischen Erfahrung und notwendigem mathematischen Können sowie hinreichender Rechenleistung.

Allgemein gilt für ›KI‹-Systeme weiterhin: Grob irreführend als ›künstlich intelligent‹ oder ›lernfähig‹ bezeichnete, de facto lediglich adaptive Computersysteme sind stets und ausschließlich das Ergebnis methodischer Kompetenz menschlicher Experten, deren Können und natürliche Intelligenz sie in Gestalt theoretischer Einsichten in zugrunde liegende Prozesse und raffiniert ausgeklügelter heuristischer Verfahren vergegenständlichen. Das gilt freilich für technische Artefakte, gleich welcher Komplexität, schon immer.

Probleme der Anwendung adaptiver Systeme
Neben Herausforderungen und Schwierigkeiten der Entwicklung adaptiver Computersysteme bestehen aber auch auf Seiten der Anwendung große, wegen ihrer Besonderheit über den Einsatz herkömmlicher Systeme hinausweisende Probleme sowohl epistemischer wie ethischer Natur: Infolge analytischer Intransparenz ist das Verhalten von ›KI‹-Algorithmen (hier v.a. KNN und Verfahren schließender Statistik) selbst für Entwickler faktisch weder im einzelnen durchschaubar (»inconclusive evidence«) noch im Nachhinein erklärbar (»inscrutable evidence«). Sie produzieren nur wahrscheinliche, daher stets unsichere Ergebnisse, deren Korrektheit und Validität von außen nur schwer zu beurteilen sind. Zudem sind KNN sehr störanfällig und leicht auszutricksen. Die Ergebnisse, die sie liefern, sind in hohem Maße von der Qualität der Eingabedaten abhängig, die aber meist ebenfalls unbekannt oder nur schwer einschätzbar ist (»misguided evidence«).

Nutzer können dem Verhalten und seinen Ergebnissen daher nur blind vertrauen – trotz der nicht aufhebbaren Unsicherheit. Das stellt sie in der »Koaktion« mit solchen Systemen vor beträchtliche Belastungen: Wie sollen sie sich solche adaptiven Systeme überhaupt aneignen, wie mit ihnen zweckmäßig und zielgerichtet koagieren, wenn diese sich in vergleichbaren Situationen jeweils anders und unerwartet verhalten? Das wäre ein eklatanter Verstoß gegen eine der Grundregeln der Mensch-Maschine-Interaktion, gegen die Forderung nach erwartungskonformem Verhalten. Zugleich würden, wie oben gezeigt, seitens der Nutzer stets aufs Neue überzogene Erwartungen an die vermeintliche Leistungsfähigkeit der Systeme geschürt, mithin gar ihre Wahrnehmung der Wirklichkeit verändert (»transformative effects«). Konfrontiert mit diesen Widersprüchen, unter dem Erwartungsdruck erfolgreicher Bewältigung ihrer Aufgaben einerseits und angesichts des Verlusts der Kontrolle über Arbeitsmittel mit undurchschaubarem Verhalten andererseits, würden sie unter dauerhaften psychischen Belastungen zu leiden haben. Vordringlich zu fordern ist daher, dass diese Systeme ihre Ergebnisse auf Verlangen nachvollziehbar zu erklären vermögen, was aber bislang nicht einmal ansatzweise gelingt.

Fazit
Die von der ›KI‹ als ›autonom‹ bezeichneten Systeme bestimmen die Regeln ihres Verhaltens nicht selbst, mithin sind sie faktisch nicht autonom, sondern als adaptive Automaten konstruiert. Auch haben Verfahren ›maschinellen Lernens‹ nichts mit Lernen im eigentlichen Sinn zu tun; mathematisch geht es dabei um algorithmisch gesteuerte Funktionsapproximation an gegebene Daten. Zudem ist hinsichtlich der Leistung von AlphaGo festzustellen, dass aufgrund der Regel-Natur von Spielen als mathematischem Objekt Algorithmen menschliche Spieler stets übertreffen können – passende Heuristik und hinreichende Leistung der Hardware vorausgesetzt. Aus dieser Besonderheit kann aber nicht allgemein auf die Überlegenheit maschineller Verfahren über menschliche kognitive Kompetenz geschlossen werden.

Die Irrtümer des ›KI‹-Diskurses lassen den Kern der Sache übersehen: Menschlicher Kreativität gelingt es immer wieder, für spezielle, auch schwierige kognitive Aufgaben algorithmische Lösungsverfahren zu finden und als adaptive Automaten zu realisieren, die aber nur sehr begrenzt auf andere Aufgaben übertragbar sind. Meist ist die aufwendige Entwicklung jeweils eigener Methoden erforderlich, oft mit mehr Aufwand als Nutzen. Sog. ›KI‹-Verfahren sind daher keine »General Purpose Technology«, wie das leichtfertig behauptet wird.

Statt auf illusionäre ›KI‹-Hoffnungen zu setzen, erscheint es angesichts dieser Einsichten weit aussichtsreicher, höhere Flexibilität, Produktivität und Innovationsfähigkeit stattdessen durch soziotechnische Gestaltung »guter Arbeit« zu erreichen. Für diese der ›KI‹ entgegengesetzte Perspektive unterstützender ›Intelligenzverstärkung‹ notwendiges Wissen ist aus über drei Jahrzehnten Forschung zur Gestaltung von Arbeit und Technik verfügbar. Beispielsweise kann eine methodisch angemessene, mittels Selbsterklärung nachvollziehbare Analyse umfangreicher Produktionsdaten genutzt werden für

  • interaktive Asssistenzsysteme etwa in der Qualitätssicherung oder Instandhaltung,
  • gebrauchstauglich gestaltete Hilfsmittel zur Optimierung von Prozessen,
  • die Diagnose komplexer Anlagen,
  • die effektive Simulation zwecks optimaler Steuerung von Prozessen.

 

[1] Der Text ist eine stark gekürzte Fassung meines Beitrags zum Buch »Autonome Systeme und Arbeit«, hg. von Hartmut Hirsch-Kreinsen und Anemari Karačić, das auch als Open-Access-Publikation verfügbar ist. Dort finden sich weitere detaillerte Erläuterungen der Funktionsweise von Systemen und die Belege für die vorliegende Darstellung.

Zur Kritik der »4. industriellen Revolution«

 
 
(1) Im Gegensatz zu den Trompetenstößen der Revolutions-Propagandisten hat es in den letzten 20 Jahren in der KI-Forschung keinerlei konzeptionellen Fortschritt gegeben, die gelegentlich verblüffenden Computerleistungen (Schach- bzw. Go-Weltmeister, selbstfahrendes Auto, Muster- und Spracher¬kennung etc.) beruhen ausschließlich auf der exponentiell gesteigerten Rechen- und Speicherleistung der Hardware. Das ist auch kein Wunder, denn Computer tun nichts anderes, als per Algorithmus berechenbare Funktionen auszuführen; daran ändert auch das sog. »maschinelle Lernen« (z.B. von MAS) nichts, denn dabei handelt es sich nicht um ein uns Menschen mögliches Lernen durch Reflexion, sondern um die von Umweltsignalen abhängige, algorithmisch gesteuerte Anpassung von Berechnungsparametern, die irreführend und vermenschlichend als »Lernen« bezeichnet wird. Intelligent und lernfähig sind nicht die Systeme, sondern ihre Programmierer, die die Algorithmen entwerfen.
(2) Auch der heute ubiquitär gewordene Begriff der »Digitalisierung« vernebelt mehr als er erhellt. Sein heutiger (von seinem technischen Ursprung der Umwandlung analoger in digitale Signale abweichender) Sinn und Gebrauch suggeriert ebenfalls, dass es um etwas revolutionär Neues geht - weit gefehlt: Seit Erfindung der Schrift sind wir es gewohnt mit dauerhaften Zeichen(trägern) umzugehen, mit dem Buchstaben-Druck gelingt es, die Zeichen(träger) massenhaft zu verbreiten, mit Computern, sie algorithmisch zu manipulieren, und mit dem Internet haben wir nun ein »instrumentelles Medium«, das in einem technischen Artefakt vereint erlaubt, sie sowohl instrumentell zu manipulieren als auch weltweit zu verbreiten und dauerhaft zu speichern - das war's und das gibt's nun alles schon seit 40 Jahren. Neu ist heute eben nur die enorm gesteigerte Rechnerleistung, die in der Welt komplexer Zeichenprozesse vieles bislang Unmögliche möglich macht. Der Preis, den wir dafür zu zahlen haben, ist freilich, die immer komplexeren Zeichenprozesse in unserer Praxis des Stoffwechsels und sozialen Interaktion zuvor zu standardisieren und zu formalisieren, sie in das Prokrustesbett der Berechenbarkeit zu zwängen. Zugleich wird eben damit ein wirkmächtiges Herrschaftsinstrument geschaffen, das sich trefflich ge- und missbrauchen lässt. Logisch und sachlich zwingende Voraussetzung für all das ist allerdings die fortschreitende Genese expliziten, in Zeichen gefassten Wissens über die physische und soziale Welt, die Verwissenschaftlichung von (Re-)Produktion, gewissermaßen die Verdoppelung von Welt in Zeichen, in Gestalt ihrer zeichenförmigen Beschreibungen und Erklärungen. - Dementsprechend wäre es mithin angemessener, in diesem Kontext von Computerisierung (statt von Digitalisierung) zu sprechen.
(3) Das Stufenmodell der 4 »industriellen Revolutionen« suggeriert große qualitative Sprünge, wo es sich in Wahrheit um fortlaufende inkrementell-evolutionäre Entwicklung handelt (die natürlich nie endet). Dabei leugnen die Propagandisten die wesentliche Tatsache, dass die Gestaltung der Computersysteme selbst schon - wie übrigens auch ihre Aneignung für

praktisch wirksamen Gebrauch - Ergebnis sozialer Interessen und Bedürfnisse ist (vgl. Bild 1).

 Technikentwicklung

Eben dieses, die wissensbasierte Gestaltung und die Aneignung für praktisch wirksamen Gebrauch, erfordern mit der Komplexität des Wissens und der Artefakte wachsendes Können oder Arbeitsvermögen, das sich im Prozess der Aneignung der Artefakte (und des Wissens) selbst noch erweitert. Diese von mir stets betonten Zusammenhänge, insbesondere die These von der im Zuge von Verwissenschaftlichung ständig wachsenden Bedeutung des Arbeitsvermögens, werden nun durch die von Michael Vester vorgetragenen Mikrozensus-Daten nochmals eindringlich belegt (vgl.Bild 2).

Qualifikation und Einkommen 1991 2009


(4) Im Unterschied zu stoffumwandelnden Artefakten (z.B. Werkzeugma¬schinen), deren Wirkbereich die Natur ist, die folglich Natureffekte und -kräfte zu nutzen erlauben und eben dadurch die Arbeitsproduktivität zu steigern vermögen, beruht der Einsatz von Computern allein auf der Standardisierung, Formalisierung und Modellierung von Zeichenprozessen, ihr Wirkbereich ist die Welt der Zeichen, insbesondere der sozialen Interaktion und Koordination kollektiven Handelns (im Falle eingebetteter Systeme auch die zweckmäßige Steuerung von Naturprozessen aufgrund von deren wissensbasierter Beschreibung durch Zeichen). Eine Steigerung der Arbeitsproduktivität im Bereich sozialer Interaktion und Koordination ist daher nur möglich, wenn durch den Einsatz von Computersystemen die zugrunde liegenden Zeichenprozesse restrukturiert und effektiver organisiert werden können -»Software ist Orgware« (vgl. Bild 3, oben rechts).

Arbeitsproduktivität


(5) Das widerlegt eindeutig schon aus theoretischer Einsicht die unhaltbaren Thesen des ISF (Boes et al.) vom Gebrauch des Internets als »Produktivkraftsprung« und der Entstehung einer »neuen Handlungsebene«. Sie werden zudem auch empirisch eindrücklich falsifiziert durch das »Produktivitätsparadoxon der IT«, den säkularen Niedergang der Arbeitsproduktivität in allen entwickelten Gesellschaften, trotz Jahrzehnte währender massiver Computerisierung, die inzwischen nahezu alle Arbeits- und Interaktionsprozesse durchdringt, eben gerade auch zeichenbasierte Dientsleistungen (vgl. Bild 3). Mithin sind auch alle daraus abgeleiteten Erkenntnisse als reine Mythologie hinfällig.
Als Fazit für politisches Handeln sind daraus u.a. folgende Schlüsse zu ziehen: Weit wirkmächtiger als die Erschließung weiterer Felder der Computerisierung - die es selbstredend im einzelnen mitzugestalten gilt - sind Fragen der Arbeitsorganisation und der institutionellen Bedingungen von Arbeit und Wertschöpfung. Gute Arbeit und soziale Sicherung bilden nach wie vor, gerade in Zeiten großer Veränderungsdynamik und Unsicherheit, das Hauptfeld der Auseinandersetzung, wobei die Entfaltung von Arbeitsvermögen als Kernbestandteil guter Arbeit und eigentlicher Quelle von Leistungsfähigkeit ein zentrales Ziel sein muss. Zugleich entstehen mit der lückenlos datengestützten Prozessüberwachung aber auch nie dagewesene Möglichkeiten minutiöser und totaler - freilich grundgesetzwidriger - persönlicher Leistungsvergleiche und Verhaltenskontrolle, die es zu verhindern gilt. Die derzeit verbreitete Panikmache mit apokalyptischen Szenarien der Verdrängung lebendiger Arbeit durch Computer ist in diesem Kontext nur ein willkommenes (freilich realitätsfernes) Ablenkungsmanöver

Peter Brödner: Eine neue Invasion der Robbies?

 

Gerade wieder wird - so etwa jüngst auch im Spiegel Nr. 9/2015 - die Vision heraufbeschworen, dass eine neue Generation autonomer, lernfähiger Roboter und sog. »Multiagentensysteme« unsere Fabriken bevölkern wird. Miteinander vernetzt, sollen sie sich mittels kooperierender Interaktion zu »verteilter künstlicher Intelligenz« aufschwingen und veränderliche, komplexe Produktionsaufgaben bewältigen. Mit der Vorstellung solcher »intelligenter« Maschinen-Schwärme des »zweiten Maschinenzeitalters« (Brynjolfsson und McAfee) werden längst totgeglaubte Gespenster wieder belebt und Gefahren für Arbeit und Beschäftigung heraufbeschworen.

Visionäre wie Apokalyptiker leiden freilich darunter, gegen Fakten immun zu sein. So werden stets aufs Neue technische Fähigkeiten übertrieben und fundamentale Unterschiede zwischen zwar anpassungsfähigem, aber algorithmisch determiniertem Verhalten digital gesteuerter Maschinen und autonom intentionalem Handeln von Menschen ignoriert. In positivistisch verengter Interpretation von »Embodiment« werden Roboter und »Multiagentensysteme« umstandslos mit lebendigen und einfühlsamen, zu Empatie und Reflexion ihres kontextbezogenen Erlebens und Handelns fähigen Körpern von Menschen gleichgesetzt. Übersehen wird dabei die naturwissenschaftlich begründete Differenz deterministischen Verhaltens zu intentional gesteuertem, Sinn erzeugendem menschlichen Handeln und Verstehen im Kontext sozialer Praxis.

Paradoxerweise beruhen die heute möglichen, gelegentlich verblüffend »intelligent« erscheinenden Computerleistungen (z.B. beim Schachspielen oder beim selbstfahrenden Auto) - trotz jahrzehntelanger Forschung über »künstliche Intelligenz« - gar nicht auf deren Konzepten, sondern einzig und allein auf enorm gesteigerter Rechenleistung nach dem »Mooresches Gesetz«. Sie erlaubt, umfangreiche, einsichtsvoll und aufgaben­angemessen implementierte Heuristiken mit schnellem Zugriff auf sehr große Bestände kodifizierten Wissens zu verarbeiten (sog. »Brute-force«-Methoden). Intelligent sind nicht die algorithmisch determinierten Computer, sondern deren Programmierer, die diese Möglichkeiten zur Bewältigung jeweils sehr spezifischer Aufgaben zu nutzen verstehen.

Die Verkennung dieser Unterschiede wirft aber beträchtliche Probleme auf, sobald Menschen mit derartigen Systemen interagieren müssen. Als »nicht-triviale« Maschinen weisen Multiagentensysteme zwar ein deterministisches, aber emergentes, hoch komplexes und von außen nicht mehr bestimmbares oder vorhersehbares Verhalten auf. Wie aber sollen Menschen sich solche Systeme aneignen, wie mit ihnen zweckmäßig und zielgerichtet interagieren, wenn diese sich in vergleichbaren Situationen jeweils anders und unerwartet verhalten? Das wäre verstieße eklatant gegen einen Grundsatz der Mensch-Maschine-Interaktion, gegen die Forderung nach erwartungskonformem Verhalten. Zugleich würden auf Seiten der Nutzer stets aufs Neue überzogene Erwartungen an die »Handlungsfähigkeit« der Systeme geschürt. Konfrontiert mit diesen Widersprüchen, unter dem Erwartungsdruck erfolgreicher Bewältigung ihrer Aufgaben einerseits und angesichts des Verlusts der Kontrolle über Arbeitsmittel mit undurchschaubarem Verhalten andererseits, würden sie unter dauerhaften psychischen Belastungen und erlernter Unfähigkeit zu leiden haben.


Darüber hinaus werfen Entwicklung und Gebrauch von Multiagentensystemen gewichtige, bislang freilich weitgehend ignorierte ethische Fragen auf: Dürfen Systeme mit derart undurchschaubarem Verhalten überhaupt von der Leine gelassen werden? Wie lässt sich dabei ein hinreichend sicherer Betrieb gewährleisten? Wer ist für allfälliges Fehlverhalten und mögliche Schäden verantwortlich und haftbar zu machen? Sind es die Entwickler oder aber die Betreiber (oder gar die Benutzer) der Systeme? Und wie lässt sich das ggf. nachweisen? Wer haftet bei Schäden als Folge unglücklicher Verkettung äußerer Umstände, wenn das System als solches funktioniert, wie es soll? Und ferner: Wie steht es eigentlich um die Sicherung der in der »smarten Fabrik« in großer Fülle anfallenden hoch sensiblen produkt- wie produktionsbezogenen Daten gegen alltägliche »Cyber-Attacken«?

Aktuell gewinnen diese Fragen an Brisanz, etwa im Kontext von Experimenten mit selbstfahrenden Autos. Es ist gut möglich, dass Entwicklung und Einsatz der als Heilsbringer angekündigten »verteilten künstlichen Intelligenz« letztlich an unzureichenden Antworten scheitert. Dabei gibt es gerade auch unter den neuen technischen Optionen die ebenso bewährte wie zukunftsweisende Alternative der Stärkung des lebendigen Arbeitsvermögens, der »Intelligenzverstärkung« durch gute Arbeit mittels dauerhaft kompetenzerhaltender und lernförderlicher Arbeitsaufgaben, durchschau- und beherrschbarer, aufgabenangemessen gestalteter Arbeitsmittel mit erwartungskonformem Verhalten sowie ausreichende Zeitressourcen zu deren Aneignung.

Insulting Machines (Kränkende Maschinen )

Für die Sonderausgabe »A Faustian Exchange« zum 25-järigen Geburtstag des internationalen Journals AI & Society hat Mike Cooley ein Gedicht verfasst, in dem er mit eindringlichen Worten und Metaphern die grotesken Absurditäten gegenwärtiger technischer Entwicklungen zur Sprache bringt. Wer könnte das wirksamer tun als dieser technisch gebildete Sprachvirtuose irischer Herkunft?

In Anbetracht der Ausrufung des »zweiten Maschinenzeitalters« (Brynjolfsson & McAfee), der Ankündigung einer »vierten industriellen Revolution« und des Hypes um Big Data gewinnt das Gedicht noch zusätzlich an Bedeutung als Stein des (Denk-)Anstoßes. Daher habe ich mir die (am Ende weit unterschätzte) Mühe gemacht, sein außergewöhnliches Poem ins Deutsche zu übertragen. Das Ergebnis finden Sie weiter unten.

Zu Mike Cooley

  • In den späten 1970er und frühen 1980er Jahren leitender Konstrukteur bei dem britischen Rüstungskonzern Lucas Aerospace,
  • zugleich Vorsitzender der Techniker-Gewerkschaft TASS in diesem Bereich,
  • Autor von »Architect or Bee« (»Architekt oder Biene«, 1980) und eine zentrale Figur einer breiten Arbeitnehmer-Initiative zur Rüstungskonversion zwecks Erhalt von Arbeitsplätzen (»Produkte für das Leben statt Waffen für den Tod«),
  • Träger des alternativen Nobelpreises 1981 (" Right Livelihood Award") 

 

Weitere Informationen auf Wickipedia „ Mike Cooley“

             

Übersetzung des Gedichts

Insulting Machines (Kränkende Maschinen )

       von Mike Cooley

Träger des Alternativen Nobelpreises

Übersetzung: Peter Brödner

 

Leider ist nämlich anzunehmen, dass für viele heutige Leser die damalige Zeit längst im Dunkel der Geschichte versunken ist und sie daher mangels Kontextwissens überhaupt nichts verstehen, insbesondere nicht diefundamentale Differenz zwischen Baumeister und Biene (als Metapher für die programmierte Maschine). Dabei gibt es viele Zusammenhänge der damaligen mit den heutigen Krisenzeiten zu entdecken.


Insulting Machines

By Mike Cooley

It is a graceful degradation, bristling with paths not taken Supercharged by Taylor's one best way with all the zeal of the monotheist

Where Schumpeter shoves, Kondratiev waves and Gladwell points

All in hot pursuit of singularity.

Behold the strange phyla as they stalk their makers

They too can walk, feed, talk and - some say - think.

We create devices and then they create us.

Narcissus-like, we gaze into a pool of technology and see ourselves. We acquiesce in our own demise, setting out as participants and metamorphosing into victims.

The diagnosis is serious: a rapidly spreading species' loss of nerve Tacit knowledge is demeaned whilst propositional knowledge is revered. Who needs imagination when there are facts?

A human enhancing symbiosis ignored

whilst a dangerous convergence proceeds apace - as human beings confer life on machines and in so doing diminish themselves.

Your calculus may be greater than his calculus but will it pass the Sullenberger Hudson river test? Meantime, the virtual is confused with the real

-    as parents lavish attention on the virtual child whilst their real child dies of neglect and starvation.

Potential and reality are torn apart as change is confused with progress With slender knowledge of deep subjects

-    you proceed with present tense technology, obliterating the past and with the future already mortgaged.

The court of history may find you intoxicated with species arrogance recklessly proceeding without a Hippocratic Oath.

Thus the deskiller is deskilled, as a tsunami of technology rocks our foundations. The multinational apologist solemnly declares "We should have the courage to accept our true place in the evolutionary hierarchy

-    namely animals, humans and post singularity systems". Now the sky darkens with pigeons coming home to roost and the mine canaries topple from their perches unnoticed.

That distant sound grows louder.

Is it the life affirming energy of Riverdance

or the clacking hooves of the Four Horsemen?

That music, is it >Ode to Joy< or is it >Twilight of the Gods?<

As the embrace tightens into genteel strangulation - will the seducer

in final deception whisper >Shall I compare thee to a Summer's day?<

Erschienen in AI & Society 28 (4) 2013, p. 100-101


Kränkende Maschinen

Von Mike Cooley

Es ist ein Teilsystemausfall1, strotzend von verfehlten Pfaden, aufgeladen durch Taylors2 einzig besten Weg mit allem Eifer des Monotheisten.

Wo Schumpeter-Schübe, Kondratjew-Wellen und Gladwell-Wendepunkte3

alle der Singularität4 auf den Fersen sind.

Betrachte die fremden Stämme5, wie sie ihre Züchter belauern.

Auch sie können gehen, fressen, sprechen und - wie manche sagen - denken.

Wir machen Geräte und dann machen diese uns.

Narziss gleich starren wir in den Teich der Technik und sehen uns selbst.

Wir nehmen unseren eigenen Niedergang hin, als Wegbegleiter, die zu Opfern werden.

Die Diagnose ist ernst: Eine sich rasch ausbreitende Art verliert den Verstand.

Könnerschaft wird gering geschätzt, propositionales Wissen hochachtet.

Wer braucht noch Vorstellungskraft, wo es Fakten gibt?

Eine Menschen befähigende Symbiose wird geleugnet,

während gefährliche Konvergenz rasch vorankommt - indem Menschen

Leben auf Maschinen übertragen und sich so erniedrigen.

Deine Berechnung mag besser sein als seine,

aber wird sie den Sullenberger Hudson River Test 6 bestehen?

Derweil wird das Virtuelle mit dem Realen verwechselt

-    indem Eltern virtuelle Kinder mit Aufmerksamkeit überschütten, während ihr reales Kind stirbt vor Vernachlässigung und Hunger.

Möglichkeit und Wirklichkeit werden getrennt, wenn Wandel mit Fortschritt

verwechselt wird.

Mit dürftiger Kenntnis schwieriger Zusammenhänge

-    du schreitest voran mit gegenwärtiger Technik,

löschst die Vergangenheit aus und beleihst schon die Zukunft.

Das Gericht der Geschichte wird dich von artspezifischer Arroganz vergiftet befinden, rücksichtslos voranschreitend ohne Hypokratischen Eid.

So dequalifiziert sich der Dequalifizierer, derweil ein Technik-Tsunami unsere

Fundamente erschüttert. Der multinationale Schlafwandler erklärt: >Wir sollten den Mut haben, unseren wahren Platz in der Evolutions-Hierarchie zu akzeptieren

-    nämlich Tiere, Menschen, nachsinguläre Systeme7<.

Nun verdunkelt sich der Himmel von zur Rast heimkehrenden Tauben und die Kanarienvögel der Minen8 fallen unbemerkt von ihren Stangen.

Dieser ferne Klang wird lauter.

Ist es die lebensbejahende Energie des Riverdance9

oder das Hufgeklapper der apokalyptischen Reiter?

Diese Musik, ist es die >Ode an die Freude<10 oder ist es die >Götterdämmmerung<11? Wo die Umarmung sich zu vornehmer Umklammerung verstärkt - wird der Verführer in schließlicher Täuschung flüstern: >Soll ich dich mit einem Sommertag vergleichen?<12

Anmerkungen des Übersetzers:

1Teilsystemausfall - engl. »graceful degradation« - steht für die Fähigkeit eines entsprechend gestalteten technischen Systems, seinen Betrieb trotz des Ausfalls einzelner Funktionen aufrecht erhalten zu können

(Beispiel: internet).

2Frederick Winslow Taylor, Urheber »wissenschaftlicher Betriebsführung«, die durch Trennung von Planung und Ausführung bestmögliche Arbeitsleistung gewährleisten soll.

3Die Ökonomen Joseph Schumpeter und Nikolai Kondratjew haben »lange Wellen« wirtschaftlicher entwicklung untersucht; der kanadische unternehmensberater und Autor Malcolm gladwell hat in seinem Bestseller »The Tipping Point - How Little Things Can Make a Big Difference« das Zustandekommen und Funktionieren von Trends und Trendwenden beschrieben.

4Greift John von Neumanns Begriff der »Technological Singularity« sowie Ray Kurzweils Thesen in »The Singularity is Near« auf; Singularität bezeichnet dabei den Zeitpunkt (in schon naher Zukunft), jenseits dessen die sich beschleunigt steigernde Leistung von systemen »künstlicher intelligenz« angeblich das Fassungsvermögen menschlicher intelligenz übertrifft.

5Gemeint sind etwa fortgeschrittene Roboter.

6Eine Anspielung auf die von Flugkapitän Sullenberger gemeisterte Notwasserung eines US Airways Jets auf dem Hudson in New York im Jahre 2008.

7siehe oben Fußnote 4.

8Kanarienvögel gelten als sehr empfindsam für erhöhte Methan- und Kohlenmonoxidkonzentrationen und wurden daher in frühen Bergwerken als »Frühwarneinrichtungen« eingesetzt.

9Ein irischer Schautanz.

10  Ein Gedicht von Schiller, von Beethoven in der 9. Symphonie vertont.

11   »Twilight of the Gods«, ein Songtitel der schwedischen Band Bathory.

12 Anfangszeile von Shakespeares Sonett 18.

Industrie 4.0 oder die beste aller Welten

 

Große Visionen künftiger Produktion beherrschen derzeit wieder die deutsche Wirtschaft, Wissenschaft und Politik. Das belegen das gerade verkündete BMBF-Programm „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ als Baustein einer „High-Tech Strategie“ und unzählige Medienberichte über Industrie 4.0. Ziel ist die ressourceneffiziente Modernisierung der Industrie als einer tragenden Säule der Wirtschaft durch „digitale Verfeinerung der Produktionstechnik“. Produktionsprozesse sollen „anpassungsfähig und dynamisch“ gestaltet werden mittels weltweit vernetzter „Cyber-physische Systeme (CPS)“ aus ,intelligenten‘ Maschinen, Werkstücken, Lagersystemen und Betriebsmitteln, die selbsttätig, in „dezentraler Selbstorganisation“, Daten austauschen und wechselseitig Aktionen auslösen.

Dazu sollen „autonome Software-Agenten“ miteinander interagieren, um durch koordinierte Aktionen gestellte Aufgaben gemeinsam zu erledigen (sog. ,Multiagentensysteme‘, auch: ,verteilte künstliche Intelligenz‘). Gerne wird dabei auf spektakuläre, aber aufwendige und eng spezialisierte Computerleistungen wie Googles selbstfahrendes Auto oder den Ratespiel-Gewinner Watson von IBM verwiesen. Abgesehen vom verschwiegenen riesigen Entwicklungsaufwand wird aber grundsätzlich übersehen, dass Software-Agenten nichts anderes tun als durch Algorithmen berechenbare Funktionen auszuführen. Mithin kann ihnen zielorientiertes, kooperatives Verhalten nur durch Programme – mittels Nutzenfunktionen, Lernverfahren, Verhaltensrepertoires und geteilten ,Ontologien‘ – vorgeschrieben werden. Gleichwohl wird die maschinelle Welt der Daten und Funktionen unzulässigerweise mit der sozialen Welt von Bedeutungen, Intentionalität und Reflexion gleichgesetzt. Programmiertes automatisches Verhalten von Maschinen unterscheidet sich aber grundlegend von intentionalem, autonomem Handeln von Menschen.

Das erinnert doch sehr an den technikeuphorischen Überschwang der 1980er Jahre, als mit CIM (Computer-Integrated Manufacturing) in Gestalt daten- und funktionsintegrierter, sog. ,wissensbasierter Systeme‘ die Vision der flexibel automatisierten, menschenleeren Fabrik zu realisieren versucht wurde – ein freilich kläglich gescheitertes Unterfangen. Soviel scheint man immerhin gelernt zu haben: Ganz auf den Menschen verzichten will man künftig nicht. Allerdings bleibt in den Visionen von Industrie 4.0 gänzlich unreflektiert und unklar, wie es Menschen eigentlich gelingen soll, mit zwar deterministisch, aber geschichtsabhängig operierenden, daher analytisch nicht bestimmbaren und undurchschaubaren Multiagentensystemen produktiv zusammenzuwirken?

Das führt direkt zu einer zentralen Weichenstellung: Statt immer wieder neu zu versuchen, menschliche Fähigkeiten durch Systeme ,künstlicher Intelligenz‘ nachzuahmen und zu ersetzen (AI-Perspektive: ,artificial intelligence‘), erweist es sich ebenso oft als weit erfolgreicher, technische Artefakte so zu entwickeln, dass sie als gebrauchstauglich gestaltete Arbeitsmittel das menschliche Arbeitsvermögen erweitern und produktiver machen (IA-Perspektive: ,intelligence amplification‘). Eben dies lehrt die bisherige Geschichte vorherrschender Entwicklung und überwiegenden Gebrauchs von Computersystemen in Produktion und Dienstleistungen. Mit Blick auf das neue Programm bleibt daher zu wünschen, dass sich genügend kompetente Akteure finden, es der zweiten Perspektive folgend zu verwirklichen.

Weitere Einzelheiten und Hinweise finden sich auf den Folien zum Vortrag:

Industrie 4.0 und Big Data. Kritische Reflexion forschungspolitischer Visionen.

Kontakte zur Redaktion

Hinweise und Hilfen

LegetøjBabytilbehørLegetøj og Børnetøj