Zur Kritik der »4. industriellen Revolution«

 
 
(1) Im Gegensatz zu den Trompetenstößen der Revolutions-Propagandisten hat es in den letzten 20 Jahren in der KI-Forschung keinerlei konzeptionellen Fortschritt gegeben, die gelegentlich verblüffenden Computerleistungen (Schach- bzw. Go-Weltmeister, selbstfahrendes Auto, Muster- und Spracher¬kennung etc.) beruhen ausschließlich auf der exponentiell gesteigerten Rechen- und Speicherleistung der Hardware. Das ist auch kein Wunder, denn Computer tun nichts anderes, als per Algorithmus berechenbare Funktionen auszuführen; daran ändert auch das sog. »maschinelle Lernen« (z.B. von MAS) nichts, denn dabei handelt es sich nicht um ein uns Menschen mögliches Lernen durch Reflexion, sondern um die von Umweltsignalen abhängige, algorithmisch gesteuerte Anpassung von Berechnungsparametern, die irreführend und vermenschlichend als »Lernen« bezeichnet wird. Intelligent und lernfähig sind nicht die Systeme, sondern ihre Programmierer, die die Algorithmen entwerfen.
(2) Auch der heute ubiquitär gewordene Begriff der »Digitalisierung« vernebelt mehr als er erhellt. Sein heutiger (von seinem technischen Ursprung der Umwandlung analoger in digitale Signale abweichender) Sinn und Gebrauch suggeriert ebenfalls, dass es um etwas revolutionär Neues geht - weit gefehlt: Seit Erfindung der Schrift sind wir es gewohnt mit dauerhaften Zeichen(trägern) umzugehen, mit dem Buchstaben-Druck gelingt es, die Zeichen(träger) massenhaft zu verbreiten, mit Computern, sie algorithmisch zu manipulieren, und mit dem Internet haben wir nun ein »instrumentelles Medium«, das in einem technischen Artefakt vereint erlaubt, sie sowohl instrumentell zu manipulieren als auch weltweit zu verbreiten und dauerhaft zu speichern - das war's und das gibt's nun alles schon seit 40 Jahren. Neu ist heute eben nur die enorm gesteigerte Rechnerleistung, die in der Welt komplexer Zeichenprozesse vieles bislang Unmögliche möglich macht. Der Preis, den wir dafür zu zahlen haben, ist freilich, die immer komplexeren Zeichenprozesse in unserer Praxis des Stoffwechsels und sozialen Interaktion zuvor zu standardisieren und zu formalisieren, sie in das Prokrustesbett der Berechenbarkeit zu zwängen. Zugleich wird eben damit ein wirkmächtiges Herrschaftsinstrument geschaffen, das sich trefflich ge- und missbrauchen lässt. Logisch und sachlich zwingende Voraussetzung für all das ist allerdings die fortschreitende Genese expliziten, in Zeichen gefassten Wissens über die physische und soziale Welt, die Verwissenschaftlichung von (Re-)Produktion, gewissermaßen die Verdoppelung von Welt in Zeichen, in Gestalt ihrer zeichenförmigen Beschreibungen und Erklärungen. - Dementsprechend wäre es mithin angemessener, in diesem Kontext von Computerisierung (statt von Digitalisierung) zu sprechen.
(3) Das Stufenmodell der 4 »industriellen Revolutionen« suggeriert große qualitative Sprünge, wo es sich in Wahrheit um fortlaufende inkrementell-evolutionäre Entwicklung handelt (die natürlich nie endet). Dabei leugnen die Propagandisten die wesentliche Tatsache, dass die Gestaltung der Computersysteme selbst schon - wie übrigens auch ihre Aneignung für

praktisch wirksamen Gebrauch - Ergebnis sozialer Interessen und Bedürfnisse ist (vgl. Bild 1).

 Technikentwicklung

Eben dieses, die wissensbasierte Gestaltung und die Aneignung für praktisch wirksamen Gebrauch, erfordern mit der Komplexität des Wissens und der Artefakte wachsendes Können oder Arbeitsvermögen, das sich im Prozess der Aneignung der Artefakte (und des Wissens) selbst noch erweitert. Diese von mir stets betonten Zusammenhänge, insbesondere die These von der im Zuge von Verwissenschaftlichung ständig wachsenden Bedeutung des Arbeitsvermögens, werden nun durch die von Michael Vester vorgetragenen Mikrozensus-Daten nochmals eindringlich belegt (vgl.Bild 2).

Qualifikation und Einkommen 1991 2009


(4) Im Unterschied zu stoffumwandelnden Artefakten (z.B. Werkzeugma¬schinen), deren Wirkbereich die Natur ist, die folglich Natureffekte und -kräfte zu nutzen erlauben und eben dadurch die Arbeitsproduktivität zu steigern vermögen, beruht der Einsatz von Computern allein auf der Standardisierung, Formalisierung und Modellierung von Zeichenprozessen, ihr Wirkbereich ist die Welt der Zeichen, insbesondere der sozialen Interaktion und Koordination kollektiven Handelns (im Falle eingebetteter Systeme auch die zweckmäßige Steuerung von Naturprozessen aufgrund von deren wissensbasierter Beschreibung durch Zeichen). Eine Steigerung der Arbeitsproduktivität im Bereich sozialer Interaktion und Koordination ist daher nur möglich, wenn durch den Einsatz von Computersystemen die zugrunde liegenden Zeichenprozesse restrukturiert und effektiver organisiert werden können -»Software ist Orgware« (vgl. Bild 3, oben rechts).

Arbeitsproduktivität


(5) Das widerlegt eindeutig schon aus theoretischer Einsicht die unhaltbaren Thesen des ISF (Boes et al.) vom Gebrauch des Internets als »Produktivkraftsprung« und der Entstehung einer »neuen Handlungsebene«. Sie werden zudem auch empirisch eindrücklich falsifiziert durch das »Produktivitätsparadoxon der IT«, den säkularen Niedergang der Arbeitsproduktivität in allen entwickelten Gesellschaften, trotz Jahrzehnte währender massiver Computerisierung, die inzwischen nahezu alle Arbeits- und Interaktionsprozesse durchdringt, eben gerade auch zeichenbasierte Dientsleistungen (vgl. Bild 3). Mithin sind auch alle daraus abgeleiteten Erkenntnisse als reine Mythologie hinfällig.
Als Fazit für politisches Handeln sind daraus u.a. folgende Schlüsse zu ziehen: Weit wirkmächtiger als die Erschließung weiterer Felder der Computerisierung - die es selbstredend im einzelnen mitzugestalten gilt - sind Fragen der Arbeitsorganisation und der institutionellen Bedingungen von Arbeit und Wertschöpfung. Gute Arbeit und soziale Sicherung bilden nach wie vor, gerade in Zeiten großer Veränderungsdynamik und Unsicherheit, das Hauptfeld der Auseinandersetzung, wobei die Entfaltung von Arbeitsvermögen als Kernbestandteil guter Arbeit und eigentlicher Quelle von Leistungsfähigkeit ein zentrales Ziel sein muss. Zugleich entstehen mit der lückenlos datengestützten Prozessüberwachung aber auch nie dagewesene Möglichkeiten minutiöser und totaler - freilich grundgesetzwidriger - persönlicher Leistungsvergleiche und Verhaltenskontrolle, die es zu verhindern gilt. Die derzeit verbreitete Panikmache mit apokalyptischen Szenarien der Verdrängung lebendiger Arbeit durch Computer ist in diesem Kontext nur ein willkommenes (freilich realitätsfernes) Ablenkungsmanöver

Insulting Machines (Kränkende Maschinen )

Für die Sonderausgabe »A Faustian Exchange« zum 25-järigen Geburtstag des internationalen Journals AI & Society hat Mike Cooley ein Gedicht verfasst, in dem er mit eindringlichen Worten und Metaphern die grotesken Absurditäten gegenwärtiger technischer Entwicklungen zur Sprache bringt. Wer könnte das wirksamer tun als dieser technisch gebildete Sprachvirtuose irischer Herkunft?

In Anbetracht der Ausrufung des »zweiten Maschinenzeitalters« (Brynjolfsson & McAfee), der Ankündigung einer »vierten industriellen Revolution« und des Hypes um Big Data gewinnt das Gedicht noch zusätzlich an Bedeutung als Stein des (Denk-)Anstoßes. Daher habe ich mir die (am Ende weit unterschätzte) Mühe gemacht, sein außergewöhnliches Poem ins Deutsche zu übertragen. Das Ergebnis finden Sie weiter unten.

Zu Mike Cooley

  • In den späten 1970er und frühen 1980er Jahren leitender Konstrukteur bei dem britischen Rüstungskonzern Lucas Aerospace,
  • zugleich Vorsitzender der Techniker-Gewerkschaft TASS in diesem Bereich,
  • Autor von »Architect or Bee« (»Architekt oder Biene«, 1980) und eine zentrale Figur einer breiten Arbeitnehmer-Initiative zur Rüstungskonversion zwecks Erhalt von Arbeitsplätzen (»Produkte für das Leben statt Waffen für den Tod«),
  • Träger des alternativen Nobelpreises 1981 (" Right Livelihood Award") 

 

Weitere Informationen auf Wickipedia „ Mike Cooley“

             

Übersetzung des Gedichts

Insulting Machines (Kränkende Maschinen )

       von Mike Cooley

Träger des Alternativen Nobelpreises

Übersetzung: Peter Brödner

 

Leider ist nämlich anzunehmen, dass für viele heutige Leser die damalige Zeit längst im Dunkel der Geschichte versunken ist und sie daher mangels Kontextwissens überhaupt nichts verstehen, insbesondere nicht diefundamentale Differenz zwischen Baumeister und Biene (als Metapher für die programmierte Maschine). Dabei gibt es viele Zusammenhänge der damaligen mit den heutigen Krisenzeiten zu entdecken.


Insulting Machines

By Mike Cooley

It is a graceful degradation, bristling with paths not taken Supercharged by Taylor's one best way with all the zeal of the monotheist

Where Schumpeter shoves, Kondratiev waves and Gladwell points

All in hot pursuit of singularity.

Behold the strange phyla as they stalk their makers

They too can walk, feed, talk and - some say - think.

We create devices and then they create us.

Narcissus-like, we gaze into a pool of technology and see ourselves. We acquiesce in our own demise, setting out as participants and metamorphosing into victims.

The diagnosis is serious: a rapidly spreading species' loss of nerve Tacit knowledge is demeaned whilst propositional knowledge is revered. Who needs imagination when there are facts?

A human enhancing symbiosis ignored

whilst a dangerous convergence proceeds apace - as human beings confer life on machines and in so doing diminish themselves.

Your calculus may be greater than his calculus but will it pass the Sullenberger Hudson river test? Meantime, the virtual is confused with the real

-    as parents lavish attention on the virtual child whilst their real child dies of neglect and starvation.

Potential and reality are torn apart as change is confused with progress With slender knowledge of deep subjects

-    you proceed with present tense technology, obliterating the past and with the future already mortgaged.

The court of history may find you intoxicated with species arrogance recklessly proceeding without a Hippocratic Oath.

Thus the deskiller is deskilled, as a tsunami of technology rocks our foundations. The multinational apologist solemnly declares "We should have the courage to accept our true place in the evolutionary hierarchy

-    namely animals, humans and post singularity systems". Now the sky darkens with pigeons coming home to roost and the mine canaries topple from their perches unnoticed.

That distant sound grows louder.

Is it the life affirming energy of Riverdance

or the clacking hooves of the Four Horsemen?

That music, is it >Ode to Joy< or is it >Twilight of the Gods?<

As the embrace tightens into genteel strangulation - will the seducer

in final deception whisper >Shall I compare thee to a Summer's day?<

Erschienen in AI & Society 28 (4) 2013, p. 100-101


Kränkende Maschinen

Von Mike Cooley

Es ist ein Teilsystemausfall1, strotzend von verfehlten Pfaden, aufgeladen durch Taylors2 einzig besten Weg mit allem Eifer des Monotheisten.

Wo Schumpeter-Schübe, Kondratjew-Wellen und Gladwell-Wendepunkte3

alle der Singularität4 auf den Fersen sind.

Betrachte die fremden Stämme5, wie sie ihre Züchter belauern.

Auch sie können gehen, fressen, sprechen und - wie manche sagen - denken.

Wir machen Geräte und dann machen diese uns.

Narziss gleich starren wir in den Teich der Technik und sehen uns selbst.

Wir nehmen unseren eigenen Niedergang hin, als Wegbegleiter, die zu Opfern werden.

Die Diagnose ist ernst: Eine sich rasch ausbreitende Art verliert den Verstand.

Könnerschaft wird gering geschätzt, propositionales Wissen hochachtet.

Wer braucht noch Vorstellungskraft, wo es Fakten gibt?

Eine Menschen befähigende Symbiose wird geleugnet,

während gefährliche Konvergenz rasch vorankommt - indem Menschen

Leben auf Maschinen übertragen und sich so erniedrigen.

Deine Berechnung mag besser sein als seine,

aber wird sie den Sullenberger Hudson River Test 6 bestehen?

Derweil wird das Virtuelle mit dem Realen verwechselt

-    indem Eltern virtuelle Kinder mit Aufmerksamkeit überschütten, während ihr reales Kind stirbt vor Vernachlässigung und Hunger.

Möglichkeit und Wirklichkeit werden getrennt, wenn Wandel mit Fortschritt

verwechselt wird.

Mit dürftiger Kenntnis schwieriger Zusammenhänge

-    du schreitest voran mit gegenwärtiger Technik,

löschst die Vergangenheit aus und beleihst schon die Zukunft.

Das Gericht der Geschichte wird dich von artspezifischer Arroganz vergiftet befinden, rücksichtslos voranschreitend ohne Hypokratischen Eid.

So dequalifiziert sich der Dequalifizierer, derweil ein Technik-Tsunami unsere

Fundamente erschüttert. Der multinationale Schlafwandler erklärt: >Wir sollten den Mut haben, unseren wahren Platz in der Evolutions-Hierarchie zu akzeptieren

-    nämlich Tiere, Menschen, nachsinguläre Systeme7<.

Nun verdunkelt sich der Himmel von zur Rast heimkehrenden Tauben und die Kanarienvögel der Minen8 fallen unbemerkt von ihren Stangen.

Dieser ferne Klang wird lauter.

Ist es die lebensbejahende Energie des Riverdance9

oder das Hufgeklapper der apokalyptischen Reiter?

Diese Musik, ist es die >Ode an die Freude<10 oder ist es die >Götterdämmmerung<11? Wo die Umarmung sich zu vornehmer Umklammerung verstärkt - wird der Verführer in schließlicher Täuschung flüstern: >Soll ich dich mit einem Sommertag vergleichen?<12

Anmerkungen des Übersetzers:

1Teilsystemausfall - engl. »graceful degradation« - steht für die Fähigkeit eines entsprechend gestalteten technischen Systems, seinen Betrieb trotz des Ausfalls einzelner Funktionen aufrecht erhalten zu können

(Beispiel: internet).

2Frederick Winslow Taylor, Urheber »wissenschaftlicher Betriebsführung«, die durch Trennung von Planung und Ausführung bestmögliche Arbeitsleistung gewährleisten soll.

3Die Ökonomen Joseph Schumpeter und Nikolai Kondratjew haben »lange Wellen« wirtschaftlicher entwicklung untersucht; der kanadische unternehmensberater und Autor Malcolm gladwell hat in seinem Bestseller »The Tipping Point - How Little Things Can Make a Big Difference« das Zustandekommen und Funktionieren von Trends und Trendwenden beschrieben.

4Greift John von Neumanns Begriff der »Technological Singularity« sowie Ray Kurzweils Thesen in »The Singularity is Near« auf; Singularität bezeichnet dabei den Zeitpunkt (in schon naher Zukunft), jenseits dessen die sich beschleunigt steigernde Leistung von systemen »künstlicher intelligenz« angeblich das Fassungsvermögen menschlicher intelligenz übertrifft.

5Gemeint sind etwa fortgeschrittene Roboter.

6Eine Anspielung auf die von Flugkapitän Sullenberger gemeisterte Notwasserung eines US Airways Jets auf dem Hudson in New York im Jahre 2008.

7siehe oben Fußnote 4.

8Kanarienvögel gelten als sehr empfindsam für erhöhte Methan- und Kohlenmonoxidkonzentrationen und wurden daher in frühen Bergwerken als »Frühwarneinrichtungen« eingesetzt.

9Ein irischer Schautanz.

10  Ein Gedicht von Schiller, von Beethoven in der 9. Symphonie vertont.

11   »Twilight of the Gods«, ein Songtitel der schwedischen Band Bathory.

12 Anfangszeile von Shakespeares Sonett 18.

Industrie 4.0 oder die beste aller Welten

 

Große Visionen künftiger Produktion beherrschen derzeit wieder die deutsche Wirtschaft, Wissenschaft und Politik. Das belegen das gerade verkündete BMBF-Programm „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ als Baustein einer „High-Tech Strategie“ und unzählige Medienberichte über Industrie 4.0. Ziel ist die ressourceneffiziente Modernisierung der Industrie als einer tragenden Säule der Wirtschaft durch „digitale Verfeinerung der Produktionstechnik“. Produktionsprozesse sollen „anpassungsfähig und dynamisch“ gestaltet werden mittels weltweit vernetzter „Cyber-physische Systeme (CPS)“ aus ,intelligenten‘ Maschinen, Werkstücken, Lagersystemen und Betriebsmitteln, die selbsttätig, in „dezentraler Selbstorganisation“, Daten austauschen und wechselseitig Aktionen auslösen.

Dazu sollen „autonome Software-Agenten“ miteinander interagieren, um durch koordinierte Aktionen gestellte Aufgaben gemeinsam zu erledigen (sog. ,Multiagentensysteme‘, auch: ,verteilte künstliche Intelligenz‘). Gerne wird dabei auf spektakuläre, aber aufwendige und eng spezialisierte Computerleistungen wie Googles selbstfahrendes Auto oder den Ratespiel-Gewinner Watson von IBM verwiesen. Abgesehen vom verschwiegenen riesigen Entwicklungsaufwand wird aber grundsätzlich übersehen, dass Software-Agenten nichts anderes tun als durch Algorithmen berechenbare Funktionen auszuführen. Mithin kann ihnen zielorientiertes, kooperatives Verhalten nur durch Programme – mittels Nutzenfunktionen, Lernverfahren, Verhaltensrepertoires und geteilten ,Ontologien‘ – vorgeschrieben werden. Gleichwohl wird die maschinelle Welt der Daten und Funktionen unzulässigerweise mit der sozialen Welt von Bedeutungen, Intentionalität und Reflexion gleichgesetzt. Programmiertes automatisches Verhalten von Maschinen unterscheidet sich aber grundlegend von intentionalem, autonomem Handeln von Menschen.

Das erinnert doch sehr an den technikeuphorischen Überschwang der 1980er Jahre, als mit CIM (Computer-Integrated Manufacturing) in Gestalt daten- und funktionsintegrierter, sog. ,wissensbasierter Systeme‘ die Vision der flexibel automatisierten, menschenleeren Fabrik zu realisieren versucht wurde – ein freilich kläglich gescheitertes Unterfangen. Soviel scheint man immerhin gelernt zu haben: Ganz auf den Menschen verzichten will man künftig nicht. Allerdings bleibt in den Visionen von Industrie 4.0 gänzlich unreflektiert und unklar, wie es Menschen eigentlich gelingen soll, mit zwar deterministisch, aber geschichtsabhängig operierenden, daher analytisch nicht bestimmbaren und undurchschaubaren Multiagentensystemen produktiv zusammenzuwirken?

Das führt direkt zu einer zentralen Weichenstellung: Statt immer wieder neu zu versuchen, menschliche Fähigkeiten durch Systeme ,künstlicher Intelligenz‘ nachzuahmen und zu ersetzen (AI-Perspektive: ,artificial intelligence‘), erweist es sich ebenso oft als weit erfolgreicher, technische Artefakte so zu entwickeln, dass sie als gebrauchstauglich gestaltete Arbeitsmittel das menschliche Arbeitsvermögen erweitern und produktiver machen (IA-Perspektive: ,intelligence amplification‘). Eben dies lehrt die bisherige Geschichte vorherrschender Entwicklung und überwiegenden Gebrauchs von Computersystemen in Produktion und Dienstleistungen. Mit Blick auf das neue Programm bleibt daher zu wünschen, dass sich genügend kompetente Akteure finden, es der zweiten Perspektive folgend zu verwirklichen.

Weitere Einzelheiten und Hinweise finden sich auf den Folien zum Vortrag:

Industrie 4.0 und Big Data. Kritische Reflexion forschungspolitischer Visionen.

Peter Brödner: Eine neue Invasion der Robbies?

 

Gerade wieder wird - so etwa jüngst auch im Spiegel Nr. 9/2015 - die Vision heraufbeschworen, dass eine neue Generation autonomer, lernfähiger Roboter und sog. »Multiagentensysteme« unsere Fabriken bevölkern wird. Miteinander vernetzt, sollen sie sich mittels kooperierender Interaktion zu »verteilter künstlicher Intelligenz« aufschwingen und veränderliche, komplexe Produktionsaufgaben bewältigen. Mit der Vorstellung solcher »intelligenter« Maschinen-Schwärme des »zweiten Maschinenzeitalters« (Brynjolfsson und McAfee) werden längst totgeglaubte Gespenster wieder belebt und Gefahren für Arbeit und Beschäftigung heraufbeschworen.

Visionäre wie Apokalyptiker leiden freilich darunter, gegen Fakten immun zu sein. So werden stets aufs Neue technische Fähigkeiten übertrieben und fundamentale Unterschiede zwischen zwar anpassungsfähigem, aber algorithmisch determiniertem Verhalten digital gesteuerter Maschinen und autonom intentionalem Handeln von Menschen ignoriert. In positivistisch verengter Interpretation von »Embodiment« werden Roboter und »Multiagentensysteme« umstandslos mit lebendigen und einfühlsamen, zu Empatie und Reflexion ihres kontextbezogenen Erlebens und Handelns fähigen Körpern von Menschen gleichgesetzt. Übersehen wird dabei die naturwissenschaftlich begründete Differenz deterministischen Verhaltens zu intentional gesteuertem, Sinn erzeugendem menschlichen Handeln und Verstehen im Kontext sozialer Praxis.

Paradoxerweise beruhen die heute möglichen, gelegentlich verblüffend »intelligent« erscheinenden Computerleistungen (z.B. beim Schachspielen oder beim selbstfahrenden Auto) - trotz jahrzehntelanger Forschung über »künstliche Intelligenz« - gar nicht auf deren Konzepten, sondern einzig und allein auf enorm gesteigerter Rechenleistung nach dem »Mooresches Gesetz«. Sie erlaubt, umfangreiche, einsichtsvoll und aufgaben­angemessen implementierte Heuristiken mit schnellem Zugriff auf sehr große Bestände kodifizierten Wissens zu verarbeiten (sog. »Brute-force«-Methoden). Intelligent sind nicht die algorithmisch determinierten Computer, sondern deren Programmierer, die diese Möglichkeiten zur Bewältigung jeweils sehr spezifischer Aufgaben zu nutzen verstehen.

Die Verkennung dieser Unterschiede wirft aber beträchtliche Probleme auf, sobald Menschen mit derartigen Systemen interagieren müssen. Als »nicht-triviale« Maschinen weisen Multiagentensysteme zwar ein deterministisches, aber emergentes, hoch komplexes und von außen nicht mehr bestimmbares oder vorhersehbares Verhalten auf. Wie aber sollen Menschen sich solche Systeme aneignen, wie mit ihnen zweckmäßig und zielgerichtet interagieren, wenn diese sich in vergleichbaren Situationen jeweils anders und unerwartet verhalten? Das wäre verstieße eklatant gegen einen Grundsatz der Mensch-Maschine-Interaktion, gegen die Forderung nach erwartungskonformem Verhalten. Zugleich würden auf Seiten der Nutzer stets aufs Neue überzogene Erwartungen an die »Handlungsfähigkeit« der Systeme geschürt. Konfrontiert mit diesen Widersprüchen, unter dem Erwartungsdruck erfolgreicher Bewältigung ihrer Aufgaben einerseits und angesichts des Verlusts der Kontrolle über Arbeitsmittel mit undurchschaubarem Verhalten andererseits, würden sie unter dauerhaften psychischen Belastungen und erlernter Unfähigkeit zu leiden haben.


Darüber hinaus werfen Entwicklung und Gebrauch von Multiagentensystemen gewichtige, bislang freilich weitgehend ignorierte ethische Fragen auf: Dürfen Systeme mit derart undurchschaubarem Verhalten überhaupt von der Leine gelassen werden? Wie lässt sich dabei ein hinreichend sicherer Betrieb gewährleisten? Wer ist für allfälliges Fehlverhalten und mögliche Schäden verantwortlich und haftbar zu machen? Sind es die Entwickler oder aber die Betreiber (oder gar die Benutzer) der Systeme? Und wie lässt sich das ggf. nachweisen? Wer haftet bei Schäden als Folge unglücklicher Verkettung äußerer Umstände, wenn das System als solches funktioniert, wie es soll? Und ferner: Wie steht es eigentlich um die Sicherung der in der »smarten Fabrik« in großer Fülle anfallenden hoch sensiblen produkt- wie produktionsbezogenen Daten gegen alltägliche »Cyber-Attacken«?

Aktuell gewinnen diese Fragen an Brisanz, etwa im Kontext von Experimenten mit selbstfahrenden Autos. Es ist gut möglich, dass Entwicklung und Einsatz der als Heilsbringer angekündigten »verteilten künstlichen Intelligenz« letztlich an unzureichenden Antworten scheitert. Dabei gibt es gerade auch unter den neuen technischen Optionen die ebenso bewährte wie zukunftsweisende Alternative der Stärkung des lebendigen Arbeitsvermögens, der »Intelligenzverstärkung« durch gute Arbeit mittels dauerhaft kompetenzerhaltender und lernförderlicher Arbeitsaufgaben, durchschau- und beherrschbarer, aufgabenangemessen gestalteter Arbeitsmittel mit erwartungskonformem Verhalten sowie ausreichende Zeitressourcen zu deren Aneignung.

Kontakte zur Redaktion

Hinweise und Hilfen

Impressum

LegetøjBabytilbehørLegetøj og Børnetøj