Sie sind hier:Startseite»Kolumnen»Kolumne Peter Brödner»Peter Brödner: Eine neue Invasion der Robbies?

Peter Brödner: Eine neue Invasion der Robbies?

Gerade wieder wird - so etwa jüngst auch im Spiegel Nr. 9/2015 - die Vision heraufbeschworen, dass eine neue Generation autonomer, lernfähiger Roboter und sog. »Multiagentensysteme« unsere Fabriken bevölkern wird. Miteinander vernetzt, sollen sie sich mittels kooperierender Interaktion zu »verteilter künstlicher Intelligenz« aufschwingen und veränderliche, komplexe Produktionsaufgaben bewältigen. Mit der Vorstellung solcher »intelligenter« Maschinen-Schwärme des »zweiten Maschinenzeitalters« (Brynjolfsson und McAfee) werden längst totgeglaubte Gespenster wieder belebt und Gefahren für Arbeit und Beschäftigung heraufbeschworen.

Visionäre wie Apokalyptiker leiden freilich darunter, gegen Fakten immun zu sein. So werden stets aufs Neue technische Fähigkeiten übertrieben und fundamentale Unterschiede zwischen zwar anpassungsfähigem, aber algorithmisch determiniertem Verhalten digital gesteuerter Maschinen und autonom intentionalem Handeln von Menschen ignoriert. In positivistisch verengter Interpretation von »Embodiment« werden Roboter und »Multiagentensysteme« umstandslos mit lebendigen und einfühlsamen, zu Empatie und Reflexion ihres kontextbezogenen Erlebens und Handelns fähigen Körpern von Menschen gleichgesetzt. Übersehen wird dabei die naturwissenschaftlich begründete Differenz deterministischen Verhaltens zu intentional gesteuertem, Sinn erzeugendem menschlichen Handeln und Verstehen im Kontext sozialer Praxis.

Paradoxerweise beruhen die heute möglichen, gelegentlich verblüffend »intelligent« erscheinenden Computerleistungen (z.B. beim Schachspielen oder beim selbstfahrenden Auto) - trotz jahrzehntelanger Forschung über »künstliche Intelligenz« - gar nicht auf deren Konzepten, sondern einzig und allein auf enorm gesteigerter Rechenleistung nach dem »Mooresches Gesetz«. Sie erlaubt, umfangreiche, einsichtsvoll und aufgaben­angemessen implementierte Heuristiken mit schnellem Zugriff auf sehr große Bestände kodifizierten Wissens zu verarbeiten (sog. »Brute-force«-Methoden). Intelligent sind nicht die algorithmisch determinierten Computer, sondern deren Programmierer, die diese Möglichkeiten zur Bewältigung jeweils sehr spezifischer Aufgaben zu nutzen verstehen.

Die Verkennung dieser Unterschiede wirft aber beträchtliche Probleme auf, sobald Menschen mit derartigen Systemen interagieren müssen. Als »nicht-triviale« Maschinen weisen Multiagentensysteme zwar ein deterministisches, aber emergentes, hoch komplexes und von außen nicht mehr bestimmbares oder vorhersehbares Verhalten auf. Wie aber sollen Menschen sich solche Systeme aneignen, wie mit ihnen zweckmäßig und zielgerichtet interagieren, wenn diese sich in vergleichbaren Situationen jeweils anders und unerwartet verhalten? Das wäre verstieße eklatant gegen einen Grundsatz der Mensch-Maschine-Interaktion, gegen die Forderung nach erwartungskonformem Verhalten. Zugleich würden auf Seiten der Nutzer stets aufs Neue überzogene Erwartungen an die »Handlungsfähigkeit« der Systeme geschürt. Konfrontiert mit diesen Widersprüchen, unter dem Erwartungsdruck erfolgreicher Bewältigung ihrer Aufgaben einerseits und angesichts des Verlusts der Kontrolle über Arbeitsmittel mit undurchschaubarem Verhalten andererseits, würden sie unter dauerhaften psychischen Belastungen und erlernter Unfähigkeit zu leiden haben.

Darüber hinaus werfen Entwicklung und Gebrauch von Multiagentensystemen gewichtige, bislang freilich weitgehend ignorierte ethische Fragen auf: Dürfen Systeme mit derart undurchschaubarem Verhalten überhaupt von der Leine gelassen werden? Wie lässt sich dabei ein hinreichend sicherer Betrieb gewährleisten? Wer ist für allfälliges Fehlverhalten und mögliche Schäden verantwortlich und haftbar zu machen? Sind es die Entwickler oder aber die Betreiber (oder gar die Benutzer) der Systeme? Und wie lässt sich das ggf. nachweisen? Wer haftet bei Schäden als Folge unglücklicher Verkettung äußerer Umstände, wenn das System als solches funktioniert, wie es soll? Und ferner: Wie steht es eigentlich um die Sicherung der in der »smarten Fabrik« in großer Fülle anfallenden hoch sensiblen produkt- wie produktionsbezogenen Daten gegen alltägliche »Cyber-Attacken«?

Aktuell gewinnen diese Fragen an Brisanz, etwa im Kontext von Experimenten mit selbstfahrenden Autos. Es ist gut möglich, dass Entwicklung und Einsatz der als Heilsbringer angekündigten »verteilten künstlichen Intelligenz« letztlich an unzureichenden Antworten scheitert. Dabei gibt es gerade auch unter den neuen technischen Optionen die ebenso bewährte wie zukunftsweisende Alternative der Stärkung des lebendigen Arbeitsvermögens, der »Intelligenzverstärkung« durch gute Arbeit mittels dauerhaft kompetenzerhaltender und lernförderlicher Arbeitsaufgaben, durchschau- und beherrschbarer, aufgabenangemessen gestalteter Arbeitsmittel mit erwartungskonformem Verhalten sowie ausreichende Zeitressourcen zu deren Aneignung.