Wer haftet für die Taten unserer autonomen Maschinen? Erst wenn sie in der Lage sind, ihre Entscheidungen selbst zu rechtfertigen, tragen Roboter Verantwortung
Mit seiner Dissertation Automaten als Träger von Rechten (Logos Verlag) hat der Berliner Philosoph Andreas Matthias ein Plädoyer für eine Änderung der bestehenden Gesetzeslage veröffentlicht. Sein Ausgangspunkt ist die These, dass die immer weiter voranschreitende Entwicklung von Robotern in Zukunft zu „Verantwortungslücken“ führen wird, nämlich immer dann, wenn die Auswirkungen selbstgesteuerten Maschinenverhaltens zum Streitgegenstand werden.
Wie sind dann Haftungsfragen zu klären? Wäre es nicht am einfachsten, auch Robotern Rechte zu verleihen und ihnen zumindest in Teilen Verantwortung zu übertragen? Andreas Thiel hat in seiner Rezension in der FAZ mit Recht darauf hingewiesen, dass derartige Überlegungen dem
rtige Überlegungen dem Stand der Technik weit vorauseilen. Bei heutigen Robotern kann man froh sein, wenn sie eine Treppe emporsteigen oder einen Becher Kaffee greifen können; sie sind weit davon entfernt, ein höheres, für Verantwortung und Schuldfähigkeit auch nur annähernd ausreichendes Niveau zu besitzen.Anständige KampfroboterDaher wurden die damit verbundenen Fragen bisher am ehesten in Science-Fiction-Romanen thematisiert. Die vielleicht größte Bekanntheit haben dabei die drei „Robotergesetze“ von Isaac Asimov erlangt. Sie lieferten ihm den Hintergrund für zahlreiche Geschichten, in denen er die oft überraschenden Konsequenzen dieser Gesetze höchst anregend lebendig werden lässt. So führt beispielsweise sein erstes Robotergesetz – „Kein Roboter darf durch Ausführung oder Unterlassung von Handlungen Schaden an Menschen verursachen.“ – letzten Endes zu der Konsequenz, dass Roboter die Weltregierung anstreben müssen, um Menschen vor selbstgeführten Kriegen zu bewahren. Eine andere Geschichte verdeutlicht, dass sich die Konsequenzen einer Handlung niemals hinreichend umfassend vorhersehen lassen, um alle Schad- und Nutzwirkungen vollständig gegeneinander abwägen zu können.Diesen Fragen stellt man sich auch schon außerhalb von Science-Fiction. So hat bereits im Jahre 2007 die Regierung von Südkorea angekündigt, eine Kommission für die Erarbeitung einer „Roboterethik“ einzurichten. Inzwischen ist allerdings der angekündigte Termin für die Veröffentlichung der Kommissionsresultate verstrichen, ohne dass nähere Ergebnisse bekannt geworden wären.Auch unterhalb derart ehrgeiziger Vorhaben beginnen wir die Frage nach einer Verantwortungszuschreibung an hoch entwickelte technische Systeme in einzelnen konkreten Anwendungsfeldern bereits praktisch zu spüren. Besonders brisant ist die Frage für autonome Waffensysteme. Auch wenn die Entscheidung für das Auswählen von Zielen oder das Abfeuern einer Waffe bisher noch durch den Menschen getroffen wird, können wir der ernsthaften Diskussion über die „Automatisierbarkeit“ solcher Entscheidungen nach Ansicht des US-amerikanischen Roboterforschers Ron Arkin nicht länger ausweichen. Dabei hat er auch die Frage im Blick, ob Robotersysteme unter Bedingungen des Schlachtfeldeinsatzes am Ende sogar ein ethischeres Verhalten realisieren könnten, als dies menschlichen Soldaten unter Existenzbedrohung möglich ist.I Kein Roboter darf durch Ausführung oder Unterlassung von Handlungen Schaden an Menschen verursachen.*Aber auch in zivileren Anwendungsfeldern sehen wir uns mit der Frage nach „maschineller Entscheidung“ konfrontiert. Automatische Bremsassistenten im Auto können beispielsweise die „Schrecksekunde“ des menschlichen Fahrers weit unterbieten. Computersehsysteme sind nicht mehr weit von dem Punkt entfernt, an dem sie zuverlässig und reaktionsschnell vor Hindernissen in der Fahrbahn warnen können. Der potenziell segensreiche Zusammenschluss beider Systeme scheitert aber noch an der Haftungshürde: Wer möchte schon die Verantwortung für die Folgen der Entscheidungen eines technischen Systems übernehmen, wenn sich die Vielfalt der Gefahrensituationen, in denen es reagieren muss, nicht überschauen lässt?Die Bereitschaft, für solche Systeme „zu bürgen“, erfordert in der Regel die sichere Überzeugung, dass sie keinen Schaden anrichten werden. Für technische Systeme wurde eine solche Überzeugung bisher in der Regel durch eine genaue Vorausanalyse ihrer Verhaltensmöglichkeiten gewonnen. Diese Methode ist aber für wirklich leistungsfähige autonome Systeme nicht mehr anwendbar. Diese Systeme sollen uns ja gerade von vielen Entscheidungsdetails entlasten und müssen dazu weit über den Determinismus „analysierbarer Uhrwerke“ hinausgehen. Dadurch aber entweichen sie unweigerlich ein Stück unserer Kontrolle und Vorhersagbarkeit: ein unvermeidlicher Preis für ein Stück Autonomie.Im Prinzip beginnt dies bereits bei solch einfachen Dingen wie einem Würfel oder einem Roulettespiel, also lange bevor sich höhere Eigenschaften wie „Kognition“ geltend machen. Gelegentlich (z. B. bei der Seitenwahl per Münzwurf bei einem Fußballspiel) nutzen wir solch rudimentäre „Systeme“ sogar zur Entscheidungsfindung. Allerdings verbinden wir damit keine „Willensinstanz“ und daher weder Verantwortung noch Schuld. Erst unsere Vorstellung eines freien Willens verleiht unserer Idee von Verantwortung, Schuldfähigkeit und Moral eine Basis.Erkenntnisse der Neurowissenschaften haben in neuerer Zeit überraschend zu einer Hinterfragung der Existenz eines freien Willens und damit zu einer intensiven Debatte über die Grundlagen für die Verantwortungsfähigkeit des Menschen geführt. Der Einwand – arg vergröbert – besteht darin, dass uns die Naturwissenschaft mehr oder weniger zu zwingen scheint, alle unsere Willensakte letztlich als „emergentes Ergebnis“ des Zusammenspiels zahlreicher elementarer neuronaler Prozesse zu deuten, die wiederum lediglich deterministische physikalische Prozesse darstellen. Darüber hinaus kann man mittels moderner Messverfahren die „neuronalen Korrelate“ eines Willensaktes vielfach bereits eine deutliche Zeitspanne vor seiner Bewusstwerdung im Gehirn detektieren.II Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.*Will man vermeiden, die Bildung eines freien Willens den noch tiefer angesiedelten quantenmechanischen Elementarprozessen aufzubürden, steht man vor einem ähnlichen Paradoxon wie dem Übergang von der Glatzköpfigkeit zum Haarschopf: Ebenso wenig wie die Hinzufügung jeweils eines weiteren Haars zum Überschreiten der Kategoriengrenze führt, ist auch in der Gehirnevolution an keiner Stelle ein entscheidender „Sprung“ zum freien Willen erkennbar. Trotzdem kommt man beim geeigneten Zusammenfügen von Haaren und neuronalen Elementarprozessen irgendwann beim Haarschopf und bei der Willensfreiheit an.Probleme dieser Art sind häufig ein Indiz für falsch gestellte Fragen. Im Falle der Willensfreiheit wäre die Schlussfolgerung: Willensfreiheit ist eine Qualität ohne diskrete Alles-oder-Nichts-Grenze; die Qualität wohnt physikalischen Prozessen in unterschiedlichem Grade inne, aber fällt uns erst bei sehr komplexen und speziell strukturierten Prozessen besonders auf. Eine solche Bereitschaft zu kontinuierlichen Zwischenwerten entfernt aus der Diskussion eine Menge Dramatik und erschiene durchaus in Einklang mit empirischen Befunden. Als Konsequenz wären auch Verantwortung und Schuldfähigkeit nicht nur bei Menschen – dies ist gängige juristische Praxis –, sondern auch bei künftigen Robotern zu gradualisieren.Maschine, rechtfertige dich!Aber welchen Sinn könnte es machen, eine auch noch so geringe Verantwortung auf eine Maschine zu laden? Die Antwort liegt in dem Nutzen von Verantwortung als einem besonders leistungsfähigen Steuerungsprinzip für autonomes Verhalten. Die besonderen Eigenschaften von autonomen Verhalten verlangen nach „raffinierteren“ Steuerungsmechanismen, als einfache Ausführungs- oder Zielvorgaben sie liefern können. Zugleich sollten solche Steuerungsmechanismen für uns Menschen möglichst transparent sein.Um diesen Anforderungen zu genügen, darf sich die Handlungsautonomie künftiger Robotersysteme nicht mehr nur darauf beschränken, auf eine aufgabenabhängige Bandbreite von Situationen adäquat reagieren zu können. Zukünftige Robotersysteme müssen zusätzlich eine Fähigkeit besitzen, die vermutlich erst in einiger Zukunft fundiert realisiert werden kann: nämlich Fragen zur Rechtfertigung der getroffenen Handlungsauswahl kompetent zu beantworten. Eine auf derartigen Rechtfertigungskompetenzen aufsetzende Verantwortungszuschreibung kann sich handlungsformend auf den Roboter auswirken, indem sie die möglichen Handlungen des Roboters auf solche begrenzt, für die der Roboter nicht nur autonom deren Ausführung, sondern auch eine Rechtfertigung liefern kann.III Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.*Auf der Basis eines derartigen Ansatzes realisierte „maschinelle Verantwortung“ wäre nicht mehr eine sinnleere Farce oder die Überkleisterung einer vom Menschen offen gelassenen Verantwortungslücke, sondern ein Beitrag zu den für autonome Systeme benötigten, differenzierten und dabei für den Menschen transparent angelegten Steuerungsmechanismen.Von dort wäre es nur noch ein weiterer unaufgeregter Schritt zu einer auf maschineller Verantwortung fußenden „Moral für Roboter“: Sie wäre – unabhängig von einer Zuschreibung weiter gehender „innerer Qualitäten“ wie „Seele“, „Bewusstsein“ oder „Wille“ – geformt durch die Fähigkeit des Roboters, für eigene Handlungen im Bedarfsfalle autonom generierte Rechtfertigungsfiguren vorlegen zu können, die über ihre rein logische Gültigkeit hinaus, uns Menschen von der Richtigkeit des Roboterhandelns überzeugen. Man kann der Meinung sein, dass auch unsere menschliche Moral zu keiner Zeit stringentere Maßstäbe vorfand.