Wenn eine Drohne auf einen feindlichen Kampfjet trifft, hat sie eigentlich nur eine Option: das Weite suchen. Doch als im Dezember 2002 eine unbemannte US-Drohne vom Typ Predator ins Fadenkreuz einer irakischen MiG geriet, wurde sie angewiesen, sich nicht von der Stelle zu rühren. Die MiG feuerte, die Predator feuerte zurück – das Resultat war ein Haufen Drohnenteile in der südirakischen Wüste.
Dieser Zwischenfall wird oft als der erste Luftkampf zwischen einer Drohne – einem unbemannten Luftfahrzeug, wie es korrekt heißt – und einen konventionellen, bemannten Kampfjet bezeichnet. In gewisser Weise jedoch hatte die Predator so gut wie keine Chance. Amerikanische und britische Drohnen werden aus der Ferne von Piloten bedient, die tausende von Meilen
Übersetzung: Christine Käppeler
von Meilen entfernt auf amerikanischem Boden sitzen. Deshalb werden die Signale für die Manöver um eine Viertelsekunde oder mehr verzögert. Geschossen auszuweichen ist also so gut wie unmöglich – es sei denn, die Drohnen könnten sich selbst steuern.Im Juli stellte der größte Rüstungskonzern der Welt, BAE Systems, zwischen Trockennebelschwaden und rotierenden Scheinwerfern einen Prototyp vor, der womöglich genau das tun kann. Die mehr als 140 Millionen Pfund teure, ziemlich außerirdisch wirkende Drohne Taranis solle dem britischen Verteidigungsministerium zufolge ein „vollständig autonomes“ Fluggefährt sein, das tief in feindliches Gebiet eindringen kann, um Informationen zu sammeln, Bomben abzuwerfen und „sich selbst gegen bemannte und unbemannte feindliche Flugzeuge zu verteidigen“.Taranis ist ein Beispiel für die Entwicklung hin zu autonomen Systemen: Maschinen, die ihre Entscheidungen unabhängig von menschlichem Input treffen und das Potenzial haben, die moderne Kriegsführung radikal zu verändern. Für Staaten wie die USA und Großbritannien bedeutet eine solche Autonomie größere Reichweite, mehr Effizienz und weniger Leichensäcke, die in die Heimat gebracht werden müssen. Ein britischer Sicherheitsbericht verweist darauf, sich in Zeiten eingeschränkter Ressourcen „an das Unerwartete anzupassen“. Doch unter dem technologischen Glanz autonomer Systeme wartet eine Fülle ethischer und juristischer Probleme.Autonom statt automatischEs gibt bereits militärische Aufgaben, die Roboter alleine erledigen. Viele Kriegsschiffe verfügen über Gatling-Waffen als Teil des Phalanx-Systems, das automatisch auf näher kommende Geschosse reagiert. Israel hat an der Grenze zum Gaza-Streifen See-Shoot-Systeme mit Maschinengewehren aufgestellt, die automatisch auf palästinensische Eindringlinge schießen. Ein israelischer Kommandant erklärte, ein Mensch müsse „zumindest in der Anfangsphase des Einsatzes“ den Schießbefehl erteilen. Phalanx und See-Shoot sind daher nicht autonom – ein feiner, aber entscheidender Unterschied. Wie beim Getränkeautomat drückt man auf einen bestimmten Knopf und die entsprechende Flasche fällt heraus. Die Gatling-Waffe wartet bis ihr Radar ein bestimmtes Signal erhält, dann feuert sie.Echte autonome Systeme führen wesentlich komplexere Aufgaben aus, indem sie tausende von Messwerten aus ihrer Umwelt einbeziehen und sie in sogenannte input states übersetzen, die im Computer verarbeitet werden, um das bestmögliche Ergebnis zu finden. Manche glauben, dass es im Prinzip die gleiche Methode ist, nach der wir Menschen unsere Entscheidungen treffen.Für Waffensysteme wie Taranis ist geheim wie autonom sie tatsächlich arbeiten können, doch andere Projekte lassen erahnen, womit zu rechnen ist. Am Robotics Institute der Carnegie Mellon University in Pennsylvania entwickeln Forscher für das Pentagon einen Panzer mit sechs Rädern, der sich selbstständig durch ein Schlachtfeld bewegt und den Spitznamen „Crusher“ („Brecher“) trägt, weil er Autos problemlos plattwalzt. Der derzeitige Prototyp, bekannt auch als Autonomous Platform Demonstrator (APD), wiegt neun Tonnen und schafft 80 Kilometer in der Stunde.Entscheidend für die Autonomie des APD ist eine Reihe hierarchisch angeordneter Instrumente zur Selbststeuerung. Zuerst lädt er eine grobe Route von einer Satellitenkarte wie Google Earth herunter. Sobald er sich in Gang gesetzt hat, bauen Videokameras ein 3-D-Bild der Umgebung auf, damit er eine genauere Route um Hindernisse herum planen kann. Für Feinabstimmungen messen Laser dann präzise den Abstand zur unmittelbaren Umgebung ab.Projektleiter Dimi Apostolopoulos sagt, der APD könne etwa mit Auskundschaftungssystemen oder Waffen bestückt werden, in erster Linie für den Einsatz in Gebieten, in denen Kommandeure nur ungern menschliche Soldaten einsetzen. „Wir glauben daran, dass die Einführung von Robotertechnik die Kriegsführung verändern wird“, sagt Aposolopoulos. „Daran kann kein Zweifel bestehen. Sie kann eine Menge Menschen aus den brenzligsten Situation holen. Und ich bin überzeugt, dass es für beide Seiten eine gute Sache ist.“Gekaperte Insekten als WaffeMilitärische Roboter gibt es in allen Größenordnungen, manche sind beeindruckend, andere grotesk. Boston Dynamics etwa entwickelt im Auftrag der US Defence Advanced Research Projects Agency (Darpa) einen vierbeinigen Roboter, der „überall hingehen kann, wo Menschen und Tiere hin können“. BigDog hat Sensoren und Triebwerke, um sein Gleichgewicht zu regulieren, und trottet wie eine kopflose Ziege über unwegsames Gelände. Noch weit unheimlicher ist die Idee der Darpa, Insekten für Überwachsungszwecke zu kapern – mit anderen Worten: ein unbemanntes, biologisches „Luftfahrzeug“ nutzbar zu machen, das bereits autonom ist. Den Insekten sollen während der Metamorphose winzige, elektromechanische Kontrollinstrumente implantiert werden. Einige Wissenschaftler halten diese Idee allerdings noch für zu weit hergeholt.Klar ist aber, dass massiv in die militärische Robotertechnik investiert wird, denn wie Gordon Johnson vom US JointForces Command sagt: „Sie werden nicht hungrig. Sie haben keine Angst. Sie vergessen ihre Dienstanweisungen nicht.“ Worte, die an den Science-Fiction-Film Nummer 5 lebt! erinnern, in dem der Wissenschaftler Newton Crosby einen autonomen Militärroboter erschafft und sagt: „Er fürchtet sich nicht. Er freut sich nicht. Er wird nicht traurig. Er führt nur Programme aus!“ Im Film desertiert der Roboter schließlich.Was geschieht, wenn mit Militärrobotern im echten Leben etwas schief geht? Im Juni veröffentlichte der damalige Chefwissenschaftler der US-Air-Force, Werner Dahm, den Bericht Technology Horizons, in dem er schreibt, dass autonome Systeme für die Zukunft der Luftwaffe essenziell seien, aber wie alle militärischen Systeme einer genauen Überprüfung unterzogen werden müssten, bevor man ihnen vertraut. Die Tests sind bloß immer noch dieselben wie zu Zeiten des Apollo-Programms. Dahm nennt es „rohe Gewalt“: Jeder Zustand eines Systems wird einfach so lange getestet, bis 100 Prozent zertifiziert werden können. Ein Großteil der Kosten für Kampfflugzeuge geht für solche Kontrollen drauf. Doch für autonome Systeme, die beinahe unendlich viele input states haben, kommt „rohe Gewalt“ nicht mehr in Frage. Dahm sagt, man müsse sich mit weniger als 100 Prozent zufrieden geben.„Der Durchschnittsbürger sagt vielleicht, 99,99 Prozent seien nicht genug“, meint Dahm. „Zunächst wäre er überrascht zu erfahren, dass sein Auto nicht mal zu 99,99 Prozent zertifiziert ist ... und dann muss er wissen, dass wir niemals hochgradig automatisierte Systeme haben werden, wenn man auf 100 Prozent beharrt.“ Kritisiert wird außerdem, dass der Einsatz von Drohnen gegen Aufständische in Pakistan ein Gesetz Gerald Fords aus dem Jahr 1976 verletze, das politische Attentate verbietet. Für autonome Systeme, die unabhängig vom Menschen agieren, liegt die Sache sogar komplizierter. „Wenn eine Maschine auf einen Krankenwagen anstatt auf einen Panzer schießt, wer ist dann schuld?“ fragt der Anwalt und Systemingenieur Chris Elliott.Noel Sharkey von der Universität Sheffield sagt, es sei für autonome Roboter derzeit unmöglich, zwischen Zivilisten und Kombattanten zu unterscheiden – wie es das Völkerrecht bestimmt. „Es gibt so viele Beispiele aus dem Irakkrieg, wo Soldaten mit angelegten Waffen erschienen und dann feststellten, dass die Aufständischen tatsächlich einen Sarg trugen. Also senkten die Soldaten ihre Maschinengewehre und ließen die Aufständischen passieren. Ein Roboter könnte eine solche Entscheidung nicht treffen. Nach welchen Merkmalen würde er suchen?“Kampf ohne MenschenDas Problem sind autonome Schläge – ein Roboter entscheidet selbst, wann er feuert – und hier scheiden sich die Geister. Einem Sprecher des britischen Verteidigungsministeriums zufolge „werde es auf absehbare Zeit immer notwendig bleiben, dass angemessen ausgebildete Menschen beteiligt sind“, wenn unbemannte Luftfahrzeuge Angriffe fliegen. Dahm ist der Ansicht, dass dieser Aspekt im neuen Flight Plan unterzugehen scheint. „Menschen werden zunehmend nicht mehr im, sondern über dem Geschehen stehen, also die Ausführung von Entscheidungen kontrollieren“, schreibt er in seinem Bericht. „Gleichzeitig wird die künstliche Intelligenz Systemen ermöglichen, Kampfentscheidungen zu treffen ... ohne dass es menschlicher Beteiligung bedarf.“ Dies erfordere aber, dass politische und militärische Führer juristische und ethische Fragen klärten. Im US-Office of Naval Research hält man es für ein „vernünftiges Ziel“, autonome Roboter so zu programmieren, dass sie „mindestens so ethisch“ wie Soldaten handeln. Die Behörde zieht in Erwägung, dass autonome Roboter eines Tages wie Kinder als quasi-juristische Personen behandelt werden können. Rob Alexander von der Universität York geht das zu weit: „Wir reden hier nicht über Star-Trek-Androide. Diese Dinger sind Maschinen und wer sie bedient oder entwickelt hat, muss für das verantwortlich sein, was sie tun.“Angesichts der Grenzen, die den Robotern heute gesetzt sind, werden die ethischen und juristischen Probleme der Autonomie zunächst hypothetisch bleiben. Dahm zufolge werden autonome Systeme als Komponenten militärischer Systeme Aufgaben erledigen, die für den Menschen zu aufwendig sind. Satelliten könnten zum Beispiel selbstständig Aufklärungsdaten filtern, damit sie nur die Bilder übermitteln, auf denen erkennbare Ziele zu sehen sind. Schon heute verwenden Militärs Software mit autonomen Elementen für kniffelige Fragen, wie die Wahl der richtigen Munition. Im Verlauf der nächsten Jahre könnten immer mehr taktische Entscheidungen, zunächst vielleicht nur banale, an Maschinen abgegeben werden.Müssen wir uns also vor einer dystopischen Zukunft wie aus Science-Fiction-Filmen fürchten – einer Welt, die von Robotern mit Bewusstsein übernommen wird? Das ginge am eigentlichen Punkt vorbei: Wenn wir Fleisch und Blut gegen Schaltkreise und Stahl eintauschen, dann müssen unsere Befürchtungen genau in die andere Richtung gehen. Um es mit Sharkey zu sagen: „Ich glaube nicht, dass wir uns auf dem Weg in eine Zukunft wie in Terminator befinden. Dort waren die Roboter schlau.“Jon Cartwright (jcartwright.co.uk ) ist Physiker und lebt als freier Autor in Bristol. Er schreibt unter anderem für den Observer