Künstliche Intelligenz war gestern, neu entwickelte Algorithmen üben sich bereits in Philosophie. Ist der Mensch auf dem besten Weg, sich selbst auszutauschen?
Maschinen und Menschen sind nicht mehr zu unterscheiden, speziell ausgebildete Polizeibeamte sollen die außer Kontrolle geratenen künstlichen Wesen unter den Menschen aufspüren, doch in Ridley Scotts Blade Runner von 1982 verliebt sich ein Polizist in einen der so genannten Replikanten, eine humanoide Bioroboterfrau, deren künstliche Intelligenz (KI) wie bei anderen Modellen ein unerwartetes Problem zeitigt: Sie hat durch Erfahrung begonnen, Gefühle zu entwickeln. Empathie. Zuneigung. Angst. Zweifel.
Persönlichkeit und Maschine – zwei Dinge, die in der Realität jenseits des Films nicht zusammengehen. Zumindest noch nicht. Aber schon im Jahr 2030 werden Menschen mit teilweise künstlichem Gehirn zu unserem Alltag gehören, glaubt Ray Kurzweil,
Kurzweil, Visionär der KI-Forschung. Das Gehirn werde dann durch technische Elemente erweitert und leistungsfähiger – denn der maschinelle Part lässt sich immer weiter optimieren.Eine verrückte Idee? Bereits in den Neunzigern verkündete Kurzweil, dass augmented reality, die computergestützte Erweiterung der Realitätswahrnehmung, im Jahr 2009 real würde. Heute gibt es Smartphone-Apps, die Gebäude erkennen und dazu Informationen liefern. Facebook hat eine Gesichtserkennung lanciert, die Menschen auf Fotos identifiziert. In einem Interview mit dem Time-Magazin erklärte Kurzweil: „Das Telefon brauchte 50 Jahre, um die Bevölkerung zu erobern, das Mobiltelefon sieben, soziale Netzwerke drei. Ein künstliches Gehirn sollte also in 20 Jahren machbar sein.“Eine moralische KomponenteDie Forschung dazu gibt es: Die Technische Hochschule Lausanne arbeitet im Blue Brain Project daran, ein Gehirn Nervenzelle für Nervenzelle auf Computer zu übertragen und sämtliche Gehirnfunktionen zu simulieren. In einigen Jahren sollen die ersten Anwendungen möglich sein. Gleichzeitig arbeiten Wissenschaftler an der Automatisierung von etwas, das zu den größten Leistungen der Menschheit zählt – des moralischen Bewusstseins. Ein Computer könne ethische Entscheidungen treffen, glauben die Informatiker Luís Moniz Pereira von der Neuen Universität Lissabon und Ari Saptawijaya von der Universität Indonesia in Depok. Im Juli stellen sie in dem Sammelband Machine Ethics der Universität Cambridge ihre Arbeit vor: Sie entwickelten eine vorausschauende Logik („prospective logic“), die unser Moralverständnis in Zahlen und Gleichungen ausdrückt. „Moral ist nicht mehr ausschließlich eine Aufgabe der Philosophie“, sagt Pereira.Das moralische Programm soll zum Einsatz kommen, wenn schnelle Entscheidungen erforderlich sind. Wie beim Trolley-Problem, einem seit Langem diskutierten Dilemma der Ethik. Trolley ist das englische Wort für Straßenbahn. Eine solche gerät außer Kontrolle und rast auf eine Menschengruppe zu – sie wird in wenigen Sekunden fünf Menschen überrollen. Ein Beobachter hat die Möglichkeit, die Bahn auf ein anderes Gleis umzuleiten, doch auch dort befindet sich eine Person, mit dem Rücken zur Bahn. Darf der Beobachter den Tod einer ahnungslosen Person in Kauf nehmen, um fünf Leben zu retten?Pereiras Programm berechnet nicht nur die mögliche Opferzahl jeder Entscheidung, sondern erweitert die Gleichung um eine moralische Komponente. Angenommen, der Beobachter könnte die Straßenbahn auch stoppen, indem er jemanden von einer Brücke vor die Bahn schubst. Beide Bremsmöglichkeiten enden mit dem Tod einer Person. Die meisten Menschen würden aber die Weiche bevorzugen – weil der Tod dann Folge, nicht Absicht ist.Das zugrundeliegende Prinzip ist alt: Der italienische Theologe Thomas von Aquin beschäftigte sich bereits im 13. Jahrhundert mit der Frage, ob es moralisch gerechtfertigt ist, jemanden in Notwehr zu töten. Sein Fazit: Wenn die Rettung des eigenen Lebens im Vordergrund steht, dann ja. Wenn der Angegriffene unnötige Gewalt anwendet, dann nein. Ethisch beurteilt wird also die Absicht, nicht das Resultat. Pereiras Moralprogramm berücksichtigt dies, indem es zum Beispiel „direkt“ und „indirekt“ als Variablen einführt und unterschiedlich gewichtet. Obwohl es sich nur um Rechnungen handelt: In ersten Experimenten habe der Computer genau die Entscheidung getroffen, die auch menschliche Probanden bevorzugten, berichtet Pereira. Die Einsatzmöglichkeiten wären vielseitig: im Gericht, im Straßenverkehr, sogar im Krieg. Überall, wo Fehler fatal sein können.Eine Maschine als Richter – für viele Menschen eine schreckliche Vorstellung. Am Karlsruher Institut für Technologie erforscht deshalb eine Gruppe von Technikphilosophen um Mathias Gutmann, wie sich das Verhältnis von Mensch und Maschine verändert – und entdeckt viele Missverständnisse, etwa schon in dem Begriff „Künstliche Intelligenz“. „In den fünziger Jahren wollten Wissenschaftler tatsächlich denkende Maschinen herstellen“, sagt Gutmann. „Aber heute wird der Begriff oft falsch verstanden.“ Ein Schachcomputer etwa spiele nicht Schach. Beim Spiel ändern sich lediglich die Chipzustände, was wir als durchdachte Schachzüge interpretieren. Der Computer entscheide nicht, er tue nur so als ob. „Insofern ist selbst ein Organersatz ein intelligentes System: Ein Armersatz muss so gesteuert werden können, als sei er ein echtes Körperteil“, erklärt Gutmann. Die Technik reagiere intelligent – im Rahmen ihrer Möglichkeiten.Problematisch sei, dass die sprachliche Vermenschlichung der Technik oft nicht mehr als Methapher verstanden wird. So weckt zum Beispiel der in der Roboter-Entwicklung oft verwendete Begriff „Autonomie“ in der Gesellschaft große Ängste: Verlieren wir die Kontrolle über eine Maschine, wenn sie autonom arbeitet? Science-Fiction-Filme greifen solche Ängste oft auf: Selbstständig denkende Roboter übernehmen die Kontrolle über die Menschheit. Doch Gutmann sieht hier weniger ein Technik- als ein Sprachproblem: Die Menschen setzen den technischen Autonomie-Begriff mit dem persönlichen gleich, dabei ist der Unterschied gewaltig.In dem europäischen Forschungsprojekt XPERO (Robot Learning by Experimentation) wollten Wissenschaftler beispielsweise herausfinden, ob sich unsere Art zu lernen in Hard- und Software umsetzen lässt. Doch das menschliche Lernen ist komplex: Wir identifizieren selbst kurioseste Designerstühle sofort als Sitzmöbel. Ein Roboter müsste aus den Daten eines digitalisierten Stuhlbildes das Bild des Stuhls so stark abstrahieren, dass er ähnliche Objekte ebenfalls erkennen kann. Noch komplizierter wird es in Aktion: In einem Experiment sollte ein Roboter begreifen, dass eine Kugel, die auf ein Objekt trifft, abprallt und zurückrollt. Seine Sensoren müssen unzählige Größen wie Distanz, Geschwindigkeit, Entfernung oder Gewicht erfassen und daraus eine Regel ableiten. Trotz vieler Freiheiten von Maschinen – der Spielraum des Roboters und seines Denk- und Lernvermögens ist von der Software vorgegeben. Dies gilt auch, wenn eine Maschine versucht, menschliches Denken nachzuahmen, wie in der Simulation von Moralphilosophie oder des gesamten Gehirns. „Wir wissen nicht, ob es jemals etwas anderes als Simulationen geben wird,“ sagt Technikphilosoph Gutmann. „Insofern funktioniert die technische Autonomie innerhalb klar definierter Grenzen“.Ethisch bedenklich werde es erst in dem Moment, in dem wir unsere Diskursfähigkeit aufgeben, sagt Gutmann. „Im Gegensatz zu einer Maschine können wir unsere Handlungen rechtfertigen – und das müssen wir auch künftig tun“. Ein Pilot hat in Zukunft vielleicht ein Moralprogramm an Bord, das ihm die Konsequenzen seiner Handlung in Notsituationen ausrechnet und gewichtet. Die endgültige Entscheidung aber bleibt dem Piloten überlassen, die spätere ethische Bewertung der Gesellschaft. Beides dürfe der Mensch nicht an ein System abgeben, warnt Gutmann. Roboter und Maschinen seien für die Philosophie dann keine Bedrohung.Verlust der MenschlichkeitAllerdings gibt der Technikphilosoph zu, dass das Verhältnis zwischen Mensch und Maschine ständigen Veränderungen unterworfen ist. An unserem Körper wird das deutlich: Herzschrittmacher, Zahnkronen oder Hüftprothesen sind gesellschaftlich längst akzeptiert. Niemand stellt sich die Frage, ob wir damit unsere Menschlichkeit verlieren – vermutlich nicht einmal dann, wenn Teile des Gehirns aus medizinischen Gründen durch Maschinen ersetzt werden, etwa um Alzheimer-Kranken das Erinnerungsvermögen zurückzugeben.Visionär Ray Kurzweil glaubt, irgendwann werde der Punkt kommen, an dem das künstliche Gehirn über das biologische dominiere. Kurzweil spricht von einem historischen Ereignishorizont. Das Wort beschreibt in der Astronomie den Bereich eines Schwarzen Lochs, aus dem nicht einmal Licht wieder herauskommt – in den man also unmöglich hineinschauen kann. Die Konsequenzen einer solchen Entwicklung seien ähnlich schwer einsehbar, sagt Kurzweil. Mit anderen Worten: Man braucht dann erst recht ein Gehirn mit Computerergänzung, um sich eine neue Ethik einfallen zu lassen. Bleibt zu hoffen, dass die zugehörige Software keine schweren Ausnahmefehler mehr vermeldet und nicht einfach mal so abstürzt.