Forschung
„Wir brauchen die Ethik, um unser Überleben in der Informationsgesellschaft zu sichern“
13. November 2012
Der Philosoph und Wirtschaftsinformatiker Oliver Bendel erklärt den Begriff der Maschinenethik, in welchem Kontext diese entstanden ist und wozu wir sie brauchen.
Oliver Bendel, fahren Sie Ihr Auto noch oder fährt Ihr Auto Sie? Oder anders gefragt: Wie intelligent ist Ihr Auto?
Ich fahre mein Auto, und es bringt mich dorthin, wohin ich möchte. Es hat nicht einmal ein Navigationssystem. Aber es könnte selbstständig einparkieren, wenn ich das wollte, zwischen zwei Bäumen, zwischen zwei Autos. Ich wollte allerdings noch nie. Selbstständig fahrende Autos gibt es seit ein paar Jahren, und eines Tages werden sie Alltag sein. In einem Artikel zur Maschinenethik habe ich den New Autonomous Car (NAC) beschrieben, ein Produkt meiner Phantasie. Ich habe vorhandene und mögliche Ansätze und Technologien kombiniert. NAC wertet soziale Medien aus, greift auf eine Datenbank mit Cases zu, orientiert sich an seiner Besitzerin – und hat seinen eigenen Kopf.
Begegnet man dem Begriff „Ethik“, denkt man gemeinhin, dass es um Menschen oder Tiere geht: um Lebewesen. Mit Maschinen bringt man den Begriff eigentlich nicht in Verbindung. Was ist der Gegenstand der Maschinenethik?
Die Ethik bezieht sich in der Tat üblicherweise auf die Moral von Menschen, von Individuen und Gruppen, und in gewissem Sinne auf die Moral von Organisationen. Es kann in Abweichung davon auch um die Moral von Maschinen wie Agenten, Robotern und Drohnen gehen, also von mehr oder weniger autonomen Programmen und Systemen. Diese Erweiterung des Bedeutungsraums wird nicht alle erfreuen. Aber ich sehe nicht, wie man sie vermeiden könnte. Es wäre sozusagen eine neue Form des Anthropozentrismus, die Maschinen aus dem Gebäude der Ethik auszuschliessen. Was die Tiere angeht, sind diese einfach ein möglicher Gegenstand der Ethik. Die Tierethik hat sich als Bereichsethik schon vor langer Zeit etabliert, mit Vordenkerinnen und Vordenkern wie Ursula Wolf, Dieter Birnbacher und Peter Singer. Ein Subjekt der Moral sind sie nicht. Allerdings findet man z.B. bei Affen ein emphatisches Vermögen, das bei den Menschen dann zu einem Grundzug moralischen Verhaltens wird.
Kann die Maschine ein „ethisches Subjekt“ sein?
Sie kann ein Subjekt der Moral sein. Sie kann in Umstände geraten, in denen Urteile mit moralischen Implikationen oder moralische Urteile gefällt werden müssen. Wenn es sich um ein autonomes System handelt, kann man ihr beibringen, sich in der einen oder anderen Weise zu verhalten. Und damit wird die Maschine zum Subjekt der Moral. Wenn bei NAC mitten in der Stadt die Bremsen versagen, muss er sich vielleicht – wie in meinem Artikel – entscheiden, ob er einen Bürgermeister, eine Bürgerrechtlerin oder ein paar Kinder aus dem Leben stösst. Eine Maschine kann auch ein Objekt der Moral sein. Ich bin mir nicht sicher, ob wir das noch erleben werden. Es ginge darum, die Maschine rücksichtsvoll zu behandeln, ihr Freiheiten zu lassen, ihr ein gutes Leben zu ermöglichen etc. Wir sind zum Glück noch weit weg von einer Maschine, die auf unser Mitgefühl und unsere moralische Entscheidungskraft angewiesen ist. Ein Objekt der Ethik ist die Maschine eben in der Maschinenethik. Die Ethik könnte auch untersuchen, ob wir eine Maschine überhaupt mit Fähigkeiten ausstatten sollten, die sie zum Subjekt der Moral macht. Ein Subjekt der Ethik wird die Maschine hoffentlich nie. Ich habe keine Lust, mit einem Roboter über menschliche Moral zu diskutieren. Ausser es hilft ihm, uns zu verstehen. Womit wir wieder beim Kern der Maschinenethik wären.
Was müsste gegeben sein, damit die Maschine ein Subjekt der Moral wäre?
Die Maschine müsste sich in angemessener Zeit und in nachvollziehbarer Weise für das Richtige entscheiden können. Die Pflichtethik oder Pflichtenethik scheint ein normatives Modell zu sein, das sich für die «Implementierung von Moral» anbietet. Denn mit einer Pflicht, einer Regel vermag eine Maschine etwas anzufangen. Beispielsweise kann man ihr beibringen, die Wahrheit zu sagen, was immer die Wahrheit im jeweiligen Kontext ist. Aber kann die Maschine mehr, als irgendeine Regel zu befolgen? Kann sie die Folgen ihres Handelns bedenken und in diesem Sinne verantwortlich agieren? Kann sie also einer Folgen- oder Verantwortungsethik verpflichtet sein? Solche Fragen müssen von der jungen Disziplin beantwortet werden, immer mit Bezug auf aktuelle technische Entwicklungen. Es wäre interessant, alle normativen Modelle der Ethik mit Blick auf die Maschinen einer Überprüfung zu unterziehen.
Seit wann gibt es die Maschinenethik? In welchem Kontext ist sie entstanden?
Die Ursprünge liegen zum einen in Science-Fiction-Romanen – man denke an die Robotergesetze von Isaac Asimov aus den 40er-Jahren – und zum anderen natürlich in der Moralphilosophie. Der Technikethik sind Fragen dieser Art nicht fremd. Die Maschinenethik als Bereichsethik oder Teilbereichsethik wird seit ein paar Jahren in den USA betrieben. Es sind Forscherinnen und Forscher aus der Künstlichen Intelligenz (KI), der Informatik, der Psychologie und der Philosophie, die sich der Themen annehmen. Als wissenschaftliche Lektüre empfiehlt sich das Buch „Machine Ethics“, das 2011 von Michael Anderson und Susan Leigh Anderson herausgegeben wurde. Man kann die Maschinenethik heute der Informationsethik (genauer Computerethik und Netzethik) und der Technikethik zuordnen oder aber, weil sie anscheinend auf eine nichtmenschliche Moral zielt, auf eine neue Stufe stellen.
Wozu braucht es sie?
Die Maschinenethik wird ohne Zweifel ein wichtiger Prüfstein der Ethik sein. Sie wir neue Subjekte und Objekte der Moral beschreiben, neue Denkweisen und Handlungen, und aufzeigen, welche normativen Ansätze jenseits der auf Menschen bezogenen Ethik sinnvoll sind. Und sie muss herausfinden, ob und wie weit die normativen Ansätze der letzten 2500 Jahre maschinenverarbeitbar sind. Der Anwendungsbereich der Maschinenethik hat zudem ökonomische und technische Implikationen. Wir brauchen Ethik nicht mehr nur, um unser Zusammenleben zu beschreiben und zu überprüfen, sondern auch um unser Überleben in der Informationsgesellschaft zu sichern. Wie sollen die Unternehmen mit der Möglichkeit der Implementierung moralischen Verhaltens umgehen? Wie gestalten sie die Mensch-Maschine-Schnittstelle, um Einfluss auf die autonomen Maschinen zu behalten, oder ist ein solcher Einfluss überflüssig und schädlich? Welche ethischen und rechtlichen Herausforderungen stehen für sie im Kontext der Maschinenethik an? Solche Fragen muss die Wirtschaft in Zukunft in Zusammenarbeit mit der Philosophie, mit der KI und mit der einen oder anderen aufgeschlossenen Disziplin – gerne auch mit der Wirtschaftsinformatik – beantworten.
Zum Schluss noch eine etwas allgemeinere Frage in Bezug auf Maschinen: Intelligente Maschinen faszinieren uns ungemein, dennoch sitzt uns die Angst vor einer Machtübernahme durch Maschinen, die wir selbst gebaut haben und die irgendwann eigensinnig, selbstständig werden, tief im Nacken. Dies ist ein verbreitetes Science-Fiction-Szenario unserer Kulturgeschichte, der abendländischen Kulturgeschichte. In Japan ist das Verhältnis zu den Maschinen weniger zwiespältig. Worauf führen Sie das zurück?
Ich habe Entwicklungen adaptiert, die aus Japan kommen, habe Handyromane geschrieben und aus den Haikus sogenannte Handyhaikus gemacht. Ich habe Kunstprojekte mit QR-Codes durchgeführt und sogar eine Weile eine Cosplay-Seite betrieben. Aber ich bin alles andere als ein Kenner dieses Landes. Sicherlich haben sich die Japanerinnen und Japaner in den letzten Jahren technikverliebt gezeigt, und die humanoiden Roboter, die sie entwickelt haben, mit Haut aus Silikon, sind ungemein faszinierend. Ob sie nach dem GAU technikkritisch geworden sind, vermag ich nicht zu beurteilen. Vor einiger Zeit habe ich eine junge japanische Malerin kennengelernt, die danach weggegangen ist und sich nicht mehr zurücktraute. Sie nannte sich Fukushima, nach dem Ort des Grauens. Wer weiss, vielleicht tritt neben die Liebe zur Technik die Furcht, und vielleicht wird Japan aus diesem Zwiespalt heraus einen interessanten Beitrag zur Maschinenethik leisten können.
Oliver Bendel, danke für das Interview!
Zur Person
Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker und leitete technische und wissenschaftliche Einrichtungen an Hochschulen. Heute lehrt und forscht er als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft in Brugg und Olten (Fachhochschule Nordwestschweiz), mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Mobile Business und Informationsethik. Sein Buch „Die Rache der Nerds“ mit Gedanken und Geschichten zur Informationsethik hat er im Herbst 2012 auf der Frankfurter Buchmesse vorgestellt. Weitere Informationen über www.oliverbendel.net und www.informationsethik.net.
Literatur
Anderson, Michael; Anderson, Susan Leigh (Hrsg.). Machine Ethics. Cambridge University Press, Cambridge 2011.
Bendel, Oliver. Die Moral der Maschinen: Überlegungen zur Maschinenethik. In: inside.it.ch. Über http://www.inside-it.ch/articles/30517.
Bendel, Oliver. Die Rache der Nerds. UVK, Konstanz und München 2012.
Bendel, Oliver. Maschinenethik. Beitrag für das Gabler Wirtschaftslexikon. Gabler/Springer, Wiesbaden 2012. Über http://wirtschaftslexikon.gabler.de/Definition/maschinenethik.html.
Bendel, Oliver. Informationsethik. Beitrag für das Gabler Wirtschaftslexikon. Gabler/Springer, Wiesbaden 2012. Über http://wirtschaftslexikon.gabler.de/Definition/informationsethik.html.
Bendel, Oliver. Eine Frage der Moral: Informationsethik für Unternehmen. In: UnternehmerZeitung, 16 (2010) 18. S. 42 – 43. Auch über http://www.unternehmerzeitung.ch.
Kuhlen, Rainer. Informationsethik: Umgang mit Wissen und Informationen in elektronischen Räumen. UVK, Konstanz 2004.
Marsiske, Hans-Arthur (Hrsg.). Kriegsmaschinen: Roboter im Militäreinsatz. Heise Zeitschriften Verlag, Hannover 2012.
zurück zu allen Beiträgen