Forschung

Das GOODBOT-Projekt

12. Februar 2014
Drei Studierende der Hochschule für Wirtschaft FHNW haben einen Prototyp für den GOODBOT entwickelt, einen virtuellen Gesprächspartner, der moralisch angemessen reagieren soll. Der GOODBOT kann zum Modell für Unternehmen werden, die einen „gewissenhaften“ Chatbot entwickeln oder auf ihrer Website einsetzen wollen.
„Willkommen auf der Website von X. Ich heisse Anna. Wie kann ich dir helfen?“ So oder ähnlich lautet die Grussbotschaft eines Chatbots, eines virtuellen Beraters, wie ihn viele Unternehmen und Organisationen auf ihren Websites einsetzen. Besonders junge Leute mögen Chatbots und unterhalten sich gerne mit ihnen, und an Avatare sind sie auch durch Computerspiele gewöhnt. Aber sind Chatbots auch auf Dialoge mit moralischen Implikationen vorbereitet? Was entgegnen sie zum Beispiel auf Aussagen wie „Ich will mich umbringen!“ oder Fragen wie „Bin ich etwas wert?“? Die meisten Bots sind mit solchen Aussagen und Fragen überfordert und reagieren unangemessen. So wie auch manche Menschen in und nach den Dialogen unangemessen reagieren, wie der Informatiker und Gesellschaftskritiker Joseph Weizenbaum in den 60er-Jahren in seinen Experimenten mit dem Computerprogramm ELIZA feststellte. Wie könnte die angemessene Reaktion eines Chatbots auf moralisch heikle Fragen aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für ein Praxisprojekt, das von Oliver Bendel initiiert und von den Studierenden Christian Horn, Mario Moser und Justin Toubia zwischen Juni 2013 und Januar 2014 bearbeitet wurde. Ziel war die Schaffung eines Prototyps, der in Folgeprojekten weiterentwickelt und in den Markt gebracht werden kann.
Nach der Evaluation verschiedener Chatbot- Frameworks und der Prüfung einer Eigenentwicklung im Rahmen einer Machbarkeitsstudie entschied sich das Studententeam für die Open-Source-Lösung Verbot®  als technische und gestalterische Basis für den GOODBOT. Verbot® umfasst bereits einen Grundstock an Wissensbasen, die für eine einfache Unterhaltung notwendig sind. Zudem liegen unterschiedliche Avatare und Stimmen vor, unter denen ausgewählt werden kann. Auf der Basis von sieben von Oliver Bendel definierten Metaregeln, die sicherstellen sollen, dass der GOODBOT ein gewissenhafter Gesprächspartner ist, entwickelten die Studenten Kommunikationsstrategien, aus denen sie Aussagen und Fragen ableiteten. Denn um moralisch angemessen zu reagieren, muss der Bot eine Aussage kontextbezogen deuten können. Die Aussage „I am alone“ bedeutet nicht notwendigerweise, dass sich die Benutzerin oder der Benutzer in einem seelisch problematischen Zustand befindet. Sie kann auch lediglich darauf hinweisen, dass der Unterhaltung keine weiteren Personen beiwohnen. Um Aussagen semantisch einordnen zu können, überträgt der GOODBOT sie in eine Skala und leitet daraus Schlüsse ab. Dabei geben Wörter oder Satzteile wie „got job“, „exams passed“ oder „happiness“ jeweils positive Hinweise in Bezug auf Selbstbewusstsein oder Stimmung. Äusserungen wie „suicide“ oder „amok“ hingegen schlagen punktemässig negativ aus. Erreicht der Wert eine kritische Grösse, ruft der GOODBOT automatisch die Website einer entsprechenden Hilfsorganisation (etwa der Dargebotenen Hand) auf bzw. teilt direkt eine nationale Notrufnummer mit.

chatbot_mit_text

Kein GOODBOT, sondern ein BADBOT. Bild: © Oliver Bendel Die Metaregeln und das Praxisprojekt, das einen funktionierenden Prototyp hervorbrachte, sind erste Schritte zur Schaffung eines ausgereiften GOODBOT. Mit Hilfe einer Finanzierung durch eine Förderstelle soll er weiterentwickelt werden. Sein Einsatzgebiet ist gross und wird in den nächsten Jahren weiter wachsen. Man denke an die Jugendarbeit, an Beratungsangebote, an Spitäler oder Kliniken. Die Ergebnisse sind auch relevant für weitere Systeme, die natürlichsprachliche Fähigkeiten aufweisen, etwa Sprachassistenten auf Smartphones.
Der GOODBOT kann zum Modell für Unternehmen werden, die einen „gewissenhaften“ Chatbot entwickeln oder auf ihrer Website einsetzen wollen. Sie sollen dazu ermuntert und in die Lage versetzt werden, bei Planung und Umsetzung maschinenethische Aspekte stärker zu berücksichtigen. Schliesslich geht es um den Dialog mit Interessierten sowie Kundinnen und Kunden und deren Zufrieden- und Unversehrtheit. Kontakt: Prof. Dr. Oliver Bendel, oliver.bendel@fhnw.ch

Schlagworte: Ethik, Informationsethik, Innovation, Kommunikation, Maschinenethik, Moral

zurück zu allen Beiträgen
×