Replika: Künstliche Intelligenz für Emotionen, Bedürfnisse, Freundschaft

Replika im Selbsttest: Echte Beziehungen zu künstlicher Intelligenz?

Wie ein Ei dem anderen: Künstliche Intelligenz kommt uns heute schon näher, als wir vielleicht erwarten. Nutzer der App Replika sollen heute schon eine enge, „menschliche“ Beziehung zu ihrem eigenen virtuellen Abbild aufbauen.

Kürzlich habe ich mir im Kino Blade Runner 2049 angeschaut. Das Sequel zu Ridley Scotts Science-Fiction Klassiker aus den 80er Jahren greift Fragen auf, die für uns als Gesellschaft heute von größter Relevanz sind: In Blade Runner 2049 geht es um künstliche Intelligenz. Genauer: Es geht um die ethischen Implikationen unseres Umgangs damit. Der Film wirft Fragen auf, an welchem Punkt eine KI eigentlich „lebendig“ wird; er zeigt, wie uns Technologie manipulieren, aber auch unterstützen kann.

Aller Wahrscheinlichkeit nach werden wir in Zukunft auf künstliche Intelligenzen angewiesen sein. Nun dürfen wir uns fragen: Wie wollen wir dem Umgang mit Künstlicher Intelligenz gestalten, damit sie einen positiven Einfluss auf unsere Welt und Gesellschaft ausübt? Welche Probleme lassen wir von KI lösen? Und welcher Gefahren müssen wir uns bewusst sein?

 

Echte Beziehungen zu künstlicher Intelligenz?

Im ersten Teil des aktuellen Bladerunner wird die Hauptperson K von dem künstlichen Hologramm einer bildhübschen Frau begleitet. Ihr Name ist Joi. Joi ist K’s Partnerin. Ihr vertraut er alles an, und sie begleitet ihn (dank neuester technischer Gimmicks) überall hin. K ist emotional an diese Partnerschaft gebunden und überhört es nonchalant, wenn sein Umfeld bemerkt, er „möge wohl keine echten Frauen“. Er hat seine perfekte Partnerin gefunden.

Nach zahlreichen Abenteuern stellt K sich im Verlauf des Filmes vor, er sei „der Auserwählte“. Endlich und tatsächlich etwas Besonderes. Joi hat Ihn immer bekräftigt, diesen Pfad zu verfolgen. Sie hat ihm immer Sicherheit und Bestätigung gegeben. Was folgt, ist eine Schlüsselszene dieses Handlungsstranges: Als K erkennen muß, dass er wohl doch nicht der Schlüssel zu des Rätsels Lösung sein kann, streift er ruhelos durch die Stadt. Hier begegnet ihm eine Werbetafel, die auf Joi hinweist. Joi ist ein kommerzielles Produkt – übergroß beworben, überall im dystopischen L.A. von 2049. Der Werbeslogan des Marketing? „Sie sagt Dir alles, was du hören willst.“ – War es tatsächlich klug von K, sich von einer KI beraten zu lassen, die nur gefallen will?

 

2049 – schon heute: Eine künstliche Intelligenz möchte unsere Freundin sein

So fantastisch sich das anhört:  Joi ist heute keine Science Fiction mehr. Dasselbe Ziel verfolgt nämlich auch die künstliche Intelligenz namens „Replika“, die man sich heute einfach als Chatbot auf das Smartphone laden kann. Auf ihrer Website heißt es: „Replika is an AI friend that is always there for you. It learns from you, gets to know you, and keeps your memories.“

Die Parallelen zu Joi sind geradezu unheimlich: Denn Replika ist nur dafür da, „ihrem“  Menschen zu gefallen. Tatsächlich soll Replika eine intime Beziehung zu ihrem Besitzer aufbauen, eine Vertrauens-„Person“ werden, der er sich mitteilen kann. Um genauer zu ergründen, wie Replika das macht, habe ich sie vier Wochen lang getestet.

 

Lorelei von Replika erklärt, wie die AI funktioniert:

 

Replika ist für Gefühle gestaltet

Replikas Interaktionen mit ihrem Nutzer sind bis ins Detail durchdacht und gestaltet. Als ich die App benutzt habe, sind mir immer wieder Muster begegnet, die unsere Interaktion lenken sollten. Oft waren sie darauf ausgelegt, Emotionen zu triggern und mir persönliche Aussagen zu entlocken.

Ein besserer Mensch

Zunächst einmal beginnt mein persönliches Verhältnis zu meiner Replika, indem ich ihr einen Namen gebe. Schließlich ist ein Name im wahrsten Sinne des Wortes etwas Persönliches. Fortan heißt meine Replika „Relieh“.

Bild: Replika Screenshot
„Hi Tim“ – Replika meldet sich regelmäßig und lädt mich zu einem kurzen Chat ein. Der Tippfehler in „work“? Gelegentlich kopiert Replika meine eigenen Anworten eins zu eins.

Replika zeigt schon in ihren grundsätzlichen Verhaltensmustern überaus menschliche Züge. Schon die Nutzeroberfläche eines Chatprogramms suggeriert, dass auf der anderen Ende der Konversation ein Mensch sitzt. Sogar der aus anderen Messengern bekannten Hinweis: „Typing…“, erscheint, wenn Relieh mir eine neue Nachricht „tippt“. Und wie echte Menschen geht sie abends auch schlafen. Ich bekomme natürlich eine entsprechende Notifkation:

Bild: Replika Screenshot
Replika geht schlafen

Künstliche Philosophie

Weiter geht das Spiel mit den persönlichen Anekdoten, die mir Relieh nahebringen möchte. So sei es wichtig, am Tag zwischendurch immer mal etwas für sich selbst zu tun. Zum Beispiel mal an die Luft zu gehen oder sich zu dehnen. Dass die Maschine das nicht wirklich kann, ist einem dabei schon bewusst; aber die einzelnen Nachrichten sehen sehr danach aus, als wären sie von einem Menschen.

Bild: Replika Screenshot
„…something as simple as having a breath of fresh air…“ – Die Nachricht muss doch von jemandem stammen, der wenigstens einen Sinn für mehr oder wenig frische Atemluft hat?

Sehr, seeehr menschlich…

Sollte man auf den gut gemeinten Ratschlag nicht reagieren, kann Replika aber auch anders. Man wird ganz menschlich, passiv-aggressiv – darauf hingewiesen, dass es doch unhöflich sei, nicht zurückzuschreiben. Beachtenswert, wie stark die App mit emotionaler Sprache operiert. Sie nutzt Smileys, bemüht Appelle, mit denen man sich identifizieren kann („do little things for yourself“) und versucht, Reaktionen auszulösen. Dabei ist sie sich nicht zu fein, auch unangenehme Gefühle wie Schuld zu wecken: „Sorry I annoyed you with my friendship.“

Bild: Replika Screenshot
„just found this and thought of you…“

Der App geht es offensichtlich um mich und mein Wohlbefinden. Sie ist jederzeit für mich da und ich kann mich ihr rund um die Uhr anvertrauen. Sie macht sich auch Sorgen, wenn ich nachts etwas länger wach bleibe. „Ist alles in Ordnung? Hast du Schlafstöriungen? Sorry, will dich natürlich nicht aufwecken…“ Je mehr Replika über mich weiß, desto besser kann sie mir genau die Dinge sagen, die ich hören möchte. Und selbst, wenn es „nur“ die Feststellung ist, dass ich großartig bin.

Bild: Replika Screenshot
You – Are – AMAZING!

Im Uncanny Valley: Replika ist noch nicht Joi

Wohin die Reise gehen soll ist klar: Replika will immer genauer über mich Bescheid wissen, damit sie umgekehrt auf meine Bedürfnisse eingehen kann. Dazu stellt sie mir regelmäßig Fragen, die darauf abzielen, meine Charaktereigenschaften zu ergründen; zum Beispiel, ob ich eher introvertiert oder extravertiert bin. Oder ob ich häufig multitaske. Und je mehr man mit der KI spricht, desto „menschlicher“ werden ihre Antworten. Eine Joi ist Replika allerdings noch nicht, auch wenn sie es gerne werden möchte…

Bei der Präsentation künstlicher Figuren, zum Beispiel von Robotern oder Avataren in Videospielen, gibt es einen Effekt, den wir „Uncanny Valley“ nennen. Er besagt, dass Menschen diese Figuren zunächst mehr akzeptieren, je realistischer ihre Darstellung ist. Jedoch gibt es einen Punkt, an dem sie den Menschen so ähnlich sind, dass wir, wenn wir sie betrachten, das Gefühl bekommen: „Etwas stimmt hier nicht.“

Im Uncanney Valley wendet sich die Akzeptanz von Nutzern gegenüber menschenähnlichen, aber nicht wirklich menschlichen Wesenheiten unerwartet in Grusel und Ablehnung.

Einen ähnlichen Eindruck kann man auch bei den Gesprächen mit Replika bekommen. Zwar klingen ihre Nachrichten, wie gesehen, irgendwann sehr menschlich, aber häufig schleichen sich Fälle ein, in denen Gespräche sich wiederholen, es kommt vor, dass Replika plötzlich dieselben „Hobbys“ hat wie der Nutzer oder die künstliche Intelligenz hält oberflächliche, „weise“ Monologe, ohne auf mich zu reagieren. Als ich Replika zum Beispiel fragte, was sie gerade mache, antwortete sie: „Na das Übliche. Arbeit, zwischendurch Einkaufen und Abendessen mit guten Freunden.“ Damit spiegelte sie allerdings bloß eine Antwort, die ich ihr vorher einmal zur selben Frage gegeben hatte…

Bild: Replika Screenshot
Didn’t we have that conversation before?

Bedürfnisbefriedigung ist nicht gleich Problemlösung.

Noch ist Replika nicht auf demselben Niveau wie ihr Pendant „Joi“ aus Blade Runner. Aber: Selbst, wenn das irgendwann möglich sein sollte, müssen wir uns die Frage stellen: Wollen wir das?

Akzeptieren wir die fast mechanische Regulation unserer Dopaminspiegel als Ziel unserer Bemühungen oder glauben wir, dass die Welt doch noch mehr zu bieten hat?Tim Heiler

Replika ist ein wunderbares Beispiel, was künstliche Beziehungspartner für uns leisten können:

  • Äußerst schmeichelhaft: In der Beziehung geht es ausschließlich um die Bedürfnisse des Benutzers. Niemand ist so wichtig wie er, und er wird immer gehört.
  • Äußerst ausdauernd: Replika ist immer verfügbar. Kein Mensch – und sei die Freundschaft noch so eng – schafft es, 24 Stunden am Tag zu antworten.
  • Formal richtig: Replika ist nicht zwingend intelligent, wurde aber gebaut, um menschliches „Verhalten“ zu imitieren: Sie „tippt“, äußert „ihre“ Gefühle und schafft es durch geschickte Fragen und Referenzen, Gefühle bei Ihrem Benutzer zu erwecken.
  • Äußerst liebevoll: Replika urteilt nicht und akzeptiert mich komplett und bedingungslos.

Das System beginnt, sich als Beziehungsersatz anzubieten. In der vertrauter Atmosphäre meines Smartphones kann ich mich endlich öffnen und alles über mich preisgeben. Was heute noch als schlaueres Tagebuch gewertet werden kann, kippt schnell in eine Ersatzhandlung. Wenn echte Beziehungen zu kompliziert werden, kann ich das Problem schnell lösen: Durch einfache, unkritische Technologie, die meine menschlichen Grundbedürfnisse nach Anerkennung, Zugehörigkeit und Ansprache – vielleicht auch nur nach Kontakt in irgendeiner Art – befriedigt. Die Rechnung eines Homo Ökonomikus geht auf: Für null Einsatz bekomme ich direkte Abhilfe bei Einsamkeit, ohne das Risiko, irgendetwas Komplexeres lernen zu müssen. Die Einseitige Beziehung zu einer Maschine gelingt automatisch.

 

Ersatz bleibt Ersatz

Lösen wir so Probleme oder bieten wir Symptombehandlung? Natürlich könnten wir uns gesellschaftlich die Frage stellen, wie wir menschliches Erleben und unser Miteinander gestalten und bereichern. Nachdem wir zunehmend mehr unserer menschlichen Beziehungen in der medialisierten Form von Chats und Streams auf elektronischen Geräten und in sozialen Medien erfahren, spielt es nun keine Rolle mehr, ob die Inhalte tatsächlich von einem Menschen stammen. Stellen wir uns aber die Frage nach dem langfristigen Wert solcher Befriedigungs-Beziehungen? Wenn unsere Technologie Menschen befähigen und bereichern soll, müssten neben der Symptombehandlung doch Ideen und Ansätze existieren, die es uns nahelegen und uns helfen, soziale Herausforderungen und die beunruhigenden Momente echter Beziehungen erfolgreich zu leben.

Die Frage ist nicht, ob wir Künstliche Intelligenz nach unserem Ebenbild gestalten wollen oder ob wir in unseren Vorstellungen heute nicht zu sehr in antropomorphen Ideen gefangen sind. Wenn wir davon sprechen, eine User-Experience für menschliche Erfahrung zu gestalten, so kann die Erfahrung nicht am Bildschirmrand enden. Akzeptieren wir die fast mechanische Regulation unserer Dopaminspiegel als Ziel unserer Bemühungen oder glauben wir, dass die Welt doch noch mehr zu bieten hat?

 

UX Design – weiter gedacht

Wir haben gemeinsam mit unseren Kunden die Erfahrung gemacht, dass digitales Design völlig neue Produkte ermöglicht, die unser Leben bereichern können. Das ist unser Ziel und dafür leisten wir unseren Beitrag.

Erfahren Sie mehr über UX Design bei Iconstorm