IxDA Frankfurt, Künstliche Intelligenz, Vertrauen, Mensch und Maschine

Besuch bei der IxDA Frankfurt: Können Menschen künstlicher Intelligenz vertrauen?

Artikelbild: Besuch bei IxDA Frankfurt
Wir besuchten das Netzwerktreffen der IxDA Frankfurt, um über künstliche Intelligenz zu sprechen. Wie können wir in Zukunft mit Maschinen zusammenleben, wie mit ihnen zusammenarbeiten? Können wir Ihnen eigentlich vertrauen? Diese Fragen standen im Fokus des Abends.

Am 15. Februar 2018 fand im Frankfurter WeWork Coworking-Space am Goetheplatz der erste Netzwerktreffen der Interaction Design Association (IxDA) Frankfurt statt. Die IxDA ist eine weltweite Design-Community, die sich mit dem Thema Interaction Design beschäftigt und deren Mitglieder auf gemeinnütziger Basis Vernetzungstreffen wie das in Frankfurt organisieren. Unter dem Titel „Dealing with dark interactions“ wurde im WeWork die Zukunft des Menschen in einer Welt diskutiert, die von Maschinen beherrscht wird.

 

Künstliche Intelligenz ist Design-Thema

Im Mittelpunkt des Abends stand das Thema Künstliche Intelligenz: Ein Thema, dass für uns als Designer immer relevanter wird. Denn immer mehr wird KI mitbestimmend dafür, wie unsere Lebenswelt gestaltet ist, wie wir mit Produkten – und sie mit uns – umgehen. Damit wird die Gestaltung von Produkten, Dienstleistungen oder Software mittels künstlicher Intelligenz, aber auch die Gestaltung von künstlicher Intelligenz selbst mitbestimmen, wie unsere Zukunft im Zusammenleben mit den Maschinen aussieht.

Iconstorm-Designerin Jenica Lews war in Frankfurt vor Ort, um die Talks live zu hören und sich an der fachlichen Diskussion zu beteiligen. Wir haben unsere Gedanken zu dem Abend in diesem Nachbericht festgehalten. Und ab nächster Woche gibt es übrigens noch mehr zu berichten: Denn dann ist Jochen Denziger als Mitglied unserer Geschäftsleitung bei der SXSW in Texas. Dort spielt das Thema ebenfalls eine wichtige Rolle dieses Jahr.

 

Von der Herrschaft des Menschen zur Herrschaft der Maschinen

Auf dem Programm des Abends standen insgesamt vier Talks und eine abschließende Diskussionsrunde. Wir möchten uns an dieser Stelle auf den Vortrag von Professorin Andrea Krajewski konzentrieren, die die aktuellen Entwicklungen aus einem interessanten Blickwinkel betrachtete.

Prof. Krajewski warf zunächst einen Blick auf der Verhältnis zwischen Mensch und Maschine in der Geschichte: Schon die ersten Maschinen wurden gebaut, um für den Menschen zu arbeiten. Die Waschmaschine säubert unsere Kleidung, ein Automobil bringt uns von A nach B und selbst in der Fabrik nehmen uns Roboter die Arbeit ab. Die Entwicklung der letzten Jahrhunderte sei auf ihrem Höhepunkt in der Ausrufung eines neuen Zeitalters kulminiert: Des Anthropozän. Dieses Zeitalter werde dadurch definiert, dass der Mensch die Erde beherrsche und ihre Zukunft bestimme. Tatsächlich ist man geneigt, dem zuzustimmen, wenn man sich Terraforming, Klimawandel, Energie-, Verkehrs- oder Kommunikationsnetze ansieht.

Doch lange habe es nicht gedauert, bis wir uns nun in einer Phase befinden, in der diese Herrschaft schon wieder in Frage gestellt wird: Denn unser Verhältnis zu den Maschinen verändere sich im Moment drastisch. So deklinierte Andrea Krajewski die aktuellen Entwicklungen durch, in der durch Maschine Learning und AI Systeme entstehen, die autonome Entscheidungen treffen können. Das ist auf der einen Seite bequem, aber auf der anderen Seite besteht die Gefahr, dass diese intransparenten Systeme den Menschen seiner Autonomie berauben und ein neues Zeitalter einläuten. Ein Zeitalter, in dem die Maschinen herrschen.

 

Versteckte Interaktionen zwischen Mensch und Produkt

Der allgemeine Technologie-Hype ist nicht von der Hand zu weisen. Ein Gadget folgt dem anderen, die Geschwindigkeit, mit der sich neue Technologien entwickeln ist eine Herausforderung für Markt- und Trendforscher, die gute alte „Applikation“ hat sich zu einem weltbekannten Begriff entwickelt, nachdem Apple sie auf drei Buchstaben reduzierte. Während Desktop PCs oder Notebooks noch nicht in jedem Haushalt zu finden waren, hat heute jeder sein Smartphone in der Tasche. Nebenbei werden auch andere „normale“ Produkte smart, vom Fernseher, über die Küche bis zum Auto.

Das hat definitiv seine guten Seiten: Die Interaktion mit den Produkten wird immer intuitiver und eröffnet auch weniger technikaffinen Menschen die Möglichkeit, von Technologie Gebrauch zu machen. Denken Sie an die Großeltern, die über WhatsApp oder Skype mit den Enkeln in Kontakt bleiben. Allerdings kippt im Moment im Schatten dieser Nutzung „smarter“ Technologien die Logik, nach der sie abläuft. Das Verhältnis zwischen Mensch und Produkt verändert sich. Denn selbst einfachsten Anwendungen steht heute die Rechenleistung zur Verfügung, um anhand der Verhaltensdaten ihrer Nutzer Muster zu erkennen, diese auszuwerten und auf ihrer Basis Prognosen aufzustellen. Und genau das tun viele Produkte auch, ohne dass es sich die Nutzer bewusst machen. Das sind die „Dark Interactions“, die auch der Veranstaltung ihren Titel gaben.

Basierend auf diesen versteckten Interaktionen kommen dann die „Phänomene“ zustande, denen sich der User später gegenüber sieht. Personalisierte Werbung, Push-Nachrichten aufdringlicher Apps, unangenehm genaue Suchvorschläge… Für viele ist es ein geradezu gruseliger Moment, wenn Google erstmals ungefragt morgens die Dauer des Arbeitswegs vorhersagt. Und, während wir hier noch „nur“ von Software sprechen, bekommen bereits jetzt Maschinen aus Stahl und Öl ebenfalls die Fähigkeit, selbst zu entscheiden. Damit verlieren Nutzer teilweise die Kontrolle über ihre Geräte und die Beziehung zwischen Mensch und Produkt verändert sich.

Ich muss in Zukunft darauf vertrauen, dass das Auto die richtige Entscheidung trifft, und nicht darauf, dass es die richtige Funktion ausführt.
Prof. Andrea Krajewski

 

Wenn Maschinen eigene Entscheidungen treffen – können wir ihnen dann noch vertrauen?

Genauer verändert sich unser Vertrauensverhältnis zur Technologie. Andrea Krajewski bemühte diesbezüglich die Funktion einer Waschmaschine: Wenn wir diese geladen haben, ist für uns ganz klar, was passieren soll, wenn wir sie anschalten: Sie soll die gewählte Waschfunktion ausführen. Wir wissen, was sie für uns tun soll, und sind vernünftigerweise wütend auf sie, wenn sie es doch nicht tut. Unser Vertrauen wird enttäuscht, sollte sie defekt sein. Diese Logik verändert sich, sobald ein System eigene Entscheidungen trifft. Wie würden Sie beispielsweise reagieren, wenn Ihr Auto irgendwann von selbst zum Ölwechsel fährt, weil es prognostiziert, dass Sie es an diesem Tag nicht brauchen?

Es ist generell schwer, undurchschaubaren Systemen zu vertrauen. Und das zu lösen ist auch ein Design-Problem. Derzeit wird versucht, diesem Problem zu begegnen, indem man die Systeme „menschlicher“ macht, ihnen ein Gesicht gibt. So bekommen Assistenten wie Siri oder Alexa eigene Persönlichkeiten, künstliche Intelligenzen wie Replika sollen Empathie vorspiegeln können. Diese Versuche sind teilweise mehr, teilweise weniger erfolgreich, wie das gruselige Beispiel des Roboters Sophia zeigt, den auch Prof. Krajewski als Beispiel anführte.

 

Sophia wurde als erster Roboter Bürgerin eines Landes, nämlich Saud-Arabien.

 

Vertrauen designen: Eine Frage des Produkts?

Prof. Krajewski nannte vier Eigenschaften, die ein Produkt braucht, dem Menschen vertrauen können:

  • Man muss es als Gegenüber wahrnehmen können.
  • Man muss ihm gegenüber Emotionen entwickeln können.
  • Seine Funktionsweise muss transparent sein.
  • Man muss die Souveränität über das Produkt behalten.

Während Agenten wie Siri und Alexa die ersten beiden Punkte abdecken sollen, sind besonders die letzteren eine Herausforderung. Denn, ob gewollt oder nicht, sind künstliche Intelligenzen für viele Nutzer derzeit absolute Black Boxes. Sie sind undurchsichtig und ihre Entscheidungen teilweise nicht nachvollziehbar. Über kurz oder lang wird aber genau das zu einem Problem, und zwar nicht nur für die Nutzer, sondern auch für die Produkte selbst. Sogar Facebook, das in großem Stil seine Plattform von Algorithmen personalisieren lässt, befindet sich mittlerweile in der Vertrauenskrise und verlor in Nordamerika jüngst erstmals in seiner Geschichte aktive Nutzer.

Deshalb – und dazu lud auch Prof. Krajewski ein – wäre es für Designer und Nutzer um so wichtiger, sich mit dem Thema Künstliche Intelligenz auseinanderzusetzen. Denn, wenn wir beginnen, die Mechanismen dieser Systeme zu verstehen, können wir sie aktiv mitgestalten. Dann wird es auch möglich, transparente Produkte zu gestalten, die dem Nutzer (oder gar der Menschheit als Ganzes) die Souveränität nicht entreißen. Damit könnten Designer helfen, zumindest eine der vielen offenen Fragen zu beantworten, die derzeit noch mit dem Thema Künstliche Intelligenz verknüpft sind.

 


Alle Talks der Veranstaltung

Bevor es zum Networking überging hörten die Teilnehmer im WeWork vier Talks, die Sie auf der Facebook-Seite der IxDA Frankfurt in voller Länge anschauen können. Wir bedanken uns bei den Kollegen des IxDA und des WeWork für die Einladung und sind gespannt auf die nächste Veranstaltung.

Prof. Andrea Krajewski: Ich und das Ding – wie IoT Design verändert

  • Prof. Andrea Krajewski doziert am Fachbereich Media der Hochschule Darmstadt als Professorin für die Gestaltung interaktiver Mediensysteme. Außerdem ist sie Designerin im Bereich Hardware- und Software-Interfaces. Im Zentrum ihres Talks stand ein sich veränderndes Verhältnis des Menschen zur Maschine: Gehen wir in ein Zeitalter über, in dem die Maschinen uns beherrschen?

Jan Korsanke: Künstliche Intelligenz, Design und Kreativität – Wohin geht die Reise?

  • Jan Korsanke ist UX-Architect aus München und sprach über KI im Design. Was kann sie und wie wir sie zukünftig ihr Verhältnis zum Designer aussehen? Wird sie kreativer Partner, ein „Kreativitäts-Killer“ – oder sind wir bald alle arbeitslos?

Johannes Baeck: KI Assistenten für Ärtze gestalten

  • Johannes Baeck, UX-Designer bei Product-People Fit, berichtete aus einem Feld, in dem KI bereits eingesetzt wird: Nämlich aus der Medizin. Er zeigte, mit welchen Mitteln es gelingen kann, eine konstruktive Interaktion zwischen System und Ärzten herzustellen, die in der Lage ist, zu korrekten Diagnosen beizutragen.

Martin Kulik: Der unsichtbare Game Changer

  • Zuletzt warf Martin Kulik vom zeb/BankingHub einen Blick in die Zukunft: Wir werden Gesellschaft und Arbeitswelt aussehen, wenn unser Leben vollständig von KI durchdrungen ist? Er warf einen Blick auf die Herausforderungen, die uns in den nächsten Jahren erwarten.

 


Design Thinking – weiter gedacht

Wenn Sie wissen möchten, wie Design Thinking sein volles Potential in Ihrer Organisation entfaltet, informieren Sie sich über unser Strategic Design Framework:

Informieren Sie sich über unser Strategic Design Framework