Transparenz, Überwachung, Big Data und Design

Erkennen, tracken und sammeln: Die Technologien der Transparenz

Immer unter Beobachtung? Welche Technologien unser Erleben im Zeitalter von Big Data prägen, beleuchten wir in diesem Artikel.

Im Jahr 2018 sind wir als Nutzer, Kunden und Bürger umgeben von Technologien, die unser Leben vermessen. Smarte Geräte, digitale Services, Datenspuren bei der Internetnutzung und biometrische Systeme zur persönlichen Authentifizierung begleiten uns durch den Alltag.

Der wirtschaftliche Nutzen dieser Technologien ist vielfältig: Das Erheben von Nutzungsdaten ermöglicht die Verbesserung von Diensten, eine Personalisierung von Marketing und Kommunikation sowie das andauernde Optimieren von Conversion und Website-Performance. Standortdaten ermöglichen Location Based Services, das Tracking firmeneigener Geräte oder standortbezogene Ergebnisse in Suchmaschinen. Die digitale Authentifizierung über biometrische Merkmale verspricht eine erhöhte Sicherheit und mehr Komfort für den Nutzer. Es entsteht langsam aber sicher eine Lebenswelt, in der es normal ist, dass alles was wir tun, aufgezeichnet wird.

„Smarte“ Technologie schafft heute die Möglichkeit, dass selbst das Leben einzelner Menschen bis ins Kleinste durchleuchtet werden kann. Der Mensch heute ist in der Tat „gläsern“, wie es Datenschützer gerne nennen. 

Demgegenüber sind die Technologien, die unser Verhalten messen, längst nicht durchschaubar. Auch die europaweite DSGVO und ihre Datenschutz-Erklärungen ignorieren wir genau so, wie wir die AGBs in Wahrheit nicht gelesen haben. 

Es herrscht ein asymmetrisches Verhältnis zwischen immer transparenteren Nutzern und durch ihre zunehmende Vernetzung intransparenten Systemen.

Als Gestalter digitaler Produkte und Diensleistungen müssen wir es uns zur Aufgabe machen, die Technologie, die wir einsetzen, auch zu verstehen. Nur so lässt sich erkennen, ob der Zweck, zu dem wir digitale Technologien einsetzen möchten, nicht nur den kurzfristigen Bedürfnissen, sondern auch den langfristigen Wünschen der Nutzer entspricht. Wir wollen uns der technologischen Ebene von Transparenz und Intransparenz im Zeitalter von Big Data anhand einiger Phänomene nähren.

Digitale Technologien: Use Cases, Datensammlung, Sicherheit

Mehr Sicherheit durch Biometrische Daten?

Ein Bereich, in dem heute schon täglich sehr persönliche Daten genutzt werden, ist die Authentifizierung mittels biometrischer Merkmale. Ob Iris-Erkennung, Fingerabdruck, Gesichtserkennung oder die Erkennung von Stimm-Mustern – die Anwendungen aus unserem Alltag sind bekannt und weit verbreitet, etwa von der Entsperrung des eigenen Notebooks per Fingerabdruck, den Identifizierungsmerkmalen auf Ausweisdokumenten oder der automatischen Gesichtserkennung in unserer Foto-App, bei Facebook und in Überwachungskameras.

Die Verbreitung dieser Technologien hat zwei Gründe: Zum Einen ist diese Art der Authentifizierung sehr komfortabel – ein körperliches Merkmal kann man schließlich nicht vergessen oder zuhause lassen. Zum Zweiten gelten körperliche Merkmale bei der Authentifizierung als sehr zuverlässig, da sie einzigartig sind.

Die Experimente, die mit biometrischen Merkmalen gemacht werden, gehen allerdings weit über die das Entsperren eines Telefons hinaus. Hier nun drei Beispiele, die uns besonders erwähnenswert erscheinen:

Facial Recognition Glasses in der Öffentlichkeit
Die chinesische Polizei testete Sonnenbrillen mit eingebauter Gesichtserkennung am Rande der jährlichen Parlamentssitzung. Unter anderem sollten damit Kriminelle, Journalisten oder Menschenrechtsaktivisten identifiziert werden, die nicht auf der Veranstaltung erwünscht waren.

Identifikation des Menschen am Tippverhalten
Es gibt Technologien, die Personen an deren Tippverhalten erkennen können, indem sie im Bereich von Millisekunden Verzögerungen bei unserem Tastaturanschlag messen. Und Browserplugins, die das verhindern sollen.

Körpersprache durch Wände erkennen
In einem Projekt am MIT wird ein künstliches neuronales Netz genutzt, um mittels Funkwellen, die am menschlichen Körper abprallen, Menschen anhand Ihrer Bewegungen zu erkennen – und zwar auch durch Wände. Die künstliche Intelligenz kann anhand der Signale bereits 83 aus 100 Probanden korrekt identifizieren.

Digitalisierung: Kommunikation, Transaktionen, Standortdaten …

Fast jede menschliche Interaktion mit – oder nur in der Nähe von – digitaler Technologie hinterlässt Spuren. Über Cookies wird getrackt, wie sich Menschen online bewegen; IP-Adressen, GPS, Bilderkennung und Funkzellenabfragen sind geeignet, geographische Standorte zu bestimmen. Beim Einkaufen, Telefonieren, bei Bahnfahrten und bei Flügen entstehen eindeutige Daten, die Transaktionen zu Personen zuordnen.

Für Unternehmen heißt das: Wenn Nutzer ein digitales Angebot annehmen, hinterlassen sie Datenspuren. Das ist nützlich, aber all diese Daten müssen auch irgendwo gespeichert werden. Wie man an zahlreichen Kundendaten-Hacks beobachten kann, weckt das neue Öl Daten zum einen Begehrlichkeiten; zum anderen weckt es aber auch langsam das Misstrauen der Kunden: Wofür werden meine Daten gesammelt? Wie werden sie wirklich eingesetzt? Werden sie gar missbraucht oder heimlich weiterverkauft?

No such thing as small data

Das Misstrauen gegenüber dem Datensammeln kommt nicht von ungefähr, denn Datenhandel betreiben nicht zwielichtige Gestalten mit Schlapphut und grauem Mantel, sondern auch Akteure wie die Deutsche Post – und das in großem Stil. Gleichzeitig werden von staatlicher Seite seit langem eine ganze Reihe an Gesetzen diskutiert oder verabschiedet, bei denen unterschiedliche Daten von Bürgern erhoben und verarbeitet werden sollen; allen voran steht die Vorratsdatenspeicherung, bei der Metadaten zu jeglicher Kommunikation aller Bürger für sechs Monate – wenn auch nur zeitweise – gespeichert werden sollen, inklusive der Daten zur Nutzung von Messenger-Diensten, Telefonaten, Bewegungsprofilen und Internetnutzung.

In diesem Zusammenhang heisst es beschwichtigend, das seien ja „nur Metadaten“. Die tatsächlichen Inhalte von Kommunikation könne ja niemand lesen; die Post selbst lese ja auch nicht die Briefe. Diese Entwarnungen sind allerdings naiv, wenn man betrachtet, was wir mit solchen Daten alles anstellen können:

Hier nur zwei Beispiele zur Analyse von Rohdaten

Spiegelmining mit David Kriesel

Data Scientist David Kriesel wertet seit 2014 öffentlich zugängliche Rohdaten des Portals SpiegelOnline aus. Durch das Auswerten von Themen, Keywords, Posting-Zeiten, Textlänge, Autoren und anderem kann er damit erstaunliche Rückschlüsse über die redaktionellen Abläufe ziehen und z.B. anhand von Urlaubszeiten die Beziehungen innerhalb und über Redaktionen hinweg annehmen. Sein Vortrag beim Chaos Communication Congress von 2016 ist absolut sehenswert:


David Kriesel über mehr oder weniger intime Geheimnisse der SpiegelOnline Redaktion.

 

Die Metadaten von Ton Siedsma

Der Niederländer Ton Siedsma demonstrierte, wie die Kommunikationsdaten, die innerhalb einer einzigen Woche bei der Nutzung seines Smartphones anfielen, ausreichten, um sein Leben komplett zu durchleuchten: Sein Freundeskreis, seine Hobbies und Interessen, Besuche bei Veranstaltungen sowie seine Verhältnisse zu verschiedenen Arbeitskollegen wurden erstaunlich klar offengelegt. Anhand der Daten seines Mobiltelefons gelang es auch, auf sein Twitter-, Google- und Amazon-Konto zuzugreifen. Diese Auswertung von Metadaten sei dabei eigentlich „Kinderkram“, heißt es im zugehörigen Gastbeitrag auf netzpolitik.org.

Unternehmen sollten genau abwägen, ob und zu welchem Zweck sie Daten erheben. Denn jede Erhebung geschieht im Kontext einer digitalisierten Welt, die – wie es im Moment aussieht – niemand mehr abschalten wird. Jeder erhobene Datensatz ist darin ein Puzzlestück, das mit anderen in Verbindung gebracht mehr Informationen enthält, als es oberflächlich scheint. Dessen müssen sich Nutzer und auch Unternehmen bewusst sein. Besonders für digitale Unternehmen wird es in Zukunft eine wesentliche Rolle spielen, verantwortungsvoll mit der Erhebung und Nutzung von Daten umzugehen.

„Zukunfts“-Szenarien

INDECT und Social Credit. Dystopie oder Sicherheit?

Unter den Bürgerrechtlern in westlichen Gesellschaften ist es ein geflügeltes Wort: George Orwells 1984 sei „keine Anleitung“ gewesen. Die Möglichkeiten seines dystopischen Überwachungsstaates seien schon längst überflügelt. In der Tat ist es fantastisch und unheimlich zugleich, welche Entwicklungen schon heute öffentlich sind. Die Zukunft ist jetzt, möchte man sagen.

Forschungsprojekt INDECT

INDECT war ein Forschungsprojekt der EU und lief von 2009 bis 2014 an der Uni Wuppertal. Das Ziel: Die Möglichkeiten einer „Smart Surveillance“ auszutesten. Dafür sollten zum einen Überwachungstechnologien gebündelt werden: Kommunikationsdaten, Daten aus Überwachungskameras, Handyortung und weitere Quellen sollten vernetzt werden und mittels Relationship Mining und Predictive Analytics sollte eine Künstliche Intelligenz abweichendes Verhalten vorhersagen können. Das würde schließlich eine präventive Strafverfolgung möglich machen. Ohne auf die ethischen Fragestellungen einzugehen, die das Konzept sicherlich aufwirft, zeigt dieses Projekt, inwiefern Technologie heute nicht nur in der Lage ist, unsere Handlungen zu messen, sondern Ihr auch zugetraut wird, Vorhersagen zu treffen. Das INDECT-Projekt ist mittlerweile eingestellt.

Chinas Social Credit System

Alles andere als „eingestellt“ ist Chinas Social Credit, der das Land zu einer real gewordenen Black-Mirror-Folge machen wird – und zwar ab 2020. Ziel ist die Überwachung des Lebens aller Bürger bis ins kleinste Detail. Arbeits- und Privatleben werden auf „gutes“ oder „schlechtes“ Verhalten durchleuchtet und bewertet. Die Bewertungen fließen dann in einem einzigen Score zusammen: Menschen werden in eine „Klasse“ zwischen A+ und D eingeteilt und kommen, je nach Prädikat, unter anderem schlechter an Kredite, Flugtickets oder Immobilien. Das System soll abnormes Verhalten verhindern und zu einer „harmonischen Gesellschaft“ führen: In Präsident Xi Pings politischem Leitbild soll das größtmögliche „Glück“ für die größtmögliche Zahl an Menschen erreicht werden. Dass der Einzelne dabei auch auf der Strecke bleiben kann, wird in Kauf genommen. Bis 2020 sollen alle Datenbanken des Landes zusammengeführt werden – auch die großer Anbieter wie Alibaba und WeChat.

Sollte man den Forderungen von Nutzern folgen, die ihre Grundrechte freiwillig aufgeben wollen?
Iconstorm

Technologie im Sinne der Nutzer?

Aus westlicher Perspektive betrachtet, kann einem bei Chinas Social Credit System schon etwas mulmig werden. Klassische Einwände eines Liberalen könnten lauten: „Schon das Wissen darum, dass man überwacht wird, führt automatisch zu einer Verhaltensänderung. Überwachungsdruck erzeugt Konformität und Selbstzensur, die für eine liberale Demokratie schädlich sein können. Das kann doch niemand wirklich wollen, oder?“


Ein Bericht zu Chinas Social Credit System aus „westlicher“ Perspektive.

Nun stellt sich aber heraus: Doch, das kann man wollen. Eine repräsentative Befragung der FU Berlin zeigt, dass ungefähr 80 Prozent der Chinesen eine positive Einstellung zu dem System haben. Das gilt vor allem für ältere und gebildete Bürger. Und dafür gibt es eine logische Erklärung: Wenn diese Bürger nämlich das Leitbild der harmonischen Gesellschaft teilen, dann ist die erzeugte Konformität keine Nebenwirkung, sondern das gewünschte Ergebnis des Technologieeinsatzes. Ganz ähnlich gibt es übrigens auch in Deutschland eine konstante Mehrheit, die die Videoüberwachung öffentlicher Plätze befürwortet.

Vor diesem Hintergrund muss die Frage gestellt werden, wie sich Nutzerfreundlichkeit und Wert (wie in Wertschöpfung) definieren. Sollte man den Forderungen von Nutzern folgen, die ihre Grundrechte freiwillig aufgeben wollen? Oder sollte man ihren Wünschen zuwider handeln und sie mit besten moralischen Absichten bevormunden? An diesem Punkt wird es wichtig, ihre Interaktion mit der Technologie zu untersuchen, die sie überwacht. Und die ist, wie eingangs erwähnt, geprägt von einem asymmetrischen Verhältnis zwischen weitgehend unantastbaren Systemen und der Durchleuchtung des Nutzers.

Tim Berners-Lee und die Freiheit

Der Erfinder des Internet rettet die Daten

Einen Gegenentwurf zu Überwachungsstaat und Datenkraken treibt derzeit niemand geringeres als Tim Berners-Lee, der „Vater des World Wide Web“ voran. Sein aktuelles Projekt heißt Solid – kurz für Social Linked Data – und basiert auf der Idee, dass Nutzerdaten den Nutzern gehören und auch unter deren Kontrolle stehen sollen.

Kurz gesagt sollen Nutzer ihre Daten in sogenannten „Pods“ ablegen und auch selbst entscheiden, wo diese Pods dann gespeichert werden. Anwendungen müssten dann Daten aus diesen Pods anfordern, um sie nutzen zu dürfen. Dazu muss sie der Nutzer entsprechend berechtigen. Da Nutzer außerdem verschiedene Pods anlegen können, soll Solid zu einem möglichst dezentralisierten Ökosystem für nutzbare Daten werden, die dem Individuum gleichzeitig seine Autonomie bewahren.

The Web as I envisaged it, we have not seen it yet. The future is still so much bigger than the past.
Tim Berners-Lee

Ob sich mit diesem Projekt am Ende tatsächlich die Funktionslogik des Netzes verändern lässt, ist heute schwer zu sagen. Was gut klingt, löst einerseits nicht die Frage nach den Metadaten, die auf Protokollebene alleine durch Datenübermittlung entstehen; andererseits ist die Nutzung einer solchen Technologie immer auch damit verbunden, dass ihre Nutzer einen Teil ihrer Bequemlichkeit zugunsten der manuellen Verwaltung ihrer Daten aufgeben. Es wird eine Menge kognitven Aufwands nötig sein, wenn sich Menschen persönlich mit den Komplexitäten einer digital vernetzten Welt auseinandersetzen und diese selbst verantwortungsvoll beurteilen sollen.

 

Fazit: Neue Fragen

Zusammenfassend fällt auf, dass der Themenkomplex der Transparenz plötzlich zahlreiche neue Fragen für Unternehmen und Gestalter aufwirft:

1. Die Nutzererfahrung der Digitalisierung

Welche Erfahrung machen Menschen in einer Lebenswelt, in der sich Interaktionen mit Technolgie von einzelnen Touchpoints lösen und vernetzt funktionieren?

2. Die Dimension der Selbstbestimmung

Welche Wirkung hat es auf Menschen, wenn interaktive Systeme zusätzlich zu unseren expliziten Eingaben zunehmend auch implizite (Meta-)Informationen mit verarbeiten?

3. Gestaltung im Kontext von pervasive Computing

Wie lässt sich die andauernde Interaktion in und mit diesen vernetzten Systemen im besten Sinne ihrer Nutzer gestalten?

4. Transparenz als Produktmerkmal

Wie gestalten wir im Kontext von Big Data und Künstlicher Intelligenz Angebote so, dass Sie Vertrauen fördern ohne Überforderung und Resignation zu verursachen?

Allesamt sind dies Fragen, die wir – zugegeben – an dieser Stelle nicht klären werden. Dafür werden wir diese und weitere Fragen ausführlich auf dem World Usabilty Day Frankfurt 2018 diskutieren. Die Veranstaltung findet am am 8. November 2018 im Silberturm der Deutschen Bahn statt. Die Teilnahme ist kostenlos und Tickets sind auf eventbrite verfügbar:

Anmelden zum World Usability Day Frankfurt 2018

Website des World Usability Day Frankfurt

frankfurt-wud.de

Thematische Einführung zum Thema „transparency?“

Transparency? Zwischen Bequemlichkeit und Überforderung