Datenschutzprobleme sind uralt. Der extravagante Sonnenkönig, Ludwig XIV. Von Frankreich, popularisierte den Umschlag, als er seine Briefe damit vor den neugierigen Blicken des Zimmermädchens oder Ladenbesitzers schützte. In der Kolonialzeit halfen selbstklebende Umschläge und gemusterte Futter, den Inhalt von häufig abgefangener Post zu verbergen. Zusammen mit einer verstärkten Regulierung verursachten diese Bemühungen mehr Reibung gegen das Schnüffeln und machten die Privatsphäre greifbarer.
WIRED MEINUNG ÜBER
Stephanie Thien Hang Nguyen ist wissenschaftliche Mitarbeiterin am MIT Media Lab und beschäftigt sich mit Datenschutz-, Design- und Technologierichtlinien, die Auswirkungen auf marginalisierte Bevölkerungsgruppen haben. Zuvor leitete sie Datenschutz- und User Experience Design-Projekte mit dem Precision Medicine-Team der National Institutes of Health und Johns Hopkins. Lea Kissner ist die Datenschutzbeauftragte von Humu. Zuvor war sie weltweite Leiterin der Datenschutztechnologie bei Google und promovierte an der Carnegie Mellon University in Informatik (Schwerpunkt Kryptographie).
Jahrhunderte später breiten sich unsichtbare, unberührbare und allgegenwärtige Informationen über uns über Datenbanken aus, von Internetbrowsern bis hin zu Arztpraxen. So wie der Umschlag eine Designlösung war, die verhindern sollte, dass die Leute gegenseitig ihre E-Mails lesen, haben sich die Entwickler von Datensystemen dem Design zugewandt, um Datenschutzprobleme zu lösen.
Die Politik hat sich jedoch der Regulierung zugewandt. Viele Regulierungsvorschläge haben sich auf die Unterdrückung von dunklen Mustern konzentriert. Dies sind Design-Tricks, die Sie dazu bringen, Dinge zu tun, die Sie nicht beabsichtigt haben, wie das Abonnieren von Newslettern oder das Bezahlen von zusätzlichen Diensten. Im April haben die Senatoren Mark Warner aus Virginia und Deb Fischer aus Nebraska eine Gesetzesvorlage zum Verbot vieler dieser Funktionen eingeführt, z. B. die Schaltfläche „Verbindung hinzufügen“von LinkedIn (über die E-Mail-Adressen abgerufen und die Mitgliederbasis von LinkedIn erweitert werden) und die öffentliche Standardeinstellung von Venmo. Im Juli führte ein anderer Senator, Josh Hawley aus Missouri, Gesetze ein, um Funktionen wie Instagram, Facebooks unendliche Schriftrolle und die automatische Wiedergabe von YouTube zu verbieten.
Der Begriff „dunkle Muster“lenkt die Aufmerksamkeit auf böswillige Organisationen, die Benutzerdaten speichern, die den Bedürfnissen ihrer Benutzer entgegenwirken. Die meisten dieser Regulierungsvorschläge erkennen jedoch nicht an, dass dunkle Muster nur eine Teilmenge des mit einer Meinung versehenen Designs sind, das den Benutzer auf eine bestimmte Weise zu einem Ziel führt. Das meiste gute Design wird bewertet. Ob ein bestimmtes Design gut oder schlecht ist, hängt ganz davon ab, ob man mit dem Ziel einverstanden ist, und nicht von den angewandten Techniken. Anwender, Politiker, Forscher und Technologieunternehmen müssen sich daran erinnern, dass Design nicht auf binäre Kategorisierungen von Dunkel oder Hell reduziert werden kann - es gibt Nuancen.
Wenn Sie beispielsweise Designs in Betracht ziehen, für die mehrere schwer zu findende Klicks erforderlich sind, kann es äußerst schwierig sein, ein Abonnement zu kündigen. Sie können Menschen aber auch besser vor Online-Bedrohungen wie Phishing und Malware schützen. Nachforschungen haben ergeben, dass der einfachere Zugriff auf bösartige Websites dazu führt, dass Menschen auf diese zugreifen und in Scharen gehackt werden. Spam-Filterung wird ebenfalls empfohlen. Es gibt verschiedene nützliche Ziele sowohl auf individueller als auch auf gesellschaftlicher Ebene. Filter schützen Personen vor betrügerischen Inhalten und verhindern, dass die gesamte Gesellschaft betrügerisches Material produziert. Wenn ein App Store jedoch alle konkurrierenden Apps filtern würde, würden die Leute aus kartellrechtlichen Gründen übel weinen. Gleiche Techniken, sehr unterschiedliche Ergebnisse.
Es gibt mehr Nuancen, als nur zu beurteilen, ob eine Funktion einen Benutzer zu einem bestimmten Ergebnis treibt. Es besteht ein ständiger Kompromiss zwischen der Ermächtigung der Benutzer und der Benutzerfreundlichkeit. Wie können Unternehmen Benutzer über wichtige Dienste informieren (sich für die Gesundheitsfürsorge anmelden oder Studentenkredite bezahlen), ohne unbeabsichtigt Hindernisse zu schaffen, indem sie sie mit Informationen überhäufen? Und wie könnten wir dies tun, indem wir die nicht quantifizierbare, kontextabhängige Unordnung von Kultur und gesellschaftlichen Ungleichheiten berücksichtigen?
Durch das Sperren von Funktionen ohne Berücksichtigung des Kontexts, in dem sie verwendet werden, können wir versehentlich die Toolbox eines Designers einschränken, um ein Design zum Schutz der Privatsphäre zu erstellen. Hawley hat vorgeschlagen, "auffällige Popups mindestens alle 30 Minuten für einen Benutzer zu erzwingen, die der Benutzer für diese Plattformen ausgibt". Dies wird jedoch nur zu Ermüdungserscheinungen und unnötigen Klicks führen. Wir wissen, dass die Benutzer schnell lernen, durch diese Popups zu klicken, ohne ihre Nachricht zu registrieren. Dies macht sie nutzlos, nervt und ist eine hervorragende Möglichkeit, die Kommunikation über andere Themen wie die Sicherheit zu beeinträchtigen. Anstatt sich nur darauf zu konzentrieren, ob ein Entwurfsmuster gut oder böse ist, sollten wir untersuchen, ob die Ergebnisse den Datenschutzanforderungen der Benutzer im Kontext entsprechen. Wir müssen den Benutzererfolg messen: Entspricht das erwartete Ergebnis eines Benutzers dem, was er erreichen wollte? Hilft dies den Menschen, so zu leben, wie sie wollen?
Noch ehrgeiziger sollten wir die Zufriedenheit und das Glück der Menschen mit einem System sowohl kurzfristig als auch langfristig messen. Haben sie entsprechende Optionen? Können sie diese Optionen mit dem richtigen Maß an Reibung verwenden? Manchmal ist Reibung angebracht. Wenn Sie eine Warnung vor eine gefährliche Aktion stellen (z. B. das Löschen Ihres E-Mail-Kontos oder die Überweisung eines großen Geldbetrags), können Sie den Benutzern dabei helfen, das Risiko angemessen zu berücksichtigen. Das Zurücksetzen eines Telefons auf die Werkseinstellungen oder das Löschen eines Kontos ist möglicherweise zu einfach, als dass es zu schwierig wird. Dies führt dazu, dass Benutzer versehentlich wichtige Daten wie Babybilder und Liebesbriefe verlieren.
Es gibt spezielle technische Funktionen für Personen, die die Wahrscheinlichkeit von Bedrohungen und Sicherheitslücken einschätzen, sowie für Personen, die zuverlässige Systeme erstellen und das Risiko von Sicherheitsverletzungen verringern. Ebenso benötigen wir mehr Designer, um datenschutzfördernde Funktionen für unsere Produkte und Dienstleistungen zu erstellen. Dies bedeutet, dass sie sowohl das Know-how als auch die Motivation benötigen. Wenn branchenexterne Designer Verhaltensanfälligkeiten prüfen oder aufdecken und - was noch wichtiger ist - Designmuster entwickeln, um ein respektvolles, datenschutzschonendes Design zu unterstützen, kann dies sowohl den Stand der Technik verbessern als auch den Entscheidungsträgern und Regulierungsbehörden Nuancen bieten, die sich mit Design befassen möchten durch Gesetz. Es gibt bereits Spuren dieser Arbeit. Signal, Duck Duck Go, die Purdue University, CyLab, EFF, Apple, Mozilla, Google und Simply Secure von Carnegie Mellon sind nur einige Beispiele, bei denen diese Rollen weit verbreitet sind.
Dennoch gibt es mehr Brücken zu politischen Entscheidungsträgern und Regulierungsbehörden zu bauen. Wir brauchen Designer innerhalb und außerhalb der Industrie, die differenzierte Fragen zum Datenschutz stellen, Prototypen erstellen, Ergebnisse messen und Rahmenbedingungen schaffen, um diesen Herausforderungen zu begegnen. Mit diesem Verständnis für bewährte Praktiken und einer stärkeren Bindung an den Kongress sind die Aufsichtsbehörden gut gerüstet, um schlechte Praktiken anzugehen.