Wie differenzielle Privatsphäre funktioniert
Seit Jahren hat Apple eine lange Verpflichtung zur Privatsphäre, die viele seiner Konkurrenten nicht teilen. Während Google und Microsoft gerne persönliche Daten aussuchen, die Hacker und die Regierung ausnutzen könnten, hat sich Apple geweigert, dies zu tun. Als Beispiel gab Apple auf seiner Worldwide Developers Conference bekannt, dass alle iOS-Apps die Web-Kommunikation bis Ende des Jahres verschlüsseln müssen.
Aber Apple braucht Daten, um seine Dienste zu personalisieren und zu wissen, welche Anpassungen ihre Kunden wünschen. Am Dienstag diskutierte Senior Vice President Craig Federighi von Apple ein Konzept namens Differential Privacy, das in iOS 10 Software enthalten sein wird.
Laut Apple wird differenzielle Privatsphäre helfen, "die Nutzungsmuster einer großen Anzahl von Benutzern zu entdecken, ohne die Privatsphäre zu gefährden." Die Idee ist, dass Apple Benutzerdaten zwar insgesamt sehen kann, um ihre Dienste zu verbessern, aber für niemanden zu finden ist Daten über einen beliebigen Benutzer. Dazu gehören Apple selbst sowie Hacker und Regierungen.
Die Probleme mit der Privatsphäre
Wie ist es möglich, Daten im Ganzen, aber nicht auf individueller Ebene zu erhalten? Um zu verstehen, dass wir mit den Herausforderungen hinter dem Schutz der Privatsphäre der Benutzer beginnen müssen.
Die meisten Unternehmen bemühen sich, Ihre Privatsphäre zu schützen. Sie anonymisieren häufig Ihre Daten und verweigern die Veröffentlichung persönlicher Daten. Aber Menschen können verwenden, welche Daten aufgedeckt werden, um Ihre persönlichen Daten herauszufinden.
Es ist vergleichbar mit der tatsächlichen Identität eines Internet-Forum-Benutzers. Sie werden nicht ihren richtigen Namen oder ihre Telefonnummer haben, aber Sie können feststellen, dass der Benutzer des Forums in New York lebt und sich in diesem Restaurant verabredet hat. Indem Sie solche Fakten verwenden, können Sie sie eingrenzen, bis Sie ihre wahre Identität entdecken können. Und wie Wired darauf hingewiesen hat, konnten die Forscher 2007 so etwas tun, als Netflix eine Liste "anonymer" Kunden veröffentlichte.
Dies zeigt, dass selbst wenn ein Unternehmen versucht, persönliche Informationen zu verbergen, Hacker die Informationen verwenden können, die sie haben, um persönliche Daten zu sammeln. Und wenn die Firma versucht, alle Informationen zu verstecken, die sie haben, können sie sie nicht an ihrem Ende verwenden.
Aber was, wenn alle Informationen verdeckt sind?
Die Idee hinter Differential Privacy
Das ist es, was Differential Privacy vorgibt. Es funktioniert, indem es die Daten algorithmisch mit Rauschen verdeckt, so dass Hacker niemals wirklich herausfinden können, was eine Person gesagt hat.
Viele der Ideen hinter differenzieller Privatsphäre sind theoretisch und werden von Technikwissenschaftlern und Kryptologen ausgearbeitet. Aber Cynthia Dwork, die Co-Erfinderin der differenziellen Privatsphäre nach Engadget, gibt ein Beispiel, wie es funktionieren könnte, indem sie einen Vermesser verwendet, der jemanden fragt, ob er eine Prüfung betrogen hat:
Bevor er antwortet, wird die Person aufgefordert, eine Münze zu werfen. Wenn es Köpfe gibt, sollte die Antwort ehrlich sein, aber das Ergebnis der Münze sollte nicht geteilt werden. Wenn die Münze hochkommt, muss die Person eine zweite Münze werfen; Wenn es sich um Köpfe handelt, sollte die Antwort "Ja" sein. Wenn die zweite Schwänze ist, ist es "Nein".
Da eine Münze auf lange Sicht in fünfzig Prozent der Fälle Kopf oder Zahl hochkommen sollte, kann der Landvermesser grob raten, wie viele Leute tatsächlich ihre Prüfung über das Aggregat betrogen haben. Aber wenn eine bösartige Agentur herausfindet, dass eine bestimmte Person mit "Ja" geantwortet hat, hat sie keine Ahnung, ob das daran liegt, dass die Person beim Test betrogen hat oder weil er dies gesagt hat, nachdem er einen Schwanz bekommen hat und dann seinen Münzwurf anschlägt.
Die tatsächlichen differenziellen Datenschutzalgorithmen sind viel komplizierter, wären jedoch dem Beispiel des Münzwurfs ähnlich. Durch das Erstellen von mathematischem "Rauschen", um einzelne Daten zu verdecken, ist es unmöglich, irgendeinen Datenpunkt zu kennen, selbst wenn er den Algorithmus kennt.
Mögliche Bedenken
Differenzielle Privatsphäre könnte bedeuten, dass Apple und andere Unternehmen Daten erhalten können, die ihnen helfen und gleichzeitig die Privatsphäre ihrer Kunden schützen. Tatsache ist jedoch, dass ein Großteil der Arbeit, die die differenzielle Privatsphäre betrifft, weitgehend theoretisch war, und es gab keine kleinen Tests, wie es funktionieren könnte.
Es ist riskant, es in großem Umfang zu implementieren, wie Apple es mit iOS zu tun plant, ohne kleine Versuche.
Die differenzielle Privatsphäre ist jedoch in einem kleinen Maßstab nicht annähernd so nützlich. Das mathematische Rauschen wird die Daten in einer kleinen Stichprobengröße stärker verdecken, was die Wahrscheinlichkeit völlig ungenauer Daten erhöht. Denken Sie über das obige Beispiel nach. Wenn der Landvermesser nur 10 Personen befragte, hätten acht Personen möglicherweise "Schwänze" gedreht und seine Umfrage wäre wertlos. Aber wenn er 10.000 überblickt, ist es viel weniger wahrscheinlich, dass 8.000 Menschen "Schwänze" gedreht haben, und so kann er seinen Daten besser vertrauen.
Differenzielle Privatsphäre ist ein schwer verständliches Konzept. Aber wenn Apple erfolgreich ist, könnte das ernsthaft verändern, wie Unternehmen Daten erfassen. Unternehmen werden zwar gerne Nutzerdaten erfassen, aber die Tatsache, dass Daten gesammelt werden können, ohne die Privatsphäre der Nutzer zu beeinträchtigen, könnte enorme Auswirkungen auf Unternehmen und Kunden haben.