Deutsche Bank Research
Nachgefragt...
Interview mit Herrn Peter Schaar zum Themenkomplex Herausforderungen im digitalen Zeitalter

 

22. September 2015

nicht löschen!!

Interview mit Herrn Peter Schaar, ehemaliger Bundesbeauftragter für den Datenschutz und die Informationsfreiheit (BfDI), jetziger Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID), zu den Themenfeldern Datenschutz, Spähsoftware, Diskriminierung, Meinungsmonopolisierung und künftige Herausforderungen im digitalen Zeitalter

 

1. Herr Schaar, personenbezogene Daten werden mehr und mehr zu einem volkswirtschaftlichen Asset, und wir bewegen uns immer tiefer hinein in eine Datenökonomie. Die Speicherung und Nutzung personenbezogener Daten von unterschiedlichen Interessengruppen und für unterschiedliche Zwecke nimmt kontinuierlich zu. Das Resultat: Der Verlust unserer Datenhoheit. Teilen Sie diese Einschätzung?

Die Frage, wer über unsere Daten verfügt, wird angesichts der allgegenwärtigen Datenerhebung und -verarbeitung immer bedeutsamer. Entgegen der ersten Vermutung ist die heutige Informationsgesellschaft vor allem einseitig transparent, wie ein venezianischer Spiegel: Gläsernen Nutzern stehen weitgehend undurchsichtige, digitale Machtzentren gegenüber. Eine Gesellschaft, in der auf globaler Ebene immer mehr Daten verfügbar sind, ist nicht gegen kulturelle Verarmung und Unterdrückung gefeit. Für die Zukunft einer demokratischen Informationsgesellschaft ist es entscheidend, ob es gelingt, den Einsatz der Informationstechnologie so zu beeinflussen, dass unsere in Jahrhunderten gewachsenen und erkämpften Werte und Rechte auch unter den sich rasant wandelnden technischen Bedingungen bewahrt werden. Dazu gehören Datenschutz und Transparenz gleichermaßen. Wie es das Bundesverfassungsgericht bereits in seinem Volkszählungsurteil 1983 formuliert hat, ist Datenschutz das Recht auf informationelle Selbstbestimmung. Die verfassungsrechtlich verbürgte freie Entfaltung der Persönlichkeit umfasst – so das Bundesverfassungsgericht – auch ein Grundrecht eines jeden Menschen, über die Preisgabe und Verwendung seiner persönlichen Daten grundsätzlich selbst zu bestimmen. Dies gilt heute mehr denn je und die Technik kann durchaus auch dazu beitragen, dieser Maxime Geltung zu verschaffen. Leider ist festzustellen, dass viele digitale Geschäftsmodelle und auch staatliche Überwachungsmaßnahmen genau das Gegenteil bewirken und die informationelle Selbstbestimmung einschränken. Hier ist ein Umdenken dringend erforderlich.

 

2. Was sind aus Ihrer Sicht die wirtschaftlichen, politischen, aber auch gesellschaftlichen Konsequenzen dieser Entwicklungen?

Es mag paradox klingen, aber auch die Transparenz kann dazu beitragen, das informationelle Selbstbestimmungsrecht zu stärken. Zudem kann Transparenz durchaus demokratische Beteiligungs- und Mitentscheidungsmechanismen stärken. Wir brauchen zwar keine totale Transparenz – dies wäre auch datenschutzrechtlich bedenklich –, aber sehr viel mehr Durchblick bei Verfahren, Strukturen und Entscheidungsprozessen. Dabei reicht es nicht aus, Transparenz erst im Nachhinein zu schaffen. Mindestens genauso wichtig ist die vorsorgliche Schaffung von Klarheit, damit Fehlentwicklungen im staatlichen und privatwirtschaftlichen Bereich gar nicht erst geschehen. Datenschutzrechtliche Auskunftsansprüche, Akteneinsichtsrechte nach dem Verwaltungsrecht und Zugangsansprüche zu staatlichen Informationen, die durch die Informationsfreiheitsgesetze gewährt werden, reichen nicht aus. Vielmehr müssen die Informationsfreiheitsgesetze zu Transparenzgesetzen weiterentwickelt werden, welche die staatlichen Stellen dazu verpflichten, sehr viel mehr Informationen von sich aus, also pro-aktiv bekanntzugeben. Wünschenswert ist dabei, dass nicht nur kopierte Dokumente öffentlich werden, sondern auch die Daten, die bei der Entscheidungsfindung verwendet wurden (Open Data). Auch in der digitalen Wirtschaft muss sehr viel mehr Transparenz herrschen, insbesondere im Hinblick auf die bei der Profilbildung und zur Bewertung menschlichen Verhaltens eingesetzten Verfahren. Sicherlich werden viele Betroffene nicht in der Lage sein, die komplexen Algorithmen nachzuvollziehen. Mit der Offenlegung werden sie aber für Fachleute, Verbraucher- und Datenschützer überprüfbar. Die Erfahrungen mit erfolgreichen Open-Source-Projekten – etwa mit dem Betriebssystem Linux – belegen, dass eine solche Algorithmen-Transparenz sinnvoll und machbar ist und dass mehr Offenheit sogar zur Verbesserung der Software-Qualität beiträgt, weil Fehler schneller erkannt werden können. Schließlich brauchen wir Preis- und Kostentransparenz bei digitalen Geschäftsmodellen. Nur wenn wir wissen, was die Daten Wert sind, die wir preisgeben, können wir uns rational entscheiden, ob und welche Dienste wir in Anspruch nehmen. Das Internet bietet hierfür eine Vielzahl geeigneter technischer Mittel.

 

3. Es gibt kritische Stimmen, die behaupten, dass Apple-Nutzer z.B. andere Preise für dieselben Dienste und Produkte angeboten bekommen als Android-Nutzer, weil eine unterschiedliche Kaufkraft vorausgesetzt wird. Zudem wird darüber diskutiert, dass Versicherungen aufgrund von Bewegungsprofilen und/oder elektronischen Gesundheitsdaten künftig unterschiedliche Beiträge erheben oder Versicherungsnehmer sogar ausschließen. Kritiker bezeichnen diese Preisdifferenzierung bzw. den Ausschluss von gewissen Versicherungsleistungen auf der Basis unserer (uns nicht bekannten) Datenprofile als Diskriminierung. Sind das Gerüchte oder werden uns Konsumenten hier tatsächlich auf Basis unserer Endgeräte unterschiedliche Preise angeboten? Welche Möglichkeiten hat der Konsument, sich vor dieser Art von Diskriminierung zu schützen?

Unabhängig von den hier genannten Beispielen ist es unbestreitbar, dass Unternehmen zunehmend an Modellen zur Individualisierung und Personalisierung von Angeboten arbeiten und dass dazu auch die Preisdifferenzierung gehört. Ich erwarte, dass wir es zukünftig nicht allein mit groben Differenzierungsverfahren wie den von Ihnen genannten zu tun bekommen, sondern mit wesentlich ausgefeilteren Methoden. Bereits heute richtet sich der individuelle, für einen Kredit zu zahlende Zinssatz bei Banken auch nach Scoring-Modellen, in die eine Vielzahl von Parametern eingehen. Sowohl beim Handel als auch im Dienstleistungsbereich ist es deshalb von entscheidender Bedeutung, für mehr Transparenz zu sorgen. Bereits heute hat jedermann das Recht, die ihn betreffenden personenbezogenen Daten abzufragen. Dagegen ist die Transparenz hinsichtlich der Profilbildung unterentwickelt. Auch hier brauchen die Bürger und Verbraucher sehr viel mehr Durchblick. Entsprechende rechtliche Vorgaben halte ich für dringend erforderlich.

 

4. Die oben genannte Preisdifferenzierung ist nur eine Möglichkeit, wie Unternehmen uns durch das Verwenden persönlicher Daten im Internet beeinflussen. Im Zuge gelenkter Informationsbeschaffung wird jeder Bürger zunehmend in der Tendenz seiner Meinung bestätigt. Sobald er z.B. die Suchergebnisse von Google aus seiner Recherche verwendet, bewirken die zugrundeliegenden Filteralgorithmen eine selektive, personalisierte Auswahl, sodass der Anbieter/Programmierer der Software exakt bestimmen kann, was der Nutzer zu sehen bekommt und was nicht. Bei Werbeeinblendungen geht hier vermutlich noch eine geringe Gefahr aus. Besorgniserregend wird es aber, wenn auf diese Weise auch politisch Einfluss genommen wird. Das gilt nicht nur für Deutschland, sondern gerade auch für Länder, die auf weniger demokratischen oder rechtsstaatlichen Fundamenten ruhen. Welche mittel- bis langfristigen Auswirkungen hat Ihrer Meinung nach die Gefahr der Meinungsmonopolisierung durch den Einsatz selbstlernender Algorithmen, und was müssen wir als Bürger beachten, wenn wir uns im Netz informieren möchten?

Im Internet sind wir schon vielfach in der „Filter-Bubble“ gefangen. So wissen wir nicht wirklich, wie Suchmaschinen die Ergebnisse auf eine Anfrage zusammenstellen. Nach der Google-Doktrin ist Internet-Demokratie eine Art Maschine, die alle möglichen Informationen bei einem Unternehmen zusammenlaufen lässt, die dieses nach nicht öffentlich zugänglichen Algorithmen auswertet und verwendet. Wie Unternehmen mit Daten umgehen, richtet sich letztlich nach deren wirtschaftlichen Interessen. Die Regeln werden einseitig festgelegt, die Nutzer haben darauf keinen Einfluss, genauso wenig wie auf die Suchergebnisse, die ihnen präsentiert werden. Wenn ihnen die Regeln nicht passen, bleibt den Nutzern letztlich nur die Möglichkeit, den Dienst nicht mehr in Anspruch zu nehmen. Dass auch staatliche Stellen hier bewusst eingreifen, um Informationen zu steuern, belegen Beispiele aus vielen Ländern. Selbst in westlichen Demokratien sind wir davor nicht gefeit, wie die Berichte über die Stimmungsbeeinflussung durch Facebook belegen, die nach Presseberichten vom US-Verteidigungsministerium finanziert worden sind. Gegen solche Manipulationen haben Nutzer mit nur oberflächlichen Computerkenntnissen kaum eine Chance, sich durch technische Verfahren zu schützen. Umso wichtiger ist es, mit dem Internet und anderen digitalen Techniken bewusst umzugehen. Das fängt bei der Auswahl der Dienste an, umfasst die Datenschutzeinstellungen. Besonders bedeutsam ist aber ein kritischer Umgang mit den Informationen, die das Netz liefert. Insofern ist es immer gut, mehrere Quellen zu nutzen und sich so ein eigenes Bild von der Realität zu bilden. Das Internet erleichtert solche Strategien sogar.

 

5. Die oben erwähnten Entwicklungen führen auch dazu, dass sich einige Internet-Unternehmen im Bereich Datenschutz und Datensicherheit darauf spezialisieren, dass Bürger wieder Kontrolle und Hoheit über ihre eigenen Daten erlangen sollen. Die Geschäftsmodelle dieser Unternehmen umfassen cloud-basierte Lösungen, die es uns erlauben, unsere persönlichen Daten sicher zu speichern, um sie nur bestimmten Personen, Unternehmen oder Interessengruppen selbstbestimmt zugänglich zu machen. Wie schätzen Sie den potenziellen Erfolg dieser – relativ jungen – Geschäftsmodelle ein, und sollten diese Angebote auch von staatlicher Stelle angeboten werden? Sehen Sie künftig Chancen, dass Bürger ihre personenbezogenen Daten auch selbst monetarisieren können, und wie könnte so eine Lösung aussehen?

Der Datenschutz und die Gewährleistung der Sicherheit und Vertraulichkeit von Daten ist von erheblicher wirtschaftlicher Bedeutung. Der Erfolg entsprechender Geschäftsmodelle hängt von verschiedenen Faktoren ab: Von der Leistungsfähigkeit und Bedienerfreundlichkeit der entsprechenden Produkte, ihrem Preis und natürlich vom Bewusstsein der Kunden. So hat sich bei vielen kommerziellen Nutzern in der letzten Zeit die Erkenntnis durchgesetzt, dass sie sich immensen Risiken aussetzen, wenn sie Datenschutz und IT-Sicherheit ignorieren. Die Snowden-Veröffentlichungen haben zu erheblichen Umsatzeinbußen bei US-Cloudservices geführt. Letztlich muss aber auch der rechtliche Rahmen stimmen: So geht es nicht, dass sich Unternehmen, die in Europa gute Geschäfte machen, anders als die europäische Konkurrenz nicht an EU-Datenschutzrecht halten müssen. Hier setze ich auf die anstehende Reform des EU-Datenschutzrechts, mit dem nicht zuletzt ein „level playing field“ geschaffen werden soll, indem auch Anbieter aus Drittstaaten die hiesigen Vorgaben beachten müssen. Die Selbstmonetarisierung der personenbezogenen Daten sehe ich kritisch, denn sie verstärkt letztlich die Masse der persönlichen Daten, die weggegeben werden. Aus gutem Grund verbietet unser Recht den Organhandel selbst dann, wenn der Einzelne darin einwilligt. Das Grundrecht auf informationelle Selbstbestimmung sollten wir uns nicht abkaufen lassen, auch wenn es bei kurzfristiger Betrachtung vorteilhaft erscheinen mag, die eigenen personenbezogenen Daten zu Geld zu machen.

 

6. Neben den diversen Internetunternehmen sammeln auch staatliche Behörden unsere persönlichen Daten und erstellen sogenannte Bewegungsprofile, um Kriminaldelikte besser aufzuklären oder um Terroranschläge möglichst verhindern zu können. Hierbei wird diskutiert, ob das Verhältnis zwischen „Sicherheit für den Bürger gewährleisten“ vs. „Kontrolle über den Bürger ausüben“ bereits aus den Fugen geraten ist. Worauf läuft die Bewegung der Speicherung und Auswertung persönlicher Daten durch staatliche Behörden mittel- bis langfristig hinaus? Inwiefern ist der Staat überhaupt in der Lage, Schutz zu bieten, wenn er selbst Teil des Tracking-Systems ist?

Die Behörden agieren hier wie Trittbrettfahrer. Sie beanspruchen und bekommen vielfach Zugriff auf die Daten, die bei digitalen Geschäftsmodellen anfallen. Besonders kritisch sehe ich Maßnahmen wie die Vorratsdatenspeicherung, die Unternehmen quasi zu Hilfssheriffs machen. Immerhin haben wir in Deutschland mit dem Bundesverfassungsgericht und in Europa mit dem Europäischen Gerichtshof und dem Gerichtshof für Menschenrechte Instanzen, die der Datensammelwut des Staates Grenzen setzen. Wenn demokratische Staaten aus durchaus nachvollziehbaren Motiven ihre Bürger immer gläserner machen, gefährden sie damit die demokratisch-rechtstaatlichen Rechtsgrundlagen. Leider kann ich hier ein Umsteuern der Regierungen noch nicht erkennen.

 

7. Lassen Sie uns zum Schluss noch einen Blick in die Zukunft wagen. Wie sieht Ihrer Meinung nach eine sichere und unbeobachtete, wenn notwendig auch anonyme Kommunikation im digitalen Zeitalter aus, und welche Voraussetzungen müssen erfüllt sein, damit sich jeder wieder authentisch im Netz bewegen kann?

Ein wichtiger Schritt könnte darin bestehen, dass verschlüsselte Kommunikation zum Standard wird. Ohne Kryptographie ist die Vertraulichkeit der Internet-Nutzung allenfalls vergleichbar mit derjenigen einer Postkarte. Die Tatsache, dass jeder Internetnutzer bereits heute seine E-Mails verschlüsseln kann, macht übergreifende sichere Lösungen nicht entbehrlich. Zum einen geht es nicht bloß um E-Mails und zum anderen fühlen sich die meisten Nutzer überfordert. Deshalb sind hier die Anbieter gefordert. Wir brauchen verbindliche und plattformübergreifende Standards. Bei der Identifikation sind Lösungen gefragt, die manipulationssicher sind, die aber zugleich die anonyme oder pseudonyme Nutzung ermöglichen. Auch hier gibt es interessante Lösungen, die jedoch nur unzureichend umgesetzt wurden. Hier sehe ich die Datenschutzbehörden in der Pflicht, die – zumindest in Deutschland bestehenden – rechtlichen Verpflichtungen zur Ermöglichung anonymer und pseudonymer Inanspruchnahme von Internetdiensten gegenüber den Anbietern durchzusetzen. Ohne Datenschutz, unbeobachtete Räume zur Diskussion, Information und Meinungsbildung und ohne Transparenz gesellschaftlicher Entscheidungsprozesse würde die Informationsgesellschaft ein Albtraum. Deshalb ist es aus demokratietheoretischer Sicht – um dieses zu recht häufig kritisierte Wort zu gebrauchen – alternativlos, rechtliche und technische Vorkehrungen zu treffen, die gewährleisten, dass die individuellen Freiheiten und politischen Mitwirkungsmöglichkeiten gestärkt werden. Anonyme Nutzungsmöglichkeiten sind dabei ein wichtiger Aspekt, reichen aber bei weitem nicht aus.

 

 

Peter Schaar
Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID), Bundesbeauftragter für den Datenschutz und die Informationsfreiheit a.D. (2003-2013).
Geboren in Berlin 1954, Diplom-Volkswirt. 1979-1986 verschiedene Funktionen in der öffentlichen Verwaltung. 1986-2002 zunächst Referatsleiter für technologischen Datenschutz, dann stellvertretender Hamburgischer Datenschutzbeauftragter. 2002/3 Gründung und Leitung eines Datenschutzberatungsunternehmens. 2003-2013 Bundesbeauftragter für den Datenschutz und die Informationsfreiheit. Seit 2007 Lehrbeauftragter an der Universität Hamburg. Zahlreiche Veröffentlichungen, darunter die Bücher Datenschutz im Internet (2002), Das Ende der Privatsphäre (2007), Total überwacht – Wie wir in Zukunft unsere Daten schützen (2014), Das digitale Wir – Der Weg in die transparente Gesellschaft  (2015). Auszeichnungen: „Das politische Buch“ Preis der Friedrich-Ebert-Stiftung (2008); „eco Internet AWARD“ (2008), „Deutscher Datenschutzpreis“ der GDD (2013), „Louis D. Brandeis Privacy Award“ der US-Patientenrechteorganisation Patients Privacy Rights (2014).

Blog: http://www.eaid-berlin.de/?cat=8.
 

 

Das Interview führten Thomas F. Dapp (+49) 69 910 31752 und Parinaz Khademi.

 

 

Zusätzliche Informationen:

Big Data - Die ungezähmte Macht

In unserer Datenindustrie sind wir nicht die Goldgräber, sondern eher Teil der Mine!

Operation Big Data: Herausforderung angenommen

 

 

 

© Copyright 2016. Deutsche Bank AG, Deutsche Bank Research, 60262 Frankfurt am Main, Deutschland. Alle Rechte vorbehalten. Bei Zitaten wird um Quellenangabe „Deutsche Bank Research“ gebeten.
Die vorstehenden Angaben stellen keine Anlage-, Rechts- oder Steuerberatung dar. Alle Meinungsaussagen geben die aktuelle Einschätzung des Verfassers wieder, die nicht notwendigerweise der Meinung der Deutsche Bank AG oder ihrer assoziierten Unternehmen entspricht. Alle Meinungen können ohne vorherige Ankündigung geändert werden. Die Meinungen können von Einschätzungen abweichen, die in anderen von der Deutsche Bank veröffentlichten Dokumenten, einschließlich Research-Veröffentlichungen, vertreten werden. Die vorstehenden Angaben werden nur zu Informationszwecken und ohne vertragliche oder sonstige Verpflichtung zur Verfügung gestellt. Für die Richtigkeit, Vollständigkeit oder Angemessenheit der vorstehenden Angaben oder Einschätzungen wird keine Gewähr übernommen.
In Deutschland wird dieser Bericht von Deutsche Bank AG Frankfurt genehmigt und/oder verbreitet, die über eine Erlaubnis zur Erbringung von Bankgeschäften und Finanzdienstleistungen verfügt und unter der Aufsicht der Europäischen Zentralbank (EZB) und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) steht. Im Vereinigten Königreich wird dieser Bericht durch Deutsche Bank AG, Filiale London, Mitglied der London Stock Exchange, genehmigt und/oder verbreitet, die von der UK Prudential Regulation Authority (PRA) zugelassen wurde und der eingeschränkten Aufsicht der Financial Conduct Authority (FCA) (unter der Nummer 150018) sowie der PRA unterliegt. In Hongkong wird dieser Bericht durch Deutsche Bank AG, Hong Kong Branch, in Korea durch Deutsche Securities Korea Co. und in Singapur durch Deutsche Bank AG, Singapore Branch, verbreitet. In Japan wird dieser Bericht durch Deutsche Securities Inc. genehmigt und/oder verbreitet. In Australien sollten Privatkunden eine Kopie der betreffenden Produktinformation (Product Disclosure Statement oder PDS) zu jeglichem in diesem Bericht erwähnten Finanzinstrument beziehen und dieses PDS berücksichtigen, bevor sie eine Anlageentscheidung treffen.

 
 
Netzwerke
Copyright © 2017 Deutsche Bank AG, Frankfurt am Main