Rezension: Speichern und Strafen: Die Gesellschaft im Datengefängnis | Adrian Lobe

Alexa, Siri und Cortana sind nicht die digitalen Alleswisser und harmlosen Helfer, wie sie von Tech-Konzernen gepriesen werden. Adrian Lobe, Autor und Politikwissenschaftler, beschreibt die virtuellen Assistenten als gefährliche Werkzeuge von Datenregimes, die offene Gesellschaften bedrohen. Denn Alexa und Co. seien nichts anderes als Gefängniswärter. Mit ihren Sensoren, Mikrofonen und Kameras überwachen sie Nutzerinnen und Nutzer. Die werden zu Gefangenen, denn sie werden permanent abgehört, ihre Schritte verfolgt, ihre Räume durchsucht.

Adrian Lobe ist Datenschutzexperte, ein grundskeptischer Mensch, wenn es um die digitale Ausbreitung geht. In seinem 2019 erschienenen Sachbuch „Speichern und Strafen“ beschäftigt er sich erneut mit diesen Fragen: Welche Gefahren bestehen, wenn immer mehr Maschinen übernehmen? Ist Menschen das Datengefängnis bewusst, an dem sie selbst bauen?

„Wir erleben eine moderne Form der Selbstunterwerfung. Die Nutzer überantworten das Freiheitsmanagement virtuellen Assistenten und beugen sich einem algorithmischen Diktat“, erklärt Adrian Lobe. In seinem Buch beschreibt er eine Dystopie, anhand vieler Beispiele in sämtlichen Lebensbereichen. Als Erklärfolien, die für Lobe heute nicht minder aktuell sind, zieht er Werke des Philosophen Michel Focault und Franz Kafkas Roman „Der Prozess“ heran.

Lobe beschäftigt sich mit virtuellen Welten, die schon jetzt alltäglich sind, und Worst-Case-Szenarien, die drohen. Gesichter zum Beispiel sind heute so öffentlich wie nie – durch Videoüberwachung und Gesichtserkennungssysteme. Die Technik wird ausgefeilter und in einigen Ländern immer häufiger eingesetzt. Programmiert wird nach Normen. Doch wie filigran werden Abweichungen berücksichtigt? Wo starre Grenzwerte definiert werden, gibt es wenig Raum für Abweichungen. Diskriminierung ist dabei also ebenfalls vorprogrammiert. Bei Flughafenkontrollen, bei der Strafverfolgung, bei alltäglichen Dingen.

Das Netz ist längst eine unendliche Fundgrube, weil Menschen ihre Spuren sorglos hinterlassen. Ihre Daten werden hemmungslos abgesaugt. Von Internet-Giganten wie Facebook und Google, die über die Weitergabe von Daten, zum Beispiel an Ermittlungsbehörden, nicht transparent informieren. Und das Datenmaterial für ihre eigenen Zwecke nutzen. Um Algorithmen zu füttern, die Einfluss nehmen, auf Einkaufsverhalten, auf politische Präferenzen, auf Meinungen und Haltungen. Parteien suchen nach Wegen, um digitale Wahlwerbung, gezielt zu platzieren. Schon längst gibt es Software, die bei Wahlen helfen soll, Entscheidungen zu treffen und Wahlprogramme zu sortieren. In der Realität ist das noch Welten entfernt von einem Szenario, das Lobe trotzdem schon jetzt alarmiert: Wird Alexa eines Tages für uns wählen?

Das eigene Zuhause kann zur Gefängniszelle werden, durch digitale Mitbewohner aus dem Bereich „Smart Home“, die das eigene Leben erleichtern sollen, es allerdings nebenbei für Zugriffe von außen öffnen. Adrian Lobe konstatiert: „Je vernetzter das Zuhause, desto größer wird die Zugriffsgewalt durch Dritte.“ Auch der eigene Körper wird inzwischen durch Technik ausgewertet, etwa durch Fitness-Tracking-Armbänder, die alle möglichen Körperfunktionen überwachen. Sogar im eigenen Körper gibt es inzwischen Internet. Herzschrittmacher wurden entwickelt, die internetfähig und Cloud-vernetzt sind. Menschen, die mit so etwas leben, fragen sich: Ist mein Herz wirklich noch meins?

Je mehr Daten unkontrolliert hin und her wandern, desto mehr entwickeln sich Gesellschaften in Richtung „Nanny-Staat“, findet Lobe. Denn Maschinen empfehlen nicht nur, sie können sich auch als moralische Instanzen, als Ordnungshüter aufspielen. Alexa zum Beispiel rät schon jetzt vom Rauchen ab. Kommt da noch mehr? Werden Programme Menschen zum Beispiel davon abhalten, Straftaten zu begehen? Selbst Fehlverhalten von Menschen gehöre zu einer offenen Gesellschaft dazu, meint der Autor. Denn, wenn niemand mehr gegen Regeln und Gesetzte verstoßen könne, dann sei auch die Freiheit dahin.