Gesichtserkennungstechnologien werden in unserem Alltag immer präsenter, aber nirgendwo werden sie so vielfältig eingesetzt wie in Xi Jinpings China. Bequem in vielen Alltagssituationen, aber bedrohlich für immer grössere Teile der Bevölkerung, wächst auch in China langsam das Unbehagen.

  • Wolfgang Behr

    Wolfgang Behr ist Professor für Sinologie mit Schwerpunkt Traditionelles China am Asien-Orient-Institut der Universität Zürich.
Geschichte der Gegenwart
Geschichte der Gegenwart 
Gesichts­ver­lust 3.0
/

Noch vor Ausbruch der COVID-Pandemie nahm ein chine­si­sches Gericht im Oktober 2019 die Klage eines Rechts­wis­sen­schaft­lers in Hang­zhou an. Professor Guo Bing hatte sich gewei­gert, im Safari-Park der 10-Millionen-Megacity einem neu einge­führten Verfahren zuzu­stimmen, das bei der Einlass­kon­trolle Gesichts­er­ken­nungs­soft­ware verwendet. Er argu­men­tierte, er habe erheb­liche Bedenken sowohl gegen die Zuver­läs­sig­keit des Verfah­rens an sich als auch gegen die Spei­che­rung seiner Daten durch einen kommer­zi­ellen Betreiber. Zwar wurde die Klage formal wegen Verlet­zung von Verbrau­cher­schutz­rechten einge­reicht. Allen Beob­ach­tern war jedoch klar, dass es sich hier um den ersten in der Volks­re­pu­blik China bekannt­ge­wor­denen Fall handelt, in dem ein Gericht die Verlet­zung von Daten­schutz­rechten im persön­li­chen Bereich zu unter­su­chen hatte.

„Face-Swiping“

Wenige Wochen später meldete sich auch Lao Dongyan, eine bislang wenig bekannte Pekinger Rechts­pro­fes­sorin in einem Blog zu Wort, in dem sie detail­liert ihre Oppo­si­tion gegen die Einfüh­rung von „face-swiping” im Pekinger U-Bahn-System erläu­terte. Effi­zi­enz­ar­gu­mente seien unzu­rei­chend, um eine poten­tiell massen­hafte Verlet­zung von Persön­lich­keits­rechten zu recht­fer­tigen und insbe­son­dere dann gefähr­lich, wenn sie von Seiten des Staates in Kauf genommen würden. „Was mich wirk­lich besorgt und in Panik versetzt“, schrieb Lao, „ist, dass meine Infor­ma­tionen von Behörden miss­braucht werden. (…) Das hyste­ri­sche Streben nach Sicher­heit hat der Gesell­schaft über­haupt keine Sicher­heit gebracht, sondern totale Unter­drü­ckung und Panik.“ Das Echo im chine­si­schen Internet war verhalten, aber doch vernehmbar – spätes­tens nachdem Professor Lao ihre Bedenken im Früh­jahr 2020 auch auf die elek­tro­ni­schen Einlass­kon­trollen von Wohn­sied­lungen ausweitete.

„Über­wa­chung im Innen­raum instal­liert — bitte passen Sie sich dem Norm­ver­halten an!“

Quelle: sixthtone.com

Schon seit Jahren wird Gesichts­er­ken­nung in China viel weit­rei­chender einge­setzt als in Europa. Viele Bank­au­to­maten sind mit Gesichts­scan­nern ausge­stattet, ebenso Check-in-Counter an Flug­häfen, Türen von Behör­den­ge­bäuden, Studen­ten­wohn­heimen oder privaten Wohn­an­lagen. Mit Gesichts­er­ken­nung in öffent­li­chen Toiletten wird mancher­orts der Toilet­ten­pa­pier­ver­brauch kontrol­liert. Bereits vor fünf Jahren instal­lierten einige chine­si­sche Gross­städte Gesichts­er­ken­nungs­sys­teme, um Rotgänger an Ampeln zu iden­ti­fi­zieren und ihre Fotos in bester kultur­re­vo­lu­tio­närer Denun­zia­ti­ons­tra­di­tion einer Art „Public Shaming” zuzu­führen. Über solche Fälle hat Kai Stritt­matter in seinem Buch Die Neuerfin­dung der Diktatur bereits 2018 sehr eindring­lich berichtet. Schon wird auch die Aufmerk­sam­keit von Schul­kin­dern durch Gesichts­er­ken­nung über­wacht. Die Ergeb­nisse sind selbst­re­dend Teil der Evalua­tionen des Lehr­per­so­nals, dessen Unter­richt sowieso komplett video­auf­ge­zeichnet wird. Von den „tiger mums” und „heli­c­opter dads” im wahr­schein­lich kompe­ti­tivsten Erzie­hungs­system der Welt sind bislang wenig Wider­stände bekannt. Mitt­ler­weile hat die Gesichts­er­ken­nung auch die Spezies­grenze über­schritten: Chine­si­sche Schwei­ne­farmer nutzen sie nicht nur, um die Tiere elek­tro­nisch unter­scheiden zu können, sondern auch, um früh­zeitig Rück­schlüsse auf Erkran­kungen, insbe­son­dere auf geschmacks­be­ein­träch­ti­gende „Depres­sionen” des Bors­ten­viehs ziehen zu können.

Akzep­tanz der Über­wa­chung und erste Proteste

Zwei­fellos geniessen digi­tale Über­wa­chungs­formen in China eine sehr viel höhere Akzep­tanz als im eher tech­nik­skep­ti­schen Mittel­eu­ropa – eine Reak­tion wie jene von Professor Guo hätte man daher kaum erwartet. Wer mit der in China so genannten „Schweizermesser-App” WeChat fast alles auf dem Smart­phone erle­digt – vom Bestellen des Menus im Taxi auf dem Weg zum Restau­rant bis hin zur Kauf­ab­wick­lung von Luxus­im­mo­bi­lien – wird sich nicht wundern, dass sie bald als Ersatz für den Perso­nal­aus­weis gelten soll. Eine ähnliche Noncha­lance kennt man auch aus Osteu­ropa und Südost­asien – beide Regionen neben afri­ka­ni­schen Staaten heute Gross­ab­nehmer der von ca. 7.400 chine­si­schen Unter­nehmen produ­zierten Gesichts­er­ken­nungs­sys­teme. Man darf vermuten, dass die Bereit­schaft, sich Formen digi­taler Über­wa­chung zu unter­werfen, häufig umge­kehrt propor­tional zu den Korrup­ti­ons­in­dizes einzelner Gesell­schaften verläuft.

Die Hoff­nung einiger Kritiker, dass man durch das Tragen des Nasen-Mundschutzes während der Pandemie den Gesichts­er­ken­nungs­sys­temen entgehen könnte, zerschlugen sich übri­gens schnell. Schon Mitte Januar 2020 war in China klar, dass die staat­li­chen Systeme auch mit Masken­trä­gern keine ernst­haften Probleme haben. Ihre Daten­banken waren schon lange anhand voll­bart­tra­gender Moslems in Nord­west­china und Paki­stan trai­niert worden. Ein Gross­teil der Erfolge bei der Eindäm­mung des Corona-Virus in China, aber auch in den dispro­por­tional zur Enge ihrer Bezie­hungen zur Volks­re­pu­blik wenig betrof­fenen demo­kra­ti­schen Nach­bar­staaten wie Taiwan, Südkorea und Vietnam, beruht auf dem konse­quenten Einsatz von smarten tracking-Technologien.

Temperatur-Monitoring; Quelle: bbc.com

Schon erscheinen die ersten Studien in China, bei denen die Erken­nungs­soft­ware auch gleich die Wahr­schein­lich­keit einer Corona-Infektion des oder der fieb­rigen Träger:in hinter dem Mund­schutz mitbe­stimmen soll. Wie stabil ange­sichts solcher auch posi­tiver Aspekte die Über­wa­chungs­skepsis gerade bei jüngeren Gene­ra­tionen in Europa veran­kert ist, bleibt abzuwarten.

Quelle: filmstarts.de

Wie Professor Guo zwischen­zeit­lich in Inter­views klar­stellte, waren für seine Sorge ursprüng­lich gar nicht die Zoos­canner ausschlag­ge­bend, sondern mitt­ler­weile verbo­tene „Deepfake”-Apps, die es ermög­li­chen, elek­tro­nisch Gesichts­daten zu tauschen. Meis­tens dienen sie dazu, coole Dating-Profile zu erstellen, keines­wegs zur Umge­hung staat­li­cher Kontrollen. Ande­rer­seits werden sich einige erin­nern, wie Tom Cruise in Mino­rity Report bereits 2002 abwe­gige perso­na­li­sierte Produkte ange­boten bekam, weil er sich von einem schwe­disch nuschelnden Guerilla-Ophthalmologen neue Augäpfel hatte einsetzen lassen, um dem staat­li­chen Iris­scan zu entgehen. Bei P.K. Dick (1928–1982), von dem die zugrun­de­lie­gende Erzäh­lung von 1956 stammt, sind es noch die „Precogs”, hell­se­hende Mutanten, welche dem Staat Hinweise für die „präemp­tive” Verbre­chens­be­kämp­fung liefern. Die Über­wa­chungs­com­puter heutiger Regimes brau­chen keine wundersam mutierte mensch­liche Voraus­sicht mehr, solange sie direkt auf massen­agg­re­gierte Daten zurück­greifen können.

3D-Gesichtsmasken: Quelle: entrepreneur.com

Zehn Jahre nach der ersten voll­stän­digen Gesichts­trans­plan­ta­tion brachte 2020 ein japa­ni­sches Unter­nehmen nun auch „natur­ge­treue“ Gesichts­masken aus dem 3D-Drucker auf den Markt. Diese werden bislang von allen gängigen Erken­nungs­soft­wares als authen­tisch iden­ti­fi­ziert. Werden wir also bald mit Voll­ge­sichts­masken unserer ärgsten persön­li­chen Feinde durch die video­über­wachten Städte laufen? Wer wird sich in China den ersten Deepfake-Ausdruck eines hoch­ran­gigen Partei­ka­ders bestellen?

F/Racial Reco­gni­tion und Emotionserkennung

Bereits seit 2015 betreibt China ein Projekt, dessen Ziel die online-Identifikation aller Bürger:innen inner­halb von Sekunden ist. Voran­ge­trieben wird es u.a. von den Firmen Is’vision in Shanghai und Seetech in Peking. Noch sind die auf 15 Tera­byte geschätzten Gesichts­daten offenbar nicht voll­ständig, aber das ist nur eine Frage der Zeit. Den Staat scheint dabei die Vorstel­lung nicht zu irri­tieren, dass eine Fest­platte dieser Grösse bequem in einer Hand­ta­sche trans­por­tiert und in unlieb­same Hände geraten könnte. Oberste Ziele seien öffent­liche Sicher­heit, Terrorismus- und Korruptionsbekämpfung.

Sie können uns unter­stützen, indem Sie diesen Artikel teilen: 

Über­wa­chungs­ka­meras auf dem „Platz des Himm­li­schen Frie­dens“, 2015; Foto: phs

Zu den Kunden von Is’vision, das bereits seit 2003 den „Platz des Himm­li­schen Frie­dens“ video­über­wacht, gehören nicht nur die Ämter für Öffent­liche Sicher­heit, sondern auch Grenz­be­hörden oder Einrich­tungen wie der Bahnhof von Ürümqi, der Haupt­stadt von Xinjiang. Dort, so wirbt die Firma auf ihrer Home­page, sei Dank ihrer Tech­no­logie der Haupt­schul­dige eines Terror­an­schlags der „Turke­stan Islamic Party” am letzten Tag der üppig media­li­sierten Besuchs­reise Xi Jinpings im April 2014 iden­ti­fi­ziert worden, bei der dieser das „Uigu­ri­sche Auto­nome Gebiet” mit seinen 25.8 Mio. Einwoh­nern zur „Front­linie der Terro­ris­mus­be­kämp­fung” erklärt hatte. Die Einrich­tung der „Berufs­bil­dungs­zen­tren”, also jener Inter­nie­rungs­lager, in denen heute nach Schät­zungen von Menschen­rechts­or­ga­ni­sa­tionen rund eine Millionen Ange­hö­rige v.a. mosle­mi­scher Minder­heiten „umer­zogen” werden, geht mittelbar auf diesen Anschlag zurück. Dasselbe gilt für die Verab­schie­dung der „Verord­nung zur Besei­ti­gung des Extre­mismus in der Auto­nomen Region Xinjiang”, die mitt­ler­weile durch die gele­akten „China Cables” im Wort­laut bekannt und deren düstere Konse­quenzen durch tausende Doku­mente aus lokalen Polizei-Institutionen bestä­tigt worden sind.

Sowohl für die Mitglieder von LGBTQ+ -Gruppen in China als auch für die musli­mi­schen und buddhis­ti­schen Bevöl­ke­rungs­gruppen in Xinjiang oder Tibet dürfte Spielberg’s Film­titel Mino­rity Report heute jeden­falls einen ganz anderen Klang haben als vor dem Amts­an­tritt von Xi Jinping. Dasselbe gilt zwei­fellos auch für Zwangs­ar­beiter aus den Minder­hei­ten­ge­bieten, die an die Zulie­ferer inter­na­tio­naler Unter­nehmen von Adidas bis Zegna im chine­si­schen Kern­land verkauft worden sind.

Emoti­ons­er­ken­nung in einer Grund­schul­klasse; Quelle: ft.com

Emoti­ons­er­ken­nung im Leis­tungs­sport; Quelle: emotibot.com

Beun­ru­hi­gend ist auch, dass in China derzeit nicht nur fahrer­lose Taxis an den Start gehen, sondern womög­lich bald auch rich­ter­lose Gerichte, denen die bei weitem grösste Daten­bank von digi­ta­li­sierten Gerichts­ur­teilen der Welt zur Verfü­gung steht. Die auf der algo­rith­mi­schen Auswer­tung solcher Daten und also auch auf dem „deep lear­ning” aller Vorur­teile basie­renden Programme beginnen bereits aufgrund von Infor­ma­tionen zur Gesichts- und Körper­spra­chen­er­ken­nung verfah­rens­ent­schei­denden Input an die Justiz­be­amten zu liefern. Wem wächst – rein statis­tisch gesehen – in Ürümqi ein terro­ris­ti­scher Bart? Wer schlen­dert in Shanghai mit einem homo­se­xu­ellen Blick den Bund entlang? Wie patrio­tisch war das Kinn bei der Fahnen­his­sungs­ze­re­monie in Kashgar in die Höhe gereckt, wie suizidal die Kopf­be­we­gung eines Lager­in­sassen? Nur noch wenig entgeht dem Projekt „Sharp Eyes“ des Minis­te­riums für Öffent­liche Sicherheit.

Und im „Westen“?

Die von der EU geför­derte iBorderCtrl-Technologie wurde an verschie­denen Grenzen in der EU getestet und nutzt künst­liche Intel­li­genz zur Analyse von „micro-expressions“; Quelle: euractiv.com

Doch wer im Glas­haus sitzt, sollte nicht mit Steinen werfen. Auch die EU hat in ihrem Projekt „iBor­derCtrl“ seit 2018 allerlei Tech­no­lo­gien entwi­ckeln lassen, die Menschen im Busch­werk erspähen, Risi­ko­pro­file von Reise­do­ku­menten erstellen und, natür­lich, Gesichter erkennen. Das „Auto­matic Decep­tion Detec­tion System“ wurde z.B. darin trai­niert, „Lügen­mi­miken“ bei der Beant­wor­tung der von Avataren am Grenz­über­gang gestellten Fragen zu melden. Pilot­sys­teme wurden an Aussen­gren­zen­posten in Ungarn, Grie­chen­land und Lett­land „erfolg­reich getestet“, führten jedoch aufgrund von Fehler­raten von bis zu 20% zu nach wie vor hängigen Protest­ver­fahren wegen Verlet­zung der euro­päi­schen Datenschutz-Grundverordnung.

In den USA wurde der Einsatz von Gesichts­er­ken­nungs­tech­no­logie in San Fran­cisco im Mai 2019, in Port­land im September 2020 grund­sätz­lich verboten – letz­teres in Reak­tion auf ihren Einsatz während der Black Lives Matter-Demons­tra­tionen. Für Schlag­zeilen sorgten auch die Nach­richten über Clear­view AI, jene Firma, deren Daten­bank von rund drei Milli­arden aus sozialen Medien geka­perten Bildern mitt­ler­weile von tausenden ameri­ka­ni­schen Straf­ver­fol­gungs­be­hörden genutzt wird. Die Firma verfügt damit über etwa siebenmal so viele Gesichts­daten wie das FBI – das „Ende der Privat­sphäre, wie wir sie kannten“ titelte die New York Times. Die Bezie­hungen des austra­li­schen Firmen­grün­ders (Cam-)Hoan Ton-that in die rechte Polit­szene der USA sind wohl­do­ku­men­tiert, der Einsatz der Daten­bank in Kanada seit kurzem recht­lich unter­sagt. Als nun die Unter­su­chungs­be­hörden bei der Iden­ti­fi­ka­tion der Kapitol-Stürmer vom 6. Januar 2021 massen­haft Clearview-Daten verwen­deten, freute sich nicht nur Ton-that – auch in China war die Häme gross. Wieder einmal hätten die USA gezeigt, dass sie „mit zwei­erlei Mass messen“, stichelte das „China Jugend-Netzwerk. Mit dem „Menschen­rechtshut auf dem Kopf“ habe man chine­si­sche Gesichts­er­ken­nungs­firmen auf die staat­liche Über­wa­chungs­liste gesetzt, während Clear­view sogar von US-amerikanischen Social-Media-Giganten wie Twitter, Face­book und Youtube kriti­siert worden sei. In Krisen­zeiten verlasse sich die „schein­hei­lige“ US-Justiz dann aber doch auf das viel­ge­schol­tene Gesichtserkennungs-Unternehmen!

Falsche Konti­nui­täten

Dass „die” chine­si­sche Gesell­schaft im Gegen­satz zur euro­päi­schen „Schuld­kultur” durch „Scham­kultur” charak­te­ri­siert sei, in der die Angst vor „Gesichts­ver­lust” (shī miànzi 失面子, diū liǎn 丢臉) ein beson­ders tief veran­kertes Phänomen darstelle, ist ein in- und ausser­halb Chinas wohl­ge­pflegtes Klischee. Es hat meist mehr mit kultu­rellen Selb­st­ab­gren­zungen oder euro­päi­schen Projek­tionen als mit der Realität tradi­tio­neller Rechts- und Moral­auf­fas­sungen in China zu tun. Auch die gele­gent­lich venti­lierte Idee, wonach die Akzep­tanz des soge­nannten „Sozi­al­punk­te­sys­tems” in China durch buddhis­ti­sche Vorstel­lungen über die Anhäu­fung posi­tiven und nega­tiven „Karmas” geprägt sei, vermag in Bezug auf eine der säku­larsten Gesell­schaften der Welt kaum zu über­zeugen. Stets genügt ein Blick in die demo­kra­ti­sche Gesell­schaft Taiwans oder auf die letzten Wahl­er­geb­nisse in Hong Kong vor Einzug des Sicher­heits­ge­setzes, um sich klar­zu­ma­chen, dass „kultu­ra­lis­ti­sche“ Argu­mente dieser Art nicht verfangen. Die Möglich­keit, eine stabile „Menta­lität“ der Meidung von Gesichts­ver­lust entlang von Natio­nen­grenzen oder Kultur­räumen zu diagnos­ti­zieren, wird auch durch die expe­ri­men­telle Psycho­logie nicht bestätigt.

Maske der Beijing-Oper; Quelle: everypixel.com

Zwar wurde die Rede von einer spezi­fisch chine­si­schen Angst vor dem „Gesichts­ver­lust“ von den chine­si­schen Refor­mern zu Beginn des 20. Jahr­hun­derts eifrig geführt, meis­tens jedoch unter Rück­griff auf englisch­spra­chige Kolo­ni­al­li­te­ratur des 19. Jahr­hun­derts. Intel­lek­tu­ellen dieser Zeit galt der Reflex der Gesichts­wah­rung noch als Inbe­griff der Rück­stän­dig­keit der tradi­tio­nellen chine­si­schen Gesell­schaft, so dass etwa Lin Yutang (1895–1976), ein zweimal für den Nobel­preis nomi­nierter Schrift­steller, 1935 schrieb: „Erst wenn in den Minis­te­rien das Gesicht verloren geht und Regie­rung mittels ‚Gesicht‘ durch ‚Regie­rung‘ durch das Recht abge­löst wird, dann werden wir eine wahre Repu­blik haben.“ Wenn es auch schwer­fällt, das kommu­nis­ti­sche China als Rechts­staat zu bezeichnen, so spielte nach 1949 das Verständnis von „Gesichts­ver­lust“ als Merkmal einer korrupten Beam­ten­mon­ar­chie keine Rolle mehr.

Noch bis vor kurzem scherten sich auch die Bewohner des über­wa­chungs­ka­pi­ta­lis­ti­schen Einpar­tei­en­staates im 21. Jahr­hun­dert wenig um die neuen Spiel­arten des Gesichts­ver­lusts an neugie­rige Maschinen. Doch das ändert sich nun. In einer 2020 anonym durch­ge­führten Umfrage gaben bereits 60% der Befragten an, sie seien über den ausufernden Einsatz von Gesichts­er­ken­nungs­sys­temen besorgt. Nicht weniger als 30% behaup­teten sogar, ihre Gesichts­daten seien bereits auf dem Schwarz­markt verkauft worden. Am stärksten kriti­siert wird Gesichts­er­ken­nung zur Erfas­sung des Kauf­ver­hal­tens in Einkaufs­zen­tren (42%), gefolgt von Aufmerk­sam­keits­kon­trolle bei Studie­renden (28 %) und ihrer Verwen­dung bei der Vorbe­rei­tung von Schönheits-OPs, Persön­lich­keits­pro­filen und Gesund­heits­ein­schät­zungen (19%).

Fußgänger- und Fahr­zeug­er­ken­nungs­system Sense­Video von SenseTime; Quelle: buzzfeednews.com

Sehr viel empfäng­li­cher sind die Befragten für Einsatz­ge­biete im Bereich öffent­liche Sicher­heit und bei Verkehrs­de­likten. Dieser Grund­stim­mung entspricht, dass in China im Corona-Jahr 2020 einer­seits ohne viel Wider­stand neue Verwen­dungs­be­reiche der Gesichts­er­ken­nung in der Lockdown-compliance etabliert wurden. Ande­rer­seits gab es auch viel Beifall für Inter­net­clips von Personen, die sich den Über­wa­chungs­ka­meras durch Tragen von Motor­rad­helmen zu entziehen versuchten.

Wach­sendes Unbe­hagen, neue Allianzen

Auch im Fall von Professor Guo kam es zu Bewe­gungen. Rund ein Jahr nach der Einrei­chung seiner Klage wurde vom Volks­ge­richtshof Hang­zhou am 20. November 2020 beschieden, dass der Zoo eine Scha­dens­er­satz­zah­lung zu leisten und die Löschung der Gesichts­daten zu gewähr­leisten habe. Da sich der Urteils­spruch nur auf seinen eigenen Fall bezog, zog Professor Guo die Anzeige an eine höhere Instanz weiter. Parallel zu diesem uner­war­teten Urteils­spruch hatten sich weitere Entwick­lungen abge­zeichnet, die v.a. durch den kommer­zi­ellen Miss­brauch von Gesichts­er­ken­nungs­sys­temen ausge­löst wurden. Hierzu gehörten z.B. die Verwen­dung von Gesichts­daten durch Makler­firmen zur Einschät­zung des Kauf­in­ter­esses an Immo­bi­lien. Andere betrafen Marke­ting­firmen, die Gefühls­re­gungen poten­ti­eller Kunden beim Betrachten von Plakat- und Video­wer­bung analy­sierten. Diverse südchi­ne­si­sche Metro­polen unter­sagten in der Folge die Samm­lung von Gesichts­daten durch Immo­bi­li­en­firmen. Hang­zhou, Professor Guos Heimat­stadt, hat im Oktober letzten Jahres das Recht auf Verwei­ge­rung der Zurver­fü­gung­stel­lung biome­tri­scher Daten zum Betreten von Wohn­kom­plexen bestä­tigt. Und Tianjin, die elft­grösste Stadt der Welt, hat am 1. Dezember 2020 jegliche privat­wirt­schaft­liche Samm­lung biome­tri­scher Daten ohne Einwil­li­gung der Erfassten verboten. Dass sich die auch in der ostchi­ne­si­schen Hafen­me­tro­pole dem „Uighuren-Tracking“ ausge­setzten Zwangs­ar­beiter dort nun sicherer fühlen, darf gleich­wohl bezwei­felt werden.

Unbe­ein­druckt von der Kritik an den gut doku­men­tierten rassis­ti­schen Fehl­leis­tungen biome­tri­scher Erken­nungs­sys­teme verläuft ein epis­te­mi­scher Bruch. Noch rasanter als im „Westen“ rückt er in China von der Einzig­ar­tig­keit indi­vi­du­ellen Verhal­tens ab und bewegt sich immer tiefer in massen­da­ten­ge­stützte Wahr­schein­lich­keits­mo­delle. Durch sie werden Räume eröffnet, in denen der Algo­rithmus verspricht, letzt­lich mehr über das Indi­vi­duum, dessen Verhalten, Emotionen und Vorlieben zu wissen als das Indi­vi­duum selbst. Dass das Unbe­hagen an der physi­schen Iden­ti­fi­zier­bar­keit des Einzelnen vor diesem Hinter­grund auch in der Han-chinesischen Mehr­heit in China wächst, ist unüber­sehbar. Ebenso unüber­sehbar wie die noch klar unter­scheid­baren Ost-West-Asymmetrien der Akteure: In China ist es vorrangig der Daten­hunger des Staates, der Angst und Bange werden lässt; im „Westen“ jener der Tech­no­lo­gie­firmen und Marke­ting­ab­tei­lungen. Besorgte und Geschä­digte aller Länder und Systeme wären gut beraten, hier kluge Alli­anzen zu schmieden!