Můj obličej patří mně

Klasické kamery, dosud pouze zaznamenávající obraz, se mění ve složité nástroje detekce či identifikace. Lidská obsluha je nahrazována algoritmy umělé inteligence. Identifikují se lidé (podle tváře, chůze), auta (podle SPZ), detekují se jevy jako pohyb, umístění věcí v prostoru, interakce mezi lidmi, podivné chování, zvuky.

Zejména využití biometrické identifikace u lidí považujeme za oblast primární pozornosti nejen vzhledem k citlivosti dat, s nimiž pracuje, ale i vzhledem k možným negativním dopadům:

1) Základ pro budoucí kreditový systém

Může jít o základ infrastruktury pro budoucí automatizované hodnocení lidí ve všech aspektech jejich života (např. napojení na údaje o platbách, cestách apod.) a sociální kontrolu po vzoru čínského kreditového systému. Zkušenosti hovoří jasně: to, co dnes vypadá jako sci-fi scénář, se může zrealizovat během velmi krátké doby.

2) Záruky nejsou, pokušení ano

Při sledování záznamů dochází k obrovskému objemu zpracovávaných biometrických dat: nejde přitom jen o data hledaných osob, ale všech, jejichž tváře jsou technologiemi vyhodnocovány. Nejsou záruky, že nashromážděná data o pohybu a chování masy konkrétních  lidí nejsou nebo nebudou dál využívána nejrůznějšími způsoby – pokušení je velké.

3) Nespolehlivost

Biometrická identifikace je překvapivě málo neprůstřelná což potvrzují závěry odborníků. Nesprávná identifikace může ovšem mít pro konkrétní lidi vážné důsledky – od nevpuštění na sportovní utkání až po falešné trestní obvinění. Technologie fungující za systémy budí jednak falešný pocit spolehlivosti, jednak následnými rozhodnutími bez lidského prvku mohou omezit práva člověka bez možnosti účinné obrany. Biometrické kamery mají časté falešné shody či naopak malou spolehlivost (falešná pozitivita i negativita). Že ani v naléhavých případech nemusí robustní systémy biometrických kamer výrazně usnadnit dopadení pachatele, dokazuje brutální útok na číšníka v centru Prahy v roce 2018, kdy útočníky ve stejnou chvíli jako kamery rozpoznali obyčejní cestující.

4) Zakódované předsudky

Umělá inteligence systémů je často špatně natrénována. Hrozí tak zasednutí na lidi s určitými znaky. Bez korekce lidským zdravým rozumem tak mohou být jako podezřelí vyhodnoceni lidé s pomalejší chůzí či tmavou barvou pleti. Navázání sledovacího systému na automatizované rozhodnutí např. o přístupu na určité místo či o uložení pokuty pak citelně omezuje práva takto vybraných lidí s určitými znaky. Na tuto skutečnost upozornili v otevřeném dopise například vědci zabývající se vývojem softwaru.

5) Nechuť účastnit se občanských aktivit

Masové sledování veřejného prostoru a pocit neustálého dohledu neviditelným Velkým bratrem nezdravě mění chování lidí. Mohou mít obavy navštívit nějakou akci či prostor, pokojně demonstrovat či vyjádřit názor (viz tzv. chilling effect). Množí se účelová chování na obelstění (ne až tak chytré) technologie (viz článek Jak obelstít Velkého bratra).


Zjistili jsme: systém na rozpoznávání tváří používá už i česká policie

Dlouho jsme sledovali a popisovali, jak fungují dohledové biometrické systémy v zahraničí. V červenci 2023 jsme ale s konečnou platností 2023 zjistili, že automatizované rozpoznávání tváří provádí i česká policie.

Jak jsme odhalili později, v databázi je téměř 20 milionů fotek z občanských a pasových průkazů. K srpnu 2023 bylo vyřízeno 149 žádostí (porovnávání vždy probíhá oproti celé referenční databázi), do systému má přístup celkem 73 osob.

Systém sice neodhaluje osoby pomocí kamer v reálném čase. To ale na jeho využitelnosti moc nemění: lze pomocí něj odhalit identitu lidí z fotek ze sociálních sítí, vzhledem k současné kvalitě obrazu normálních kamer jím lze hravě odhalovat i identitu osob na kamerových záznamech (třeba z demonstrací), vyřízne-li se z obrazu dostatečně kvalitní záznam obličeje.

Jak pracuje česká policie s umělou inteligencí jsme detailně popsali v rozsáhlé studii Český Minority Report v prosinci 2023.

V březnu 2024 jsme dále zjistili, že „překlopení“ Aktu o umělé inteligenci do tuzemského právního řadu může celou situaci ještě zhoršit: k našim obávám se připojil i Úřad pro ochranu osobních údajů, podle kterého:

„Obecně lze vyjádřit obavu, zda předložený návrh v některých svých aspektech jdoucích nad nezbytné evropským právem vyžadované minimum nepovede k čínskému modelu, tedy k masivnímu nasazení kamerových systémů se systémem na rozpoznávání tváří a jejich následnému masovému vytěžování, a to za využití AI, což věc činí násobně více rizikovou.”

Podobné obavy vyjádřila i zmocněnkyně pro lidská práva Klára Laurenčíková Šimáčková.

Ukázkový systém kamer s biometrickými funkcemi je již na pražském letišti. Podle nás však nelegálně – podali jsme podnět a už od prosince 2021 čekáme na vyjádření Úřadu pro ochranu osobních údajů.

Průběžně je uvažováno o zavádění podobných systémů na dalších místech. V létě 2023 se objevily informace o biometrice na Pražském hradě.

Potřeba společenského tlaku

V rámci evropské sítě nevládních organizací European Digital Rights (EDRi) jsme spustili petici #ReclaimYourFace, jejíž českou verzi bylo možné podepsat v Česku až do sprna 2022. Petice byla označena jako „historicky nejvlivnější občanská iniciativa“ a měla dopad na vyjednávání evropské legislativy.

I přes částečnou regulaci si však biometrický dohled dál klestí cestu do veřejného prostoru. Děláme co můžeme:

Nebýt našeho dosavadního úsilí, diskuze o masovém biometrickém dohledu by se v Česku prakticky nevedla. Abychom zabránili těm nejhorším, čínským scénářům, kdy je biometrický dohled normou, je potřeba v tlaku nepolevit.

Víme, že podložené argumenty fungují – v roce 2020 jsme radní na Praze 1 přesvědčili, že finance na podporu biometrických systémů v bytových domech nejsou dobrý nápad. O rizicích biometrické identifikace šíříme informace mezi veřejností, bezpečnostními složkami i odborníky.

Podpořte nás v našem úsilí. Šířit můžete třeba texty, které jsme k tématu již napsali:


Podpořte krocení biometrického dohledu pravidelným finančním příspěvkem.