Přejít k hlavnímu obsahu
Novinky

AI posílá nesprávně do vězení

redakce 17.02.2019

Při hledání odsouzených se americké soudy více spoléhají na algoritmy, které mají vypočítat, s jakou pravděpodobností bude někdo znovu potrestán. Systémy umělé inteligence, vyškolené historickými daty o kriminalitě, však kopírují chyby minulosti.

Vlivy umělé inteligence (AI) na osudy lidí stále nejsou příliš zjevné, protože s algoritmy strojového učení se dostáváme do kontaktu většinou jenom přes Newsfeed od Facebooku nebo při vyhledávání na Googlu. Na konferenci „Data for Black Lives“, která se konala v lednu v MIT Media Lab v Cambridge, však experti na technologie a právo, společně s aktivisty, znovu otevřeli diskuzi k tomuto problému. Ve Spojených státech totiž algoritmus může zcela proměnit průběh života.

V USA je nyní vězněno více lidí než v jakékoli jiné zemi na světě. Na konci roku 2016 bylo ve vězeních téměř 2,2 milionů dospělých, a dalších 4,5 milionu v dalších justičních zařízeních. Jinak řečeno: jeden ze 38 dospělých Američanů je v současnosti pod kontrolním dohledem státu. Tato situace vytváří jeden z problémů, který vzácně sjednocuje politiky obou amerických stran. Stát se ocitá pod obrovským tlakem, když má redukovat počet vězněných, a přitom neriskovat nárůst trestných činů. Soudy tak zkoušejí pomocí automatických nástrojů vypočítat, s jakou pravděpodobností bude konkrétní člověk znovu trestán.

algoritmy posílají policisty na silnice

Policejní úřady již nasazují jiné algoritmy pro ohodnocení rizika, které předpovídají, kam mají poslat své úředníky a patroly.

Úřady pro trestní stíhání používají pro identifikaci podezřelých rozpoznání tváří. Tyto praktiky jsou nyní ve stadiu testování, protože vyvolávají otázku, zda se díky nim zvyšuje bezpečnost, anebo zda posilují existující kriminální struktury. Výzkumníci a právníci například opakovaně ukázali, že systémy pro rozpoznání tváří obzvláště u osob s tmavou kůží mohou spektakulárním způsobem selhávat a dokonce zaměnit poslance Kongresu s odsouzenými zločinci.

Nyní přichází ohodnocení kriminálního rizika pomocí algoritmů. Ty mají jediný úkol – na základě různých detailů v profilu odsouzeného vypočítat možnost recidivy. Toto číslo udává pravděpodobnost, s níž bude znovu spáchán trestný čin. Soudci výsledek následně zvažují v mnoha rozhodnutích o tom, jestli dotyčný má před procesem zůstat ve vazbě, a jaký trest dostane. Nízký počet bodů znamená novou cestu pro lepší osud, vysoká hodnota ovlivňuje přesný opak.

Rizika recidivy

Úvahy při nasazení takových algoritmických nástrojů jsou následující: je-li kriminální chování předpověditelné, dají se zdroje pro rehabilitaci a pro vězeňství lépe rozdělit. Teoreticky mají v procesu také redukovat nebezpečí předpojatosti, protože rozsudky jsou prováděny na základě doporučení konkrétních dat, a nikoli podle pocitů soudce. Problém spočívá pouze v tom, že moderní ohodnocování rizika často používá algoritmy, které byly trénovány na historických datech o kriminalitě. V tom obsažený mustr se ovšem spoléhá na statistické korelace, a nikoli na kauzální souvislosti. 

Vyvstává při tom nebezpečí, že určité skupiny obyvatelstva, které se v minulosti často dostávaly do hledáčku trestního řízení – obzvláště se jedná o menšiny nebo společenství s nízkým příjmem – obdrží vysokou hodnotu pro recidivu. Tímto způsobem algoritmy posilují již existující zkreslení a vytvářejí tak začarovaný kruh. 

Debata o těchto nástrojích je v plném běhu. V červnu minulého roku podepsalo více než 100 občanskoprávních a komunitních organizací zdůvodnění, proč bychom se měli zříci hodnocení těchto rizik.

[email protected]


Máte k článku připomínku? Napište nám

Sdílet článek

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme