Vigilância: Amazon oferece reconhecimento facial para monitorar imigrantes

Amazon oferece reconhecimento facial para monitorar imigrantes

A Ama­zon ofer­e­ceu em jun­ho sua tec­nolo­gia de recon­hec­i­men­to facial — capaz de iden­ti­ficar pes­soas a par­tir de ima­gens de vig­ilân­cia usan­do ban­cos de dados de ima­gens — como fer­ra­men­ta para o Serviço de Imi­gração e Alfân­de­ga dos EUA (ICE, na sigla em inglês), o que mostra que a Ama­zon con­tin­u­ou ofer­tan­do o soft­ware a agên­cias de segu­rança em meio a críti­cas de fun­cionários da empre­sa e de gru­pos de defe­sa das liber­dades civis.

Fun­cionários da unidade de com­putação em nuvem Ama­zon Web Ser­vices se reuni­ram com a agên­cia fed­er­al na Cal­ifór­nia para apre­sen­tar suas fer­ra­men­tas de inteligên­cia arti­fi­cial, segun­do emails obti­dos pela orga­ni­za­ção sem fins lucra­tivos Project on Gov­ern­ment Over­sight.

Entre essas fer­ra­men­tas estão a Rekog­ni­tion, que usa inteligên­cia arti­fi­cial para iden­ti­ficar pes­soas rap­i­da­mente em fotos e vídeos. O soft­ware per­mite que as autori­dades poli­ci­ais mon­i­torem pes­soas a par­tir de câmeras em lugares públi­cos.

A União Amer­i­cana pelas Liber­dades Civis criti­cou em maio o uso da tec­nolo­gia pelos depar­ta­men­tos de polí­cia do Ore­gon e da Flóri­da, afir­man­do que ela ameaça os dire­itos civis.

A notí­cia de que a tec­nolo­gia está sendo anal­isa­da por autori­dades fed­erais de imi­gração foi divul­ga­da primeiro pelo The Dai­ly Beast, na terça-feira.

A Ama­zon com­par­til­hou detal­h­es sobre a Rekog­ni­tion e out­ras fer­ra­men­tas em um “dia de treina­men­to” patroci­na­do pela McK­in­sey com par­tic­i­pação de out­ras empre­sas de tec­nolo­gia, disse uma por­ta-voz da Ama­zon em comu­ni­ca­do.

“Como cos­tu­mamos faz­er, fize­mos acom­pan­hamen­to com clientes que estavam inter­es­sa­dos em apren­der mais sobre como usar nos­sos serviços”, disse a por­ta-voz. “O Serviço de Imi­gração e Alfân­de­ga foi uma das orga­ni­za­ções com as quais hou­ve dis­cussões de acom­pan­hamen­to.”

O ICE atual­mente não tem con­tratos com a Ama­zon, escreveu o por­ta-voz da agên­cia, Matthew Bourke, por email. A agên­cia se reúne reg­u­lar­mente com fornece­dores para con­hecer mel­hor as fer­ra­men­tas que ofer­e­cem, disse.

“O serviço de Inves­ti­gações de Segu­rança Inter­na do ICE já usou recon­hec­i­men­to facial de for­ma aux­il­iar durante inves­ti­gações crim­i­nais rela­cionadas a ativi­dades fraud­u­len­tas, rou­bos de iden­ti­dade e crimes de explo­ração infan­til, e con­tin­uará avalian­do tec­nolo­gias de pon­ta para com­ple­men­tar inves­ti­gações crim­i­nais no futuro”, disse Bourke.

As forças de segu­rança têm feito amp­lo uso de fer­ra­men­tas de recon­hec­i­men­to facial para uma série de tare­fas, des­de a com­para­ção de fotos de reg­istros poli­ci­ais com ban­cos de dados de fotos de carteiras de motorista até o escanea­men­to de pes­soas cam­in­han­do pelas ruas por câmeras de vig­ilân­cia.

Alguns soft­wares de inteligên­cia arti­fi­cial usa­dos para recon­hec­i­men­to facial mostraram ser ten­den­ciosos em relação à raça porque foram treina­dos com um vol­ume rel­a­ti­va­mente baixo de ima­gens de mino­rias.

Em um exem­p­lo infame de 2015, o sis­tema de mar­cação de fotos do Google com tec­nolo­gia de IA clas­si­fi­cou algu­mas pes­soas negras como gori­las.

Em arti­go pub­li­ca­do neste ano, pesquisadores do Insti­tu­to de Tec­nolo­gia de Mass­a­chu­setts (MIT) e da Microsoft desco­bri­ram que os sis­temas de recon­hec­i­men­to facial são muito menos pre­cisos na iden­ti­fi­cação de pes­soas não bran­cas e de mul­heres do que de home­ns bran­cos.

Posts Similares