Conheça os ‘deepfakes’, os vídeos feitos para nos enganar

Conheça os 'deepfakes', os vídeos feitos para nos enganar

Os Deep­fakes são vídeos fal­sos ou gravações de áudio que pare­cem e soam como algo real. Se antes a tec­nolo­gia era usa­da por estú­dios de efeitos espe­ci­ais de Hol­ly­wood e agên­cias de inteligên­cia pro­duzin­do pro­pa­gan­da, como a CIA, hoje qual­quer um pode baixar soft­wares e cri­ar fal­sos vídeos con­vin­centes.

Até ago­ra, os deep­fakes foram lim­i­ta­dos a amadores colo­can­do ros­tos de cele­bri­dades em cor­pos de estre­las pornográ­fi­cas e fazen­do políti­cos diz­erem coisas engraçadas. No entan­to, seria fácil cri­ar um aler­ta de emergên­cia de que um ataque fos­se imi­nente, ou destru­ir o casa­men­to de alguém com um vídeo fal­so de sexo, ou acabar com uma eleição aper­ta­da, colo­can­do um vídeo fal­so ou gravação de áudio de um dos can­didatos.

Isso deixa mui­ta gente ner­vosa, tan­to que Mar­co Rubio, o senador repub­li­cano da Flóri­da e can­dida­to à presidên­cia em 2016, os chamou de o equiv­a­lente mod­er­no das armas nuclear­es. “Nos vel­hos tem­pos”, disse ele a uma audiên­cia em Wash­ing­ton há algu­mas sem­anas, “se você quisesse ameaçar os Esta­dos Unidos, pre­cis­aria de 10 por­ta-aviões, armas nuclear­es e mís­seis de lon­go alcance. Hoje, você só pre­cisa aces­sar ao nos­so sis­tema de inter­net, ao nos­so sis­tema bancário, à nos­sa rede elétri­ca e infraestru­tu­ra, e cada vez mais, tudo o que você pre­cisa é a capaci­dade de pro­duzir um vídeo fal­so muito real­ista que pos­sa minar nos­sas eleições, que pode­ria lançar nos­so país em uma tremen­da crise inter­na e enfraque­cer nós pro­fun­da­mente”.

Mas nem todos con­cor­dam com a afir­ma­ti­va. “Tão perigoso quan­to as bom­bas nuclear­es? Acho que não. Eu acho que cer­ta­mente as demon­strações que vimos são per­tur­bado­ras. Eu acho que elas são pre­ocu­pantes e lev­an­tam muitas questões, mas eu sou céti­co em mudar o jogo de uma for­ma que muitas pes­soas estão sug­erindo”, disse Tim Hwang, dire­tor da Ini­cia­ti­va de Éti­ca e Gov­er­nança da AI no Cen­tro Berk­man-Klein e no MIT Media Lab.

Como deepfakes funcionam

Os seres humanos bus­cam infor­mações que supor­tam o que querem acred­i­tar e igno­ram o resto. Hack­ear essa tendên­cia humana dá muito poder a pes­soas mal-inten­cionadas. O mes­mo acon­tece com as fake news, que cri­am men­ti­ras delib­er­adas que se espal­ham sob o dis­farce da ver­dade. Quan­do os ver­i­fi­cadores começam a gri­tar em protesto, é tarde demais.

Deep­fakes explo­ram essa tendên­cia humana usan­do redes antagôni­cas ger­ado­ras (GANs, na sigla em inglês), nas quais dois mod­e­los de apren­diza­do de máquina (ML) dis­cutem. Um mod­e­lo ML treina em um con­jun­to de dados e, em segui­da, cria fal­si­fi­cações de vídeo, enquan­to o out­ro ten­ta detec­tar as fal­si­fi­cações. O fal­si­fi­cador cria fal­si­fi­cações até que o out­ro mod­e­lo ML não pos­sa detec­tar a fal­si­fi­cação. Quan­to maior o con­jun­to de dados de treina­men­to, mais fácil será para o fal­si­fi­cador cri­ar uma fal­sa cred­i­bil­i­dade. É por isso que os vídeos de ex-pres­i­dentes e cele­bri­dades de Hol­ly­wood têm sido fre­quente­mente usa­dos ​​nes­ta primeira ger­ação de deep­fakes — há uma tonela­da de ima­gens de vídeo pub­li­ca­mente disponíveis para treinar o fal­sário.

Acon­tece que os vídeos de baixa tec­nolo­gia podem ser uma for­ma tão efi­caz de desin­for­mação quan­to os vídeos ben­feitos, como deixa clara a con­tro­vér­sia em torno do vídeo adul­ter­ado do con­fron­to do pres­i­dente Trump com o repórter da CNN, Jim Acos­ta, em uma cole­ti­va de impren­sa em novem­bro. O vídeo mostra clara­mente uma estag­iária da Casa Bran­ca ten­tan­do pegar o micro­fone de Acos­ta, mas a edição sub­se­quente fez pare­cer que o repórter da CNN ata­cou a estag­iária.

O inci­dente ressalta os receios de que o vídeo pos­sa ser facil­mente manip­u­la­do para desa­cred­i­tar um alvo da escol­ha do ata­cante — um repórter, um políti­co, um negó­cio, uma mar­ca. Ao con­trário dos chama­dos “deep­fakes”, no entan­to, onde o apren­diza­do de máquina colo­ca palavras na boca das pes­soas, o vídeo manip­u­la­do de baixa tec­nolo­gia aprox­i­ma-se o sufi­ciente da real­i­dade que des­faz a lin­ha entre o ver­dadeiro e o fal­so.

FUD (sigla em inglês para medo, incerteza e dúvi­da) é famil­iar para as pes­soas que tra­bal­ham com segu­rança, e o uso de FUD como uma arma em escala pode prej­u­dicar grave­mente uma empre­sa, bem como um indi­ví­duo. A defe­sa con­tra ataques FUD é muito difí­cil. Uma vez semea­da a dúvi­da de que Acos­ta lidou com uma estag­iária da Casa Bran­ca, uma parcela não triv­ial de espec­ta­dores jamais esque­cerá esse detal­he e sus­peitará que pos­sa ser ver­dade.

GANs têm muitos out­ros usos além de faz­er vídeos de sexo fal­so e colo­car palavras na boca dos políti­cos. GANs são um grande avanço no que é con­heci­do como “apren­diza­do não super­vi­sion­a­do” — quan­do os mod­e­los ML se ensi­nam. Isso é uma grande promes­sa para mel­ho­rar a capaci­dade dos veícu­los autônomos de recon­hecer pedestres e ciclis­tas e tornar os assis­tentes dig­i­tais ati­va­dos por voz como Alexa e Siri mais con­ver­sa­cionais. Alguns anun­ci­am GANs como o surg­i­men­to da “imag­i­nação da IA”.

Usuários comuns podem baixar o FakeApp e começar a cri­ar seus próprios deep­fakes ime­di­ata­mente. Usar o aplica­ti­vo não é super fácil, mas um usuário mod­er­ada­mente nerd não deve ter prob­le­mas.

Dito isso, há tan­tas out­ras for­mas de desin­for­mação efe­ti­va que o foco em jog­ar “Whack-a-Mole” com deep­fakes é a estraté­gia erra­da, diz Hwang. “Acho que, mes­mo no pre­sente, exis­tem muitas for­mas baratas que não exigem apren­diza­do pro­fun­do ou apren­diza­do de máquina para enga­nar e moldar a opinião públi­ca.”

Por exem­p­lo, faz­er um vídeo de pes­soas baten­do em alguém na rua e depois cri­ar uma fal­sa nar­ra­ti­va em torno desse vídeo — talvez ale­gan­do que os ata­cantes são imi­grantes para os EUA, por exem­p­lo — não requer um algo­rit­mo ML extrav­a­gante, ape­nas uma nar­ra­ti­va fal­sa credív­el e um vídeo que se encaixa.

Como detectar deepfakes

Detec­tar deep­fakes é difí­cil. Deep­fakes amadores podem, claro, ser detec­ta­dos a olho nu. Out­ros sinais que as máquinas podem detec­tar incluem fal­ta de pis­car de olhos ou som­bras que pare­cem erradas. As GANs que ger­am deep­fakes estão fican­do mel­hores, e em breve ter­e­mos que con­fi­ar na análise forense dig­i­tal para detec­tar deep­fakes — se é que podemos, de fato, detec­tá-las.

Esse é um prob­le­ma tão difí­cil que a DARPA está investin­do din­heiro em pesquisadores para encon­trar maneiras mel­hores de aut­en­ticar o vídeo. No entan­to, como as próprias GANs podem ser treinadas para apren­der a con­tornar essa perí­cia, não está claro que esta é uma batal­ha que podemos vencer.

“Teori­ca­mente, se você desse a uma GAN todas as téc­ni­cas que con­hece­mos para detec­tá-la, ela pode­ria pas­sar por todas essas téc­ni­cas. Não sabe­mos se há um lim­ite. Não está claro”, frisa David Gun­ning, ger­ente do pro­gra­ma DARPA encar­rega­do do pro­je­to.

Se não for­mos capazes de detec­tar vídeos fal­sos, em breve poder­e­mos ser força­dos a descon­fi­ar de tudo que vemos e ouvi­mos, aler­tam os críti­cos. A inter­net ago­ra per­me­ia todos os aspec­tos de nos­sas vidas, e a inca­paci­dade de con­fi­ar em qual­quer coisa que vemos pode levar a um “fim da ver­dade”. Isso ameaça não ape­nas a fé em nos­so sis­tema políti­co, mas, a lon­go pra­zo, nos­sa fé no que é real­i­dade obje­ti­va com­par­til­ha­da. Se não podemos con­cor­dar com o que é real e o que não é, como poder­e­mos pos­sivel­mente debater questões políti­cas?

Hwang acha que isso é exagero, no entan­to. “Esta é uma das min­has maiores críti­cas”, diz ele. “Eu não nos vejo cruzan­do algum lim­i­ar mís­ti­co, após o qual não vamos saber o que é real e o que não é.”

Posts Similares