Identificar robô em debate político no Twitter é desafio

Identificar robô em debate político no Twitter é desafio

A dimen­são da inter­fer­ên­cia de robôs em debates públi­cos, prin­ci­pal­mente em perío­dos eleitorais, rep­re­sen­ta um desafio para cen­tros de pesquisa e para o Twit­ter.

O microblog é, entre as redes usadas para a tro­ca de infor­mações no Brasil, a que abre mais dados à pesquisa.

Mes­mo assim, espe­cial­is­tas apon­tam a perseguição por con­tas autom­a­ti­zadas na platafor­ma como um “jogo de gato e rato”.

Coor­de­nador do Lab­o­ratório de Estu­dos sobre Imagem e Ciber­cul­tura da Uni­ver­si­dade Fed­er­al do Espíri­to San­to, Fábio Mali­ni diz que a com­putação tra­bal­ha com dados muito obje­tivos e que, quan­do se adi­ciona o fator políti­co, o Twit­ter “entra em cur­to-cir­cuito”.

“As hash­tags não são infladas ape­nas por robôs sim­ples, mas por con­tas semi­au­tom­a­ti­zadas que repli­cam por platafor­mas como Tweet­Deck [site que per­mite o geren­ci­a­men­to de difer­entes con­tas]”, diz.

“Há uma difi­cul­dade muito grande de o Twit­ter e os pesquisadores cravarem o quan­ti­ta­ti­vo”, afir­ma.

Segun­do ele, o desafio para as duas partes está em englo­bar em um só cál­cu­lo os bots (per­fis autom­a­ti­za­dos), os trolls (usuários que não pre­cisam ser robôs e que usam a rede para dis­sem­i­nar ódio ou difamação), os botspam­mers (robôs que envi­am men­sagens não autor­izadas) e os ciborgues (per­fis oper­a­dos por humanos e com­puta­dores).

Pesquisadores fazem suas anális­es com base em dados cole­ta­dos via API (inter­face que per­mite que desen­volve­dores inte­grem pro­gra­mas à platafor­ma). Eles dis­põem de quase 50 tipos de dados sobre as con­tas pes­soais.

Só o Twit­ter tem aces­so a dados sen­síveis como o IP (endereço eletrôni­co) veic­u­la­do às con­tas –sinal impor­tante para a assertivi­dade na iden­ti­fi­cação de agentes mali­ciosos.

Enquan­to anal­isa se excluirá uma con­ta ou não, o Twit­ter diz que inibe a vis­i­bil­i­dade desse per­fil ao públi­co, mas que ele per­manece ati­vo aos pesquisadores na API. “[Isso] não é refleti­do nas infor­mações que os pesquisadores lev­am em con­ta para faz­er lev­an­ta­men­tos”, diz a empre­sa.

Dessa for­ma, não é pos­sív­el saber nem pelo Twit­ter nem pelas pesquisas o taman­ho do prob­le­ma de automação.

Além da metodolo­gia sig­ilosa da empre­sa, não há um padrão inter­na­cional que cer­ti­fique o que é robô mali­cioso.

Cen­tros de pesquisa e empre­sas, com lev­an­ta­men­tos metodológi­cos próprios, ensa­iam maneiras de iden­ti­ficar um número de autom­a­ti­za­ção a par­tir dos dados exter­nos.

O cenário muda de acor­do com a insti­tu­ição.

No Brasil, a FGV-DAAP (Dire­to­ria de Análise de Políti­cas Públi­cas da Fun­dação Getulio Var­gas) faz esse tipo de análise des­de 2014.

O pesquisador Dani­lo Car­val­ho diz que a metodolo­gia é con­ser­vado­ra, pois con­sid­era só dois critérios.

A FGV entende como robôs as pub­li­cações con­sec­u­ti­vas com inter­va­lo infe­ri­or a um segun­do, feitas repeti­da­mente, e con­tas que usam platafor­mas de automação.

Já a AP Exa­ta faz lev­an­ta­men­tos mer­cadológi­cos para clientes. Detec­tou, por exem­p­lo, que a palavra “venezue­lanos”, durante a crise de imi­gração em Roraima, ger­ou 21.684 tuítes em 20 dias. Dess­es, 17,6% eram de “inter­fer­ên­cia”.

A empre­sa usa essa nomen­clatu­ra porque, se ten­tar detec­tar ape­nas robôs, sua margem de erro aumen­ta.

Ela inclui na cat­e­go­ria per­fis mil­i­tantes aque­les que são usa­dos quase exclu­si­va­mente para falar sobre um úni­co tema. Podem não ser robôs, trolls ou con­tas semi­au­tom­a­ti­zadas.

“Colo­camos todo o mun­do den­tro do mes­mo saco porque não temos como provar, de acor­do com os dados que o Twit­ter disponi­bi­liza, o que é robô ou não”, diz Ricar­do Mar­tins, anal­ista de sis­temas.

Espe­cial­is­tas veem o Brasil atrasa­do na ciên­cia de detec­tar ess­es agentes por não ter proces­sos de ver­i­fi­cação tes­ta­dos por pares cien­tí­fi­cos.

Os esforços do Twit­ter são recon­heci­dos pelos acadêmi­cos, emb­o­ra a evolução com­puta­cional exi­ja urgên­cia.

“Eles imple­men­taram mudanças, fiz­er­am uma limpeza. O prob­le­ma é que esse tipo de robô que excluíram é o ladrão de gal­in­ha. Os bots que imi­tam o com­por­ta­men­to humano serão out­ro tipo de desafio”, diz

Fab­rí­cio Ben­evenu­to, pro­fes­sor da Uni­ver­si­dade Fed­er­al de Minas Gerais.

Em nota, o Twit­ter diz que “tra­bal­ha glob­al­mente e em escala para detec­tar e com­bat­er proa­t­i­va­mente spam e con­tas autom­a­ti­zadas mal-inten­cionadas” e que excluiu 214% mais con­tas em um ano.


Glossário
Bots: per­fis autom­a­ti­za­dos

Trolls: Usuários que  não nec­es­sari­a­mente  são robôs e que usam a rede para dis­sem­i­nar ódio ou difamação

Botspam­mers: Robôs que envi­am men­sagens não autor­izadas

Ciborgues: per­fis oper­a­dos por humanos e com­puta­dores

Posts Similares