Investigação da BBC descobriu ser possível segmentar anúncios com palavras-chave sensíveis, como ‘transfobia’, supremacista branco” e ‘anti-gay’. Sede do Twitter em São Francisco, nos EUA.
Jeff Chiu/AP
O Twitter se desculpou por permitir que anúncios neonazistas, homofóbicos e de outros grupos de ódio fossem direcionados para parte de seus usuários.
A BBC descobriu o problema e isso levou a empresa de tecnologia a agir.
Nossa investigação descobriu que é possível segmentar usuários que demonstraram interesse em palavras-chave, incluindo “neonazismo”, “supremacista branco”, “transfobia” e “anti-gay”.
O Twitter permite que os anúncios sejam direcionados aos usuários que publicaram ou pesquisaram tópicos específicos.
Mas a empresa já pediu desculpas por não excluir termos discriminatórios.
Organizações não governamentais que monitoram e combatem discurso de ódio já tinham levantado a preocupação de que a plataforma de publicidade da empresa de tecnologia americana pudesse ter sido usada para espalhar intolerância.
Twitter anuncia fim de publicidade política na rede social
Twitter anuncia banimento de propagandas políticas pagas na rede social
Qual foi exatamente o problema?
Como muitas empresas de redes sociais, o Twitter cria perfis detalhados sobre seus usuários, coletando dados sobre o que eles publicam, curtem, assistem e compartilham.
Os anunciantes podem tirar proveito disso usando suas ferramentas para selecionar o público para suas campanhas em uma lista de características, por exemplo, “pais de adolescentes” ou “fotógrafos amadores”.
Eles também podem controlar quem lê as mensagens deles usando palavras-chave.
O Twitter fornece ao anunciante uma estimativa de quantos usuários devem ser atingidos por aquele resultado.
Por exemplo, um site de carros que deseja alcançar pessoas usando a gíria “petrolhead” (“cabeça de gasolina”, em tradução livre) seria informado de que o público potencial está entre 140 mil e 172 mil pessoas.
Palavras-chave ajudavam a direcionar anúncios para públicos específicos — incluindo termos de ódio
BBC
As palavras-chave do Twitter deveriam ser restritas.
Mas nossos testes mostraram que era possível anunciar para pessoas usando o termo “neonazista”.
A ferramenta de anúncios havia indicado que, no Reino Unido, isso atingiria um público potencial de 67 mil a 81 mil pessoas.
Outros termos mais sensíveis também funcionavam.
Como a BBC testou isso?
Criamos um anúncio genérico a partir de uma conta anônima no Twitter, dizendo “Feliz Ano Novo”.
Em seguida, segmentamos três públicos-alvo diferentes com base em palavras-chave sensíveis.
O Twitter disse que os anúncios em sua plataforma seriam revisados antes do lançamento, e o anúncio da BBC entrou inicialmente em um estado ainda “pendente”.
Mas logo depois foi aprovado e funcionou por algumas horas até que parássemos.
Até ali, 37 usuários viram a postagem e dois deles clicaram em um link anexado, o que os levou a uma notícia sobre memes. A execução do anúncio custa £ 3,84 (o equivalente a R$ 21).
Segmentar um anúncio usando outras palavras-chave problemáticas pareceu igualmente fácil.
Uma campanha usando as palavras-chave “islamophobes”, “islamaphobia”, “islamophobic” e “#islamophobic” (todas relacionadas ao ódio contra muçulmanos) tinha um potencial para atingir entre 92.900 a 114 mil usuários do Twitter, de acordo com a ferramenta do próprio Twitter.
Também foi possível fazer anúncios para grupos vulneráveis.
Fizemos o mesmo anúncio para um público de 13 a 24 anos de idade, usando as palavras-chave “anorexic” (anoréxica/o), “bulimic” (bulímica/o), “anorexia” e “bulimia”.
O Twitter estimou que o público-alvo era de 20 mil pessoas. A postagem foi vista por 255 usuários e 14 pessoas clicaram no link antes de interrompermos.
O que os ativistas disseram?
A Hope Not Hate, uma instituição anti-extremismo, disse temer que os anúncios do Twitter possam se tornar uma ferramenta de propaganda para a extrema direita.
“Vejo isso sendo usado para promover o engajamento e aprofundar a convicção de indivíduos que indicaram alguma ou parcial concordância com causas ou ideias intolerantes”, disse Patrik Hermansson, pesquisador de redes sociais.
A Instituição Contra a Anorexia e Bulimia acrescentou que acreditava que a ferramenta de publicidade já havia sido ajustada.
“Estou falando sobre meu distúrbio alimentar nas redes sociais há alguns anos e tenho sido alvo muitas vezes de anúncios baseados em suplementos alimentares, suplementos para perda de peso, cirurgia corretiva vertebral”, disse Daniel Magson, presidente da organização.
“É um gatilho para mim, e estou fazendo uma campanha no Parlamento para acabar com isso. Portanto, é uma ótima notícia que o Twitter tenha agido agora.”
O que o Twitter diz?
A rede social afirmou ter políticas em vigor para evitar abusos da segmentação por palavras-chave, mas reconheceu que elas não foram aplicadas corretamente.
“As medidas preventivas incluem a proibição de certos termos sensíveis ou discriminatórios, que atualizamos continuamente”, afirmou em comunicado.
“Nesse caso, alguns desses termos foram permitidos para fins de segmentação. Isso foi um erro. Lamentamos muito o ocorrido e, assim que fomos informados sobre o problema, o corrigimos.”
“Continuamos aplicando nossas políticas de anúncios, inclusive restringindo a promoção de conteúdo em uma ampla variedade de áreas, incluindo conteúdo impróprio direcionado a menores.”
Comentar