SÃO PAULO, SP (FOLHAPRESS) – O período de tapume de seis meses que sucedeu a compra do Twitter (hoje X) por Elon Musk, entre outubro de 2022 e maio de 2023, foi marcado por um aumento sumarento do exposição de ódio e pela persistência da presença de contas inautênticas na plataforma.
Esse é o resultado de um estudo da Universidade da Califórnia em Berkeley e publicado nesta quarta-feira (12) na revista científica Plos One.
A estudo aponta que a frequência de posts considerados racistas, homofóbicos e transfóbicos na rede social foi em média 50% maior do que nos meses que antecederam a obtenção. Já o número de robôs e outros tipos de contas falsas, um dos principais alvos do bilionário na idade, não foi reduzido e pode até ter aumentado.
Embora outros estudos já apresentassem resultados semelhantes para essas áreas no período imediatamente depois da epílogo da compra, a pesquisa liderada por Daniel Hickey mostra que o pico persistiu nos meses seguintes.
A estudo envolveu publicações realizadas em inglês na plataforma entre janeiro de 2022 e junho de 2023, quando Linda Yaccarino substituiu Musk no posto de CEO.
Para qualificar publicações porquê exposição de ódio, os pesquisadores usaram um protótipo de reconhecimento de linguagem que identifica se um observação é “rude, desrespeitoso ou disparatado, provável de fazer alguém deixar uma discussão”, aliando o uso de ofensas direcionadas com o texto e a intenção do observação.
Isso evitou, por exemplo, que a modelo abrangesse posts educativos ou pornográficos com palavras consideradas ofensivas por minorias. Não foi provável, todavia, mensurar os efeitos sobre o exposição de ódio “resguardado”, de linguagem codificada.
A média semanal de posts identificados porquê exposição de ódio era de 2.179 antes da obtenção por Musk, e saltou 50% para 3.246. A maior variação ocorreu para comentários transfóbicos, com 260%, seguido pelos posts racistas (42%) e homofóbicos (30%).
A variação média superou o aumento de atividade na plataforma no período, de 8%. Também foi observado um desenvolvimento de 70% no engajamento com esse tipo de publicação.
Isso sugere que usuários foram mais expostos a comentários de ódio no período a despeito da política “freedom of speech, not reach” [liberdade de expressão, não de alcance] do X. Procurada para comentar o estudo, a plataforma não respondeu até a publicação desta reportagem.
Pesquisas anteriores, citadas pelos autores, conectam o exposição de ódio na internet com crimes de ódio fora da rede, enquanto robôs e outros tipos de contas falsas promovem desinformação e spam que podem levar a golpes financeiros, interferir em eleições e desmobilizar campanhas de saúde pública.
Embora o cláusula não estabeleça uma relação de razão e efeito entre mudanças de moderação no X e o aumento do exposição de ódio, principalmente devido à falta de transparência da empresa, os autores ressaltam a premência de um aumento da moderação.
“Reconhecemos que, porquê não temos aproximação a mudanças internas específicas nos procedimentos, quadro de funcionários e prioridades do X sob a gestão de Musk, somos incapazes de fazer afirmações causais definitivas sobre os padrões documentados”, escrevem.
Desde a compra da rede social por US$ 44 bilhões, Musk demitiu grande secção da equipe, alterou a moderação de teor para o protótipo de “notas da comunidade” e implementou um sistema pago para o selo de verificação. O site chegou a ser bloqueado no Brasil por tapume de um mês em 2024 sob a justificativa de descumprimento de decisões judiciais.
Também no ano pretérito, o bilionário foi um dos principais apoiadores da campanha do agora presidente Donald Trump. No novo governo, Musk tornou-se uma figura de peso, assumindo o chamado Departamento de Eficiência Governamental (Doge) para enxugar gastos.
A mudança no protótipo de moderação do X também inspirou a Meta –dona do Facebook, Instagram e WhatsApp– a desistir sua política de verificação por terceiros. Em janeiro, Mark Zuckerberg anunciou que adotaria método similar às notas da comunidade.
“Embora as plataformas de mídia social tenham o potencial de promover orientações pró-sociais e aumentar o esteio a ações coletivas construtivas, elas também podem servir porquê veículos para a disseminação de ódio e desinformação”, dizem os autores no estudo. “Acreditamos que os pesquisadores têm uma obrigação moral de desenvolver ferramentas que possam iluminar esse cenário.”