Conselho da Meta vê riscos e desafios em uso de IA para controle de conteúdo

(FOLHAPRESS) – O Conselho de Supervisão da Meta defendeu, em relatório publicado nesta terça-feira (17), que as diferentes redes sociais devem se atentar ao respeito aos direitos humanos e à liberdade de expressão ao desenvolver seus sistemas de moderação de conteúdo, em meio ao avanço da inteligência artificial.

 

Nesse sentido, o relatório defende, entre outras sugestões, que as empresas garantam acesso a dados para que pesquisadores possam analisar o impacto dessas tecnologias na moderação de conteúdo. Também destaca a importância da supervisão humana. Uma das preocupações de fundo é que vieses sejam replicados em escala por sistemas automatizados.

Essas são algumas das recomendações do estudo “Moderação de conteúdo em uma nova era para IA e automação”, que parte da perspectiva de que há desafios e também oportunidades para a moderação de conteúdo em meio ao avanço das tecnologias.

Lançado em 2020 e financiado pela Meta, o conselho (Oversight Board, em inglês) funciona como uma espécie de corte de revisão de decisões relacionadas à moderação de conteúdo em plataformas da companhia (Instagram, Facebook e Threads). O órgão afirma que a estrutura de governança permite que ele tome decisões independentes.

Pela segunda vez neste ano, o grupo, formado por especialistas de diferentes países, publica um relatório com sugestões para a indústria de modo geral -a versão anterior era focada em conteúdo eleitoral. A Meta não é obrigada a seguir as sugestões desse tipo do conselho.

O relatório afirma que as empresas de mídias sociais têm aumentado o uso de sistemas automatizados e de IA para moderação de conteúdo, mas que as ferramentas atuais ainda ainda apresentam falhas sobre análise de contexto -com isso, há o risco de esses sistemas atuem de modo insuficiente ou exagerado.

Diante disso, o conselho aponta que os novos modelos de IA generativa trazem um potencial que pode ser positivo, da perspectiva de que ele possibilitaria uma melhor interpretação sobre os conteúdos publicados pelos usuários e de seu respectivo contexto.

De outro lado, destacam que é importante desenvolver processos de supervisão adequados, incluindo supervisão humana, e mitigar os vieses e erros inerentes a esses sistemas. Defendem ainda que o uso dessas ferramentas não pode ser feito com disparidade entre regiões e idiomas.

De acordo com o advogado e membro do conselho da Meta Ronaldo Lemos, que é também colunista da Folha de S.Paulo, um dos objetivos do documento é chamar a atenção para como a instância vê o tema, a partir dos casos que analisa, e gerar debate público.

“Se a IA se torna cada vez mais importante como um moderador, quem irá moderar esse moderador?”, questionou Lemos, em entrevista coletiva em São Paulo.

Do ponto de vista dos usuários, o conselho também destacou a importância de maior transparência quanto a penalidades impostas, inclusive aquelas que envolvem apenas redução do alcance de postagens, sem remoção.

Segundo Nicolas Suzor, também membro do conselho, “as plataformas de mídias sociais terão que provar que as novas ferramentas são desenvolvidas e implementadas de forma justa e que respeite os direitos humanos”.

O relatório defende que pesquisadores independentes de todo o mundo deveriam ter acesso, por exemplo, a dados que permitam analisar o impacto da moderação de conteúdo por algoritmos, curadoria de feeds de conteúdo e ferramentas de IA para conteúdos gerados por usuários.

Apesar disso, o cenário atual ainda é de obstáculos até mesmo para o monitoramento de posts circulando nas redes.

No caso da Meta, um exemplo recente foi o fim do CrowdTangle -ferramenta que permitia acompanhar conteúdos virais do Facebook e Instagram- apesar dos apelos de pesquisadores pelo mundo para que a medida fosse ao menos adiada.

A ferramenta apresentada como substituta é elegível para um rol menor de atores e com mais restrições para acesso e uso.

Em decisão recente, envolvendo moderação de conteúdo sobre o conflito entre Israel e a Palestina, o Conselho de Supervisão da Meta recomendou que a empresa deveria garantir que quem tinha acesso à ferramenta anterior seja integrado à substituta em até três semanas após envio de sua inscrição. A Meta tem prazo de 60 dias para se posicionar a respeito.

Além disso, o conselho apontou, no caso específico, as limitações de análise com o próprio CrowdTangle e adicionou que os relatórios de transparência da empresa “não são suficientemente detalhados para avaliar a extensão e a natureza do conteúdo de ódio em suas plataformas”.

Leia Também: Meta admite que treina IA com ‘posts’ públicos do Facebook e Instagram