Entenda quais itens do PL das Fake News têm relação com moderação de conteúdo

RENATA GALF E ANGELA PINHO
SÃO PAULO, SP (FOLHAPRESS) – O PL das Fake News, que pretende regular as redes sociais, tem gerado disputas acerca do quanto pode impactar ou não a liberdade de expressão.
O projeto de lei não dá ao governo ou outro órgão administrativo o poder de determinar que conteúdos específicos devam ser removidos das redes.

Apesar de não delegar esse tipo de poder, traz obrigações às plataformas relativas a isso, como combater a disseminação de posts que configurem crimes contra Estado democrático, contra criança e adolescente, racismo, entre outros.

O órgão que ficar responsável por fiscalizar o cumprimento e aplicar multas não deverá se ater a casos específicos, mas às medidas que as empresas tomarem para se adequar.
Não está claro, contudo, em que medida é possível garantir que tal análise seja livre de influências. Ainda não há definição, por exemplo, de qual órgão terá a atribuição de supervisionar a aplicação da lei e qual sua independência do governo e das empresas.

O projeto de lei teve sua votação na Câmara adiada na última terça (2) para evitar uma derrota do governo Lula, que apoia a iniciativa. Ainda não há definição sobre a data de nova tentativa de votação.

Entenda quais as partes da lei relacionadas a conteúdos, quais as obrigações trazidas, as punições e quem seria responsável por aplicá-las.

O texto define ou criminaliza fake news?
Não. Apesar do apelido que o projeto ganhou ainda em 2020, quando começou a tramitar no Senado, a versão atual em discussão na Câmara não tem relação direta com desinformação, nem busca definir o que seriam fake news.
O texto tem relação com conteúdo?
Sim. A versão atual do projeto tem uma série de obrigações às plataformas relacionadas ao combate a conteúdos ilegais. Há na lei, por exemplo, uma lista de crimes sobre os quais as empresas passam a ter um “dever de cuidado”.
Além de tratar de conteúdo, o que mais o PL 2630 determina? Ele traz obrigações para as empresas, como publicação de relatórios de transparência, e direitos para os usuários, como o de ser notificado em caso de moderação e o de poder recorrer das decisões.
Quem vai decidir se um post deve ou não ser apagado?
A tarefa de moderar conteúdo e contas continuaria sendo das próprias empresas. Hoje, a não ser quando há decisão judicial determinando a remoção, isso é feito apenas com base nas regras estabelecidas pelas redes, que muitas vezes são globais. O projeto cria obrigações para que as plataformas passem a combater conteúdo ilegal, segundo uma lista de crimes definidos na lei brasileira.
“Por enquanto a gente só tem as regras privadas delas, das políticas de comunidades, definindo o que deve ser objeto de ação peremptória de moderação de conteúdo privadamente. Então a gente tem agora somente o Estado falando: ‘olha, eu quero que você olhe para isso aqui e para isso aqui'”, diz Yasmin Curzi, professora de direitos humanos e pesquisadora do Centro de Tecnologia e Sociedade da FGV Direito Rio.
Quais punições as empresas podem sofrer?
Do ponto de vista administrativo, as empresas poderão ser alvo de multas e outras sanções que podem chegar até a bloqueio, a depender da gravidade da infração. O texto fala em análise sobre o “conjunto de esforços e medidas” das empresas e em “descumprimento sistemático”.
Já no caso de posts específicos, as empresas poderão continuar sendo alvo de ações judiciais movidas por usuários pedindo, por exemplo, remoção de post e indenização por danos morais.
O projeto muda algo na responsabilidade civil das empresas sobre o conteúdo que abrigam?
Sim. Hoje, o artigo 19 do Marco Civil da Internet isenta as plataformas de responsabilidade por danos gerados pelo conteúdo de terceiros. Segundo essa lei, elas só estão sujeitas a pagar indenização se não tiverem obedecido uma ordem judicial de remoção anterior. As exceções são apenas em caso de conteúdo de nudez não consentida e direitos autorais.
A mudança principal com o PL 2630 é que haveria duas novas exceções mais diretas. Uma delas seria no caso de anúncios ou posts impulsionados. A segunda seria para posts de um determinado tema durante o chamado “protocolo de segurança” (entenda abaixo).
O que é a análise de “risco sistêmico” mencionada na lei?
O projeto prevê que anualmente as plataformas deverão publicar relatórios com avaliações sobre seus “riscos sistêmicos”, considerando aspectos como o funcionamento de seus algoritmos, seus sistemas de moderação de conteúdo, seus termos de uso e como eles são aplicados.
Devem ser considerados na análise temas como a difusão de conteúdos ilícitos, a garantia e promoção da liberdade de expressão, Estado democrático de Direito e higidez do processo eleitoral, racismo e violência contra a mulher, entre outros.
“Ele em si [risco sistêmico] é um instrumento que vai incentivar a plataforma a olhar para aqueles cinco tipos de risco e desenvolver proativamente medidas de mitigação que vão impactar em conteúdo”, diz Francisco Brito Cruz, diretor-executivo do InternetLab.
Ele avalia que esse tipo de figura do projeto pode não ter relação com conteúdos específicos, mas deve ter um impacto mais geral. “Vai impactar na estrutura, de quanto você [plataforma], na média, vai remover mais ou menos.”
O que é o “dever de cuidado”?
O texto determina que as plataformas deverão passar a prevenir e mitigar práticas ilícitas como conteúdos que configurem crimes de terrorismo, crimes contra o Estado democrático de Direito, racismo, crimes contra crianças e adolescentes, crime de instigação ao suicídio, entre outros.
O projeto prevê sanções “em caso de descumprimento sistemático” das obrigações sobre o “dever de cuidado”. Ainda não há definição sobre o órgão responsável por fazer tal análise.
Segundo o projeto, ela será feita a partir dos relatórios de risco sistêmico e de transparência, levando em conta “o conjunto de esforços e medidas adotadas pelos provedores, não cabendo avaliação sobre casos isolados”.
Bruna Martins dos Santos, pesquisadora da fundação Alexander von Humboldt e ativista da Coalizão Direitos na Rede, afirma que é errado falar em censura. “A abordagem vai ser em cima de conteúdos que já estão previstos em lei como crimes e normalmente já são moderados”, diz. “Casos pontuais continuarão a chegar ao Judiciário.”
O que é o “protocolo de segurança”?
Esse protocolo poderia ser acionado em três cenários: quando estiver configurada “iminência de riscos”, negligência ou insuficiência da ação da empresa, sendo preciso especificar quais empresas seriam alvo dele.
Ele teria a duração de 30 dias, com possibilidade de prorrogação, e teria que estar relacionado a um tema específico.
Nesse período, a moderação seguiria sendo responsabilidade das empresas. A consequência principal do acionamento do protocolo é que ele mudaria a isenção de responsabilidade por conteúdo prevista no Marco Civil em relação àquele determinado tema, durante a duração do protocolo. Bastaria a plataforma ter sido notificada de um conteúdo e não ter removido para ser condenada a pagar indenizações, em caso de ação judicial por danos.
O protocolo seria instaurado por um órgão administrativo –ainda não se sabe qual. O texto traz alguns requisitos para fundamentação da instauração, mas pontos sobre o “protocolo”, como suas etapas e objetivos seriam definidos em uma regulamentação posterior à aprovação da lei.
O que o PL 2630 muda sobre anúncios e posts impulsionados?
Plataformas poderiam ser responsabilizadas civilmente por anúncios e posts impulsionados, mesmo sem terem descumprido ação judicial de remoção. Nesse caso, será preciso que alguém entre com ação na Justiça contra um anunciante ou autor de post e que o juiz entenda que houve dano e que a plataforma também teve responsabilidade por ele. A regra deve ter impacto sobre que tipo de anúncio as plataformas permitirão ou não.
Quem vai fiscalizar o cumprimento da lei?
Um ponto em aberto no texto é qual órgão ficará responsável por detalhar os procedimentos para aplicação da lei, além de promover sua fiscalização e aplicar as multas.
O que acontece se esse órgão abusar de suas prerrogativas?
As empresas poderiam acionar o Judiciário para questionar medidas tomadas pelo órgão administrativo que ficar responsável por fiscalizar a lei.

Leia Também: Artistas e jornalistas defendem remuneração de conteúdo por big techs

Notícias ao Minuto Brasil – Tech