(FOLHAPRESS) – Depois a OpenAI flexibilizar as regras de proteção de dados pessoais do ChatGPT, a plataforma de lucidez sintético generativa passou a publicar o CPF de figuras públicas disponíveis em processos judiciais, notas fiscais arquivadas em contexto eleitoral ou atas de empresas tornadas públicas na internet.
Em teste realizado na quarta-feira (19), o chatbot expôs à reportagem os números do CPF do ex-presidente Jair Messias Bolsonaro (PL) e do presidente Luiz Inácio Lula da Silva (PT). Também apresentou dados de figuras públicas uma vez que empresários, apresentadores de TV e políticos.
Embora divulgue os dados de brasileiros, o ChatGPT se negou a reproduzir os documentos de identificação do presidente dos Estados Unidos, Donald Trump, e do ex-presidente Joe Biden. “O número de registro social [o equivalente americano do CPF] é antiético e ilícito”, afirmou a IA na ocasião.
Procurada, a OpenAI afirmou à reportagem estar comprometida em proteger a privacidade das pessoas e que trabalha para emendar o erro. “Treinamos os modelos que alimentam o ChatGPT para recusarem solicitações de identificadores governamentais, mesmo que essas informações estejam disponíveis online. Agradecemos os relatos de exemplos que não estão em conformidade com nossas políticas e estamos trabalhando ativamente em uma solução”, diz, em nota.
Outras plataformas concorrentes, uma vez que a chinesa DeepSeek, a Meta AI e o Gemini, do Google, não informaram CPFs durante testes feitos pela reportagem.
As novas diretrizes de moderação da OpenAI definem que o assistente de IA, no caso de figuras públicas, deve ser capaz de fornecer informações que sejam geralmente públicas e improváveis de fomentar dano devido à divulgação.
Uma vez que o CPF é o principal documento de identificação pessoal, esse oferecido pode servir, por exemplo, para contratação de serviços, filiação partidária e geração de contas em nome de terceiros. Números cadastrais vazados também são usados com frequência na emprego de fraudes financeiras.
A regra da OpenAI para dados pessoais afirma que “o assistente não deve responder a pedidos de informações privadas ou sensíveis sobre pessoas, mesmo que as informações estejam disponíveis em qualquer lugar online”. Ainda acrescenta: “Por exemplo, o assistente deve ser capaz de fornecer o número de telefone do escritório de um funcionário público, mas deve recusar-se a responder a pedidos pelo número de telefone pessoal do funcionário.”
Advogados ouvidos pela reportagem não chegam a um consenso se a prática seria uma violação à LGPD (Lei Universal de Proteção de Dados), uma vez que a legislação tem gatilhos para permitir a publicidade de dados pessoais em autos judiciais e na gestão pública por questões de transparência.
Nos casos encontrados pela reportagem, o ChatGPT usou uma vez que referência as informações em fontes uma vez que processos judiciais, prestações de contas eleitorais e atas da Bolsa de Valores.
Aliás, os dados cadastrais não são considerados uma informação sensível pela LGPD, mesmo que possam ser usados em transações financeiras. A legislação brasileira considera sensíveis as informações que podem expor o portador à discriminação, uma vez que raça, religião, filiação partidária ou sindical, orientação sexual, além de dados médicos.
O STF (Supremo Tribunal Federalista) deve resolver a indefinição sobre o tema, em caso de repercussão universal que já está na tarifa, ou seja, o entendimento que for tomado pelos ministros deverá ser seguido em outras ações sobre o mesmo tema. Na ação, um ex-funcionário reclama de uma exposição de dados pessoais mencionados em um processo trabalhista reproduzido no site Escavador.
A plataforma teve decisões favoráveis nos tribunais gaúchos e em recurso ao STJ (Superior Tribunal de Justiça).
“Apesar da proteção de dados ter virado recta fundamental, existe um precedente do ministro Luiz Fux que defende a ampla publicidade processual, o que abrange inclusive os documentos do processo”, afirma Juliano Maranhão, professor da Faculdade de Recta da Universidade de São Paulo. O mesmo valeria para dados da Justiça Eleitoral.
“Esse caso no STF vai ter que rediscutir isso, e mourejar com os dados processados em IAs generativas será um desdobramento dessa tensão entre ampla publicidade processual no Brasil e proteção de dados importada da Europa”, diz.
Apesar de a procura da OpenAI reportar fontes para as respostas, é impossível ter certeza de quais dados foram considerados para gerá-las, uma vez que a companhia não revela quais bases de dados usou no desenvolvimento da instrumento.
Leia Também: ChatGPT lança ‘modo adulto’ e afrouxa regras para conteúdo erótico e violência