(FOLHAPRESS) – Dona do WhatsApp, a Meta decidiu colocar lucidez sintético em todo o aplicativo. A tecnologia pode ser acionada nos grupos, nas conversas pessoais e até nas pesquisas -todos os espaços conhecidos pela garantia de privacidade com criptografia de ponta a ponta. “Pergunte à Meta AI ou pesquise”, diz a novidade barra de buscas. Dentro de uma conversa, por exemplo, basta digitar o “@” e o aplicativo já sugere convocar o robô para o bate-papo.
A situação gerou suspeição dos usuários em relação a quais informações o aplicativo consegue acessar. A empresa diz que a criptografia de ponta a ponta no app está protegida. A Meta AI acessaria unicamente as mensagens enviadas a ela, segundo nota da empresa.
Há, porém, recursos de privacidade ligados às IAs da Meta, mencionados na política de privacidade, que ainda não funcionam, depois 25 dias do proclamação da utensílio. Segundo advogados consultados pela reportagem, a política de privacidade da Meta para a tecnologia, que foi mira de uma medida preventiva da ANPD (Poder Pátrio de Proteção de Dados) entre julho e agosto, continua “confusa” e “pouco transparente”.
O contrato de proteção de dados do conglomerado diz, por exemplo, que o comando “/saved-details” mostra “os detalhes mais recentes da conversa com as IAs da Meta”. A funcionalidade, já ativa nos Estados Unidos, não entrega o resultado esperado nos aparelhos brasileiros. O robô enviou respostas automáticas a cinco celulares testados pela reportagem.
“Desculpe, mas não tenho aproximação a informações pessoais ou detalhes salvos sobre você.” O chatbot, todavia, salvou todas as mensagens que recebera da reportagem -o teor estava disponível na relação de dados armazenados pela Meta, obtida por meio do comando “/download-all-ai-info”.
O professor da Faculdade de Recta da USP Juliano Maranhão diz que falta transparência na política de privacidade da Meta, que deveria informar que a utensílio não funciona. Por enquanto, segundo o profissional, o caminho é encolher o link que mostra todas as conversas que foram feitas com o robô.
Outro mira de queixas foi a soma da IA à barra de buscas por mensagens e grupos, das quais teor é protegido por criptografia.
“O usuário não pode desativá-la nesta experiência, mas pode pesquisar da maneira habitual para acessar uma variedade de resultados”, diz a Meta em nota. De negócio com a empresa, o teor das buscas só é usado para treinar modelos de IA caso a pessoa clique na sugestão de comando para o chatbot.
Segundo a política de privacidade da Meta AI, a plataforma usa os metadados uma vez que o número identificador do usuário (ID) e o horário do envio para melhorar as respostas.
A Meta diz que o usuário pode acessar o formulário, disponível neste link, de oposição ao uso das suas mensagens com IAs no WhatsApp para treinar modelos de lucidez sintético.
A reportagem, que havia vetado o uso de dados públicos para desenvolvimento de lucidez sintético na versão anterior desse formulário, teve todas as mensagens enviadas à Meta AI armazenadas pela plataforma. A Meta criou um novo documento de privacidade para se adequar às exigências da ANPD e não comunicou se os usuários precisam declarar oposição outra vez.
“O problema é que a política de privacidade é muito confusa e não deixa muito evidente se os dados continuam sendo armazenados, embora não sejam usados no treinamento de IAs”, afirma a advogada Marina Fernandes Siqueira, do Idec (Instituto de Resguardo de Consumidores).
A ANPD, que atua sob o guarda-chuva do Ministério da Justiça, notificou a Meta por falta de transparência no uso de dados para treinar IA e risco iminente de violações da LGPD (lei universal de proteção de dados), depois provocação do Idec .
O principal argumento da entidade era de que o gigante da tecnologia tratava os brasileiros uma vez que “cidadãos de segunda classe”, uma vez que a empresa alertou os clientes europeus, com envio de email e opção simples de oposição à medida, sobre o uso de dados pessoais no desenvolvimento de IA. No Brasil, houve, segundo a empresa, uma notificação pop-up da mudança na política de privacidade nos próprios aplicativos.
Depois o lançamento da plataforma, no último dia 9, a domínio de dados solicitou à Meta o envio do relatório de impacto à proteção de dados pessoais e do LIA (um documento que justifica os motivos do usuário ter interesse em determinado processamento de informações) referentes ao tratamento da IA da Meta no WhatsApp, para verificar a regularidade da prática.
O conglomerado, agora, mantém duas políticas de privacidade no WhatsApp: uma vale quando o usuário se comunica com outras pessoas, e o outro, nas comunicações com a empresa para recorrer a modelos de IA. “Eu uso um outro serviço da empresa que está na mesma interface, mas é um outro serviço”, resume Maranhão.
O contrato da utensílio determina que qualquer pessoa que interagir com a máquina aceita as condições da empresa para a Meta AI de forma automática.
O incremento compulsório da Meta AI no WhatsApp gerou insatisfação do público. Logo depois o proclamação da utensílio, as buscas por uma forma de remover o robô do aplicativo explodiram desde o dia 21, mostra o Google Trends.
Os padrões inferiores de privacidade na informação com a IA do conglomerado podem confundir as expectativas do usuário com privacidade, na avaliação da diretora da associação Data Privacy Brasil Mariana Rielli. “A criptografia é sempre uma mensagem muito possante da Meta quando falam de questões de privacidade.”
Leia Também: WhatsApp recebe novidade que vai mudar forma como usa o aplicativo