(FOLHAPRESS) – A cantora Anitta publicou no início do mês uma série de vídeos interagindo com um aplicativo de IA (lucidez sintético) que imita sua voz e personalidade. O app, criado pela empresa Character.AI, simula conversas humanas a partir de personagens criados por usuários e está envolvido em polêmicas nos Estados Unidos.
Especialistas em recta do dedo ouvidos pela reportagem afirmam que o uso sem autorização de voz e imagem é considerado ilícito social. Também pode configurar transgressão contra a honra se o teor for ofensivo ou difamatório, levando a indenizações por danos morais e exploração mercantil indevida.
Nos vídeos publicados nos stories do Instagram, Anitta chega a confrontar sua versão do dedo: “Esse aplicativo deveria ser processado porque deveria estar pagando para usar minha voz, imagem e personalidade.”
A reportagem entrou em contato com a assessoria de Anitta para questionar se a cantora pretende tomar alguma atitude além de gravar os vídeos, mas não obteve resposta até a publicação deste texto.
Em nota, a Character.AI disse que remove personagens criados por usuários que violem direitos de propriedade intelectual, direitos autorais ou políticas dos termos de serviço, tanto de forma proativa quanto em resposta a denúncias de usuários.
O aplicativo afirmou ainda que conta com uma equipe de crédito e segurança para detectar e moderar violações, além de narrar com listas de bloqueio personalizadas que são aumentadas regularmente.
No Brasil, a proteção da voz, imagem e dados pessoais são previstos pela Constituição Federalista (item 5°), pelo Código Social (item 20), pelo Regime da Gaiato e do Jovem (item 17) e pela Lei Universal de Proteção de Dados (item 2°).
Embora a legislação atual já proteja esses direitos, o Projeto de Lei n° 2338, que tramita no Congresso, procura ampliar a regulamentação para mourejar com os avanços da IA no país.
O uso legítimo da voz ou imagem de uma pessoa exige um consentimento explícito, que pode ser formalizado por meio de contrato escrito, áudio, e-mail ou até mesmo mensagens de WhatsApp, segundo especialistas.
Na plataforma Character.AI, os termos de uso estabelecem que é proibido o uso de gravações de terceiros sem consentimento, muito porquê a geração de deepfakes ou falsificação de identidade.
“Se eles proíbem nos termos, e houver denúncia de descumprimento, eles precisam remover do ar. Se não estão sujeitos a serem responsabilizados”, afirma Patrícia Peck, advogada técnico em recta do dedo.
Outrossim, os termos não estão disponíveis em português, o que contraria a legislação brasileira, já que o serviço é ofertado para usuários no Brasil.
Criada em 2022 pelos ex-engenheiros do Google Noam Shazeer e o brasílio Daniel de Freitas, a startup recebeu um investimento inicial de quase US$ 200 milhões. Em agosto do ano pretérito, o Google adquiriu a tecnologia da empresa por US$ 3 bilhões, mantendo os fundadores e secção da equipe na sua subdivisão de pesquisa de IA.
“A legislação brasileira exige que tecnologias operando no país respeitem as leis locais, independentemente de serem de empresas estrangeiras”, diz Peck.
A advogada também destaca que a salvaguarda (disclaimer) informando que as interações são fictícias e geradas por IA logo inferior do campo de envio de mensagens não é suficiente para distanciar responsabilidades, mormente ao mourejar com públicos vulneráveis.
“A informação deve ser mais didática e ostensiva, com mecanismos explícitos de aviso, canais de denúncia e sistemas para mitigar riscos à segurança dos usuários mormente para crianças, adolescentes e idosos”, afirma Peck.
Rony Vainzof, sócio do VLK Advogados e técnico em recta do dedo, também entende que disclaimers não eximem as empresas de responsabilidade em casos de danos morais ou uso mercantil indevido.
“Se a IA gerar teor difamatório ou prejudicar a imagem da pessoa, há recta à indenização não unicamente pelo uso mercantil, mas também por danos morais”, explica.
Exemplo disso é o caso do uso da voz para práticas de conotação sensual ou sua associação a comportamentos que comprometam a reputação do titular, porquê xingar, difamar, ridicularizar ou ofender o possuidor da voz original, podendo caracterizar transgressão contra a honra.
Para evitar problemas legais, Vainzof reforça a premência de uma governança moral na lucidez sintético, além de contratos claros de licenciamento, a exemplo do protótipo adotado pelo Spotify, que trouxe regras para o licenciamento de músicas.
“Assim porquê no caso da música, é preciso produzir normas para a exploração moral de voz e imagem em deepfakes”, diz. “A tecnologia pode ser uma instrumento poderosa, mas precisa ser usada de forma moral e dentro dos limites legais. É verosímil explorar essas inovações comercialmente, desde que com autorização e reverência aos direitos de personalidade”.
Com ele concorda Peck. “Temos proteção suficiente hoje, mas precisamos de atualizações para seguir a revolução tecnológica”, afirma.
Apesar dos riscos, Vainzof não vê o uso de deepfake porquê sinônimo de transgressão.
“Exemplos bem-sucedidos incluem a campanha de David Beckham, que usou deepfake para conscientizar sobre a malária em vários idiomas, e a propaganda da Elis Regina, autorizada por seus familiares, que emocionou o público ao trazer a cantora de volta às telas.”
Leia Também: Kate Middleton revela detalhe sobre quimioterapia