O texto definitivo do Projeto de Lei 2.338/2023, mais publicado porquê Marco da Lucidez Sintético (IA) foi legalizado nesta quinta-feira, 5, em uma sessão no Senado que marcou o progressão da tramitação do que pode se tornar uma das primeiras leis no mundo a regular a IA. A votação pela aprovação do texto foi simbólica e unânime. O pleito no Senado está marcado para a próxima terça-feira, 10.

 

O PL tem porquê objetivo produzir regras para o desenvolvimento da IA no Brasil para o setor público e privado, estabelecendo, principalmente, fundamentos de segurança e de incremento para a tecnologia no País.

Na sessão desta terça, o Senador Carlos Viana (Podemos-MG), presidente da Percentagem Temporária Interna sobre Lucidez Sintético (CTIA), afirmou que, desde a última leitura, o texto recebeu mais de 40 emendas e que, depois de analisá-las, a percentagem julgou que o texto estava pronto para a votação.

Na semana passada, o texto foi apresentado com mudanças, depois um período de estudo da percentagem e foi considerado uma versão branda do projeto inicial – com a suavização de diversos tópicos que versam sobre a responsabilidade das empresas e a classificação de risco das IAs.

Agora, o texto deve ir para votação em plenário no Senado e, se aprovada, passa para a Câmara dos Deputados para mais um pleito. Somente se for aprovada nas duas casas o Projeto de Lei pode seguir para sanção presidencial.

De entendimento com o próprio Senado, o objetivo do PL é a “definição de princípios éticos para IA, a geração de uma Política Vernáculo de Lucidez Sintético, a regulação do uso de IA em áreas porquê publicidade e justiça, além de mecanismos de governança e responsabilização”. Com isso, regras de desenvolvimento e orientações para sua construção são abordadas no documento.

O Marco da IA começou a ser discutido ainda em 2022, mas unicamente em 2023 foi criada uma percentagem para reunir informações, realizar audiências públicas e consultar especialistas para edificar o texto da lei.

Para quem são as regras?

A regulação se aplica para as IAs públicas e privadas que tenham uso mercantil e de larga graduação no País – ou seja, além dos modelos desenvolvidos pela iniciativa pública, startups e gigantes de tecnologia porquê Meta, Amazon, Microsoft, OpenAI e outras terão que se conciliar ao contexto da lei, caso aprovada.

O texto ainda afirma que, independente do tipo de sistema, a regulação não se aplica para o desenvolvimento de IAs que sejam de uso pessoal e não mercantil ou de uso em alguns setores governamentais, porquê resguardo pátrio.

Sistemas de IA

Fundamental para entender o PL, os Sistemas de IA, de entendimento com o texto, são todos os algoritmos, modelos ou softwares que tenham autonomia e conseguem gerar previsão, teor ou recomendação a partir de qualquer conjunto de dados. A definição é proposta separadamente dos sistemas de IA de propósito universal e de sistemas de IA generativa.

Para a lei, os sistemas de IA de propósito universal são modelos treinados com dados que conseguem realizar diversas tarefas, “incluindo aquelas para as quais não foram especificamente desenvolvidos”. Já os sistemas de IA generativa são aqueles que podem modificar qualquer teor com informações criadas pelo próprio protótipo, porquê ChatGPT e Meta AI, por exemplo.

Classificação de risco

Um dos principais pontos do Marco da IA é a classificação de risco dos produtos construídos com a tecnologia. Segundo o texto, fica proibido o desenvolvimento de IAs que possam “comprometer a segurança, direitos fundamentais ou a integridade física e moral das pessoas de forma significativa e irreparável”, que são chamadas de Risco Excessivo. Deepfakes e IAs que podem manipular o sistema eleitoral, porquê bots de disseminação de conteúdos falsos entram nessa categoria, além de armas autônomas, porquê robôs de guerra.

O documento também fala que as IAs de Risco Cimo, que podem ter impacto nos direitos fundamentais dos indivíduos, porquê sistemas de seleção de candidatos e biometria via IA, devem ser submetidas a uma maior supervisão e uma regulamentação rigorosa antes de serem liberadas.

Já as IAs consideradas de Risco Universal ou Reles Risco podem ser desenvolvidas com menos burocracia, por não apresentarem riscos fundamentais – de entendimento com texto, é o caso de IAs de tradução, correção ortográfica ou de filtro de mensagens, por exemplo.

Estão também na classificação de supino risco algoritmos de recomendação de redes sociais, revérbero do debate de moderação de teor online que domina os três poderes nos últimos anos. Embora o PL não cite explicitamente as plataformas, ele afirma que são classificados porquê supino risco IAs de “curadoria, disseminação, recomendação e distribuição, em grande graduação e significativamente automatizada, de teor por provedores de emprego de internet, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.

Os casos, porém, serão analisados a partir dos riscos que podem provocar à liberdade de sentença e ao chegada à informação, por exemplo, porquê manipulação do debate público e influência no processo eleitoral.

Direitos dos cidadãos

Todas as pessoas afetadas pelas IAs precisam ter alguns direitos, de entendimento com o PL. Um deles é ter o conhecimento de que os seus dados estão sendo utilizados para treinar ou fomentar modelos da tecnologia, além de ser provável remover ou optar por não ter suas informações utilizadas – a norma segue a mesma regra que a Lei Universal de Proteção de Dados (LGPD) já possui no Brasil.

Outrossim, a lei prevê que pessoas que sejam afetadas negativamente, independente de seu proporção de risco, podem recorrer à Justiça para obter explicações sobre a ação da IA. O texto não deixa explícito quais seriam as reparações judiciais de processos ou se qualquer tipo de multa ou outra punição seriam aplicadas nos casos de prejuízos pessoais.

Em alguns casos, porém, as empresas de tecnologia argumentam que nem sempre é provável fornecer uma explicação para decisões de um protótipo de IA. Esses sistemas, chamados de black box (caixa preta, em tradução literal), possuem mecanismos que não são totalmente transparentes nem mesmo para os programadores, por conta da quantidade de processamento gerada a partir dos dados de treinamento do protótipo – é porquê se a IA fizesse tantos cruzamentos de informações que, em qualquer momento no caminho, nem ela soubesse expressar exatamente porquê chegou a determinada epílogo.

Fiscalização

Para a fiscalização, o texto determina dois órgãos responsáveis pela supervisão e triagem dessas tecnologias: o Sistema Vernáculo de Regulação e Governança de Lucidez Sintético (SIA) e a Mando Vernáculo de Proteção de Dados (ANPD).

O SIA tem porquê objetivo “realizar auditorias internas de sistemas de lucidez sintético quando necessária para a aferição de conformidade com esta Lei, guardado o tratamento secreto das informações em atenção aos segredos mercantil e industrial”. É ele quem pode instituir se uma IA está ou não em conformidade com a lei.

Para sistemas que infringirem a legislação, uma multa que pode chegar a R$ 50 milhões de reais a depender do caso, além de perder o recta de testar a tecnologia por até cinco anos – ou seja, sem a possibilidade de subordinar aos testes, a IA se torna ilícito no País.

Também é de responsabilidade da SIA promover os sandboxes regulatórios para testes das IAs – e pequenas empresas e startups devem ser priorizadas no processo.

IA generativa

O novo texto também aborda as IAs generativas, ainda que de forma reduzida. De entendimento com o PL, todos os produtos gerados por esses sistemas precisam ter uma identificação, porquê uma marca d’chuva, que deixe simples a proveniência do material. As empresas que possuem esse tipo de resultado também terão que publicar quais dados foram utilizados para treinar o protótipo de IA.

Ainda, as IAs generativas e de propósito universal terão que apresentar, regularmente, documentos técnicos sobre o funcionamento, propósito e uso da IA por 10 anos.

O impacto algorítmico também foi incluído nos casos em que a supervisão humana é unicamente recomendada. Segundo o texto, a avaliação nessa situação é obrigatória unicamente para as IAs consideradas de supino risco.

Incentivo, fomento e capacitação

O texto fala, ainda, que é de responsabilidade da governo pública (governo federalista, estadual e municipal) produzir programas de ensino em IA, incluindo o letramento do dedo para que os cidadãos possam saber o que é a tecnologia e porquê usá-la, e disciplinas no ensino público que ensinem sobre o impacto ambiental e social da IA.

Programas de capacitação e formação de profissionais na dimensão também estão previstos no Projeto de Lei, em privativo nos níveis de ensino técnico e superior, além de reportar que os órgãos públicos também devem prestar escora a trabalhadores que foram impactados negativamente pela tecnologia.

O documento não especifica, porém, porquê ou quais devem ser os programas adotados pelo governo. O texto também não especifica a partir de que período ou quanto tempo os órgãos teriam para fazer as medidas serem adotadas.