Michal Kosinski, controverso professor da Universidade Stanford, está de volta. O polonês de 38 anos descreveu em 2013 o uso de curtidas e testes no Facebook para decifrar a personalidade de uma pessoa – a estratégia foi usada posteriormente pela consultoria política Cambridge Analytica (CA) para influenciar a opinião pública em episódios como as eleições americanas de 2016.
Após virar ‘profeta’ de um dos maiores escândalos do Facebook, Kosinski passou a dedicar seus estudos a potenciais perigos à privacidade causados por tecnologias de reconhecimento facial. Nesta segunda, 11, a prestigiada revista científica Nature publicou o novo artigo do pesquisador, no qual afirma ser possível usar reconhecimento facial para detectar a orientação política das pessoas.
No experimento, o algoritmo analisou mais de 1 milhão de fotos de perfis no Facebook e em sites de namoros em três países: EUA, Canadá e Inglaterra. Ao final, a inteligência artificial (IA) teria identificado corretamente a orientação política dessas pessoas em 72% dos casos – seguindo a classificação amplamente utilizada nos EUA, as pessoas estavam divididas em ‘conservadoras’ e ‘liberais’.
“Provavelmente, o algoritmo está detectando padrões e fazendo combinações que passam despercebidas aos olhos humanos”, explica ele ao Estadão. No estudo, a IA determinou 2.048 atributos de descrição da face, embora não seja possível saber o que a máquina captou – é algo que reforça a crítica de que a IA é uma tecnologia pouco transparente.
Críticas
Os resultados e a própria existência da pesquisa devem replicar críticas já feitas anteriormente aos trabalhos de Kosinski. Em 2017, ele publicou na revista The Economist uma pesquisa que afirmava ser possível usar o reconhecimento facial para detectar a orientação sexual das pessoas. Na época, grupos LGBTQ+ dos EUA consideraram o estudo falho e perigoso, enquanto pesquisadores questionaram seu método, linguagem e propósito.
“Eu espero que as pessoas tenham a cabeça mais fria desta vez. A maioria das críticas acontecem por não entenderem o que estou fazendo. Eu estou apontando os problemas da tecnologia e os riscos que ela traz para privacidade e direitos civis”, diz.
A argumentação para a existência do trabalho e os métodos adotados são problemáticos, dizem especialistas de diferentes áreas.
“Você não precisa explodir uma bomba para saber que ela é perigosa”, afirma Sérgio Amadeu, professor da Universidade Federal do ABC (UFABC) e especialista em políticas públicas e inclusão digital. “Me preocupo muito com o tipo de incentivo e sinalização que esse tipo de pesquisa nos traz”, diz.
“Isso recicla velhas práticas. É uma atualização do positivismo de Cesare Lombroso”, diz ele, em referência ao psiquiatra e criminologista italiano que viveu no século 19 e que dizia ser possível identificar criminosos a partir de suas características físicas. “Agora, porém, a computação é usada para justificar velhos preconceitos.”
“É absurdo dizer que é possível extrair uma construção social, como orientação política, a partir de características genéticas e fenotípicas”, diz Roberto Hirata Junior, professor da USP. Segundo ele, é possível que exista viés nos dados e nas classificações para indicar orientação política.
As informações são do jornal O Estado de S. Paulo.
Notícias ao Minuto Brasil – Tech