Na onda do Lensa: é seguro usar apps de edição de fotos com Inteligência Artificial?

Se você está louco para aderir aos apps de Inteligência Artificial em fotos como o Lensa, FaceApp ou ToonMe, mas tem medo de como suas informações pessoais serão usadas, você tem alguma razão: antes de sair aderindo ao app da moda, é preciso ler as letrinhas pequenas dos "termos de uso". No caso do Lensa, há uma política de uso bem explicativa e séria. Mas será que todo dispositivo desse tipo é seguro? Conversamos com Mariana Rielli, pesquisadora do Data Privacy Brasil sobre o assunto.

Publicado por
Marcela Guimarães

“A respeito do Lensa, especificamente, há uma política de privacidade mais robusta, com categorias claras, do que outros casos que ficaram famosos no passado”, explica Mariana Rielli do Data Privacy Brasil. 

“Entretanto, a maioria das informações está disponível em inglês, o que é uma barreira de acessibilidade para usuários não falantes da língua, já que tradutores podem limitar a compreensão mais facilitada que é o objetivo de uma política voltada ao público amplo”, complementa.

Famosos postaram avatares da Lensa. Imagem: Reprodução Twitter

Desde que a Lensa virou febre, com avatares mágicos enchendo o Instagram e o Twitter de versões “digitais” de nós mesmos, também houve uma enxurrada de alertas de segurança.

Choveram também teorias conspiratórias de que seríamos cobaias de experimentos com inteligência artificial, entregando nossos dados pessoais de “mão beijada”.

Mas calma, não é tão difícil assim entender do que se trata e não cair em armadilhas.

O que precisamos saber antes de aderir ao app da moda?

“É preciso entender o que é coletado, se é armazenado, com quem é compartilhado, quem é a empresa responsável, quem seria o controlador e o operador (classificações da lei). Para o usuário leigo, é preciso que haja uma política clara e facilmente compreensível, que reúna em destaque as principais informações – para qual finalidade cada dado é utilizado, quem utiliza e com quem compartilha, quando e como os dados são descartados, quais são os canais de contato e reclamação em caso de algum problema, dentre outros”, aconselha a pesquisadora.

Especificamente sobre o Lensa, Mariana Riell diz que a empresa é enfática ao dizer que descarta as fotos originais após 24 horas, mas a política autoriza o uso pela empresa das artes criadas a partir das fotos, inclusive podendo modificá-las posteriormente.

Além disso, o Lensa coleta informações sobre atividades online do usuário (behavioral tracking) e nesse ponto a política menciona consentimento expresso, mas também diz que se o usuário não quiser essa coleta, deve acessar as configurações do dispositivo, ou entrar em contato com a empresa – o que é contraditório com a afirmação sobre consentimento prévio, segundo explica a pesquisadora.

Existem outros risco em relação a aplicativos de inteligência artificial, em relação aos dados de origem – no caso, as fotos. Por isso, a pesquisadora considera buscar respostas para algumas perguntas importantes:

“O que é feito com eles? Outros dados também são requeridos? Os aplicativos se conectam com contas de redes sociais, qual é o tempo de retenção das informações? E se for o caso, quando e como elas são descartadas?”.

Adianta apagar das redes os avatares e apagar o aplicativo, uma vez que já utilizou?

De acordo com Mariana Riell, a política da Lensa permite que a empresa utilize não as fotos originais, que são deletadas após 24 horas, mas sim os avatares criados, além de possivelmente reter outros dados pessoais fornecidos ou coletados.

“Apagar o aplicativo não significa deletar a conta e a própria política explicita esse ponto. Para garantir que ao menos os demais dados pessoais sejam descartados, seria necessário deletar a conta. Em caso de alguma demanda específica relacionada a dados pessoais, a política sugere entrar em contato diretamente com: privacy@lensa-ai.com“, explica.

Outros riscos: exposição e imagem distorcida?

Imagem: Unsplash

Além da preocupação com a segurança de dados, antes de usar qualquer app de fotos é importante pensar também no excesso de exposição na internet ou até na distorção de imagem, um fenômeno moderno que se espalha entre os mais jovens.

“Falando de aplicativos em geral, há vários possíveis riscos, como a intensificação de problemas de distorção de imagem, especialmente em pessoas mais jovens, a partir da proliferação desse tipo de tecnologia, que já ocorre de forma mais diluída com o uso de filtros em aplicativos de fotos e vídeos”, alerta Mariana Riell.

A especialista fala de uma questão mais profunda, sobre como as pessoas, de várias idades, se relacionam com a tecnologia e com a (auto)imagem, e vai além de um aplicativo ou tecnologia específica.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 21:27

Marcela Guimarães

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024