Na onda do Lensa: é seguro usar apps de edição de fotos com Inteligência Artificial?

Se você está louco para aderir aos apps de Inteligência Artificial em fotos como o Lensa, FaceApp ou ToonMe, mas tem medo de como suas informações pessoais serão usadas, você tem alguma razão: antes de sair aderindo ao app da moda, é preciso ler as letrinhas pequenas dos "termos de uso". No caso do Lensa, há uma política de uso bem explicativa e séria. Mas será que todo dispositivo desse tipo é seguro? Conversamos com Mariana Rielli, pesquisadora do Data Privacy Brasil sobre o assunto.

Publicado por
Marcela Guimarães

“A respeito do Lensa, especificamente, há uma política de privacidade mais robusta, com categorias claras, do que outros casos que ficaram famosos no passado”, explica Mariana Rielli do Data Privacy Brasil. 

“Entretanto, a maioria das informações está disponível em inglês, o que é uma barreira de acessibilidade para usuários não falantes da língua, já que tradutores podem limitar a compreensão mais facilitada que é o objetivo de uma política voltada ao público amplo”, complementa.

Famosos postaram avatares da Lensa. Imagem: Reprodução Twitter

Desde que a Lensa virou febre, com avatares mágicos enchendo o Instagram e o Twitter de versões “digitais” de nós mesmos, também houve uma enxurrada de alertas de segurança.

Choveram também teorias conspiratórias de que seríamos cobaias de experimentos com inteligência artificial, entregando nossos dados pessoais de “mão beijada”.

Mas calma, não é tão difícil assim entender do que se trata e não cair em armadilhas.

O que precisamos saber antes de aderir ao app da moda?

“É preciso entender o que é coletado, se é armazenado, com quem é compartilhado, quem é a empresa responsável, quem seria o controlador e o operador (classificações da lei). Para o usuário leigo, é preciso que haja uma política clara e facilmente compreensível, que reúna em destaque as principais informações – para qual finalidade cada dado é utilizado, quem utiliza e com quem compartilha, quando e como os dados são descartados, quais são os canais de contato e reclamação em caso de algum problema, dentre outros”, aconselha a pesquisadora.

Especificamente sobre o Lensa, Mariana Riell diz que a empresa é enfática ao dizer que descarta as fotos originais após 24 horas, mas a política autoriza o uso pela empresa das artes criadas a partir das fotos, inclusive podendo modificá-las posteriormente.

Além disso, o Lensa coleta informações sobre atividades online do usuário (behavioral tracking) e nesse ponto a política menciona consentimento expresso, mas também diz que se o usuário não quiser essa coleta, deve acessar as configurações do dispositivo, ou entrar em contato com a empresa – o que é contraditório com a afirmação sobre consentimento prévio, segundo explica a pesquisadora.

Existem outros risco em relação a aplicativos de inteligência artificial, em relação aos dados de origem – no caso, as fotos. Por isso, a pesquisadora considera buscar respostas para algumas perguntas importantes:

“O que é feito com eles? Outros dados também são requeridos? Os aplicativos se conectam com contas de redes sociais, qual é o tempo de retenção das informações? E se for o caso, quando e como elas são descartadas?”.

Adianta apagar das redes os avatares e apagar o aplicativo, uma vez que já utilizou?

De acordo com Mariana Riell, a política da Lensa permite que a empresa utilize não as fotos originais, que são deletadas após 24 horas, mas sim os avatares criados, além de possivelmente reter outros dados pessoais fornecidos ou coletados.

“Apagar o aplicativo não significa deletar a conta e a própria política explicita esse ponto. Para garantir que ao menos os demais dados pessoais sejam descartados, seria necessário deletar a conta. Em caso de alguma demanda específica relacionada a dados pessoais, a política sugere entrar em contato diretamente com: privacy@lensa-ai.com“, explica.

Outros riscos: exposição e imagem distorcida?

Imagem: Unsplash

Além da preocupação com a segurança de dados, antes de usar qualquer app de fotos é importante pensar também no excesso de exposição na internet ou até na distorção de imagem, um fenômeno moderno que se espalha entre os mais jovens.

“Falando de aplicativos em geral, há vários possíveis riscos, como a intensificação de problemas de distorção de imagem, especialmente em pessoas mais jovens, a partir da proliferação desse tipo de tecnologia, que já ocorre de forma mais diluída com o uso de filtros em aplicativos de fotos e vídeos”, alerta Mariana Riell.

A especialista fala de uma questão mais profunda, sobre como as pessoas, de várias idades, se relacionam com a tecnologia e com a (auto)imagem, e vai além de um aplicativo ou tecnologia específica.

Veja também:

Este post foi modificado pela última vez em 7 de dezembro de 2022 21:27

Marcela Guimarães

Posts recentes

ChatGPT em apuros: OpenAI é processada por falhas na detecção de informações falsas

O ChatGPT, chatbot desenvolvido pela OpenAI em parceria com a Microsoft, está sob investigação por…

1 de maio de 2024

Amazon lança Q, assistente de IA para empresas e desenvolvedores

A Amazon acaba de anunciar a disponibilidade do Q, seu assistente corporativo baseado em inteligência…

1 de maio de 2024

Google apresenta Med-Gemini: IA especializada para o setor da saúde

O Google acaba de anunciar o Med-Gemini, um conjunto de modelos de inteligência artificial (IA)…

1 de maio de 2024

Jornais dos EUA processam a OpenAI e a Microsoft por violação de direitos autorais

Um grupo de oito jornais dos Estados Unidos está processando a OpenAI - fabricante do…

1 de maio de 2024

ANÁLISE| Blackout tecnológico: Acabou o fôlego da ‘Corrida por IA’?

Em um texto publicado no dia 17 de abril na Bloomberg, Rene Haas, CEO da…

30 de abril de 2024

‘Robôs assassinos’: Áustria pede regulamentação sobre uso de IA em armamentos

A Áustria pediu, na última segunda-feira (29), por novos esforços para regular o uso da…

30 de abril de 2024