Inteligência Artificial

Funcionário da Microsoft afirma que modelo da OpenAI está criando imagens prejudiciais

Shane Jones, um engenheiro de inteligência artificial (IA) da Microsoft, alertou a Comissão Federal de Comércio dos EUA (FTC) e o conselho da Microsoft sobre o potencial do Copilot Designer para criar conteúdo prejudicial.

Publicado por
Isabella Caminoto

Carta Aberta de Jones

  • Produtos Prejudiciais: Em seu relatório, Jones destaca problemas sérios com o DALL·E 3 e o Copilot Designer. Ele aponta que o Copilot Designer às vezes pode criar imagens inapropriadas, como a sexualização de mulheres em cenários tão inofensivos quanto um “acidente de carro”. Jones também critica a Microsoft por não divulgar esses riscos.
  • Interferência do CELA: Jones relata uma vulnerabilidade de segurança no DALL·E 3 e alega interferência do Corporate, External, and Legal Affairs (CELA) da Microsoft quando tentou comunicar esses riscos ao conselho da OpenAI.
  • Relato Público: Ao escrever uma carta aberta, Jones defende salvaguardas mais rigorosas para a inteligência artificial, contatando senadores e a FTC.

Resposta da Microsoft e OpenAI

A resposta mista que Jones recebeu – desde ser solicitado a remover sua postagem no LinkedIn pelo CELA até a falta de ação na abordagem dos problemas de geração de conteúdo – destaca os desafios enfrentados pelos denunciantes dentro da indústria de tecnologia e destaca a necessidade de canais mais transparentes e eficazes para levantar e abordar preocupações éticas no desenvolvimento de IA.

Engajamento Público e Regulatório

A abordagem de Jones para lidar com suas preocupações – desde relatar internamente dentro da Microsoft até se envolver com senadores dos EUA e a Comissão Federal de Comércio – ilustra o impacto potencial que ações individuais podem ter na promoção de uma compreensão mais ampla e reavaliação dos padrões éticos e de segurança da IA.

Discurso Regulatório

O caso de Jones instigou um amplo debate sobre a necessidade de supervisão regulatória e o estabelecimento de padrões claros e aplicáveis para a tecnologia de IA.

Leia também:

Este post foi modificado pela última vez em 7 de março de 2024 16:57

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Adeus prints perdidos! IA do Google organiza capturas de tela no Pixel 9

Cansado de perder prints importantes na galeria do seu celular? O Google pode ter a…

3 de julho de 2024

Falha de segurança no app ChatGPT para Mac coloca conversas em risco; entenda

Até a última sexta-feira (28), o aplicativo ChatGPT para macOS recém-lançado pela OpenAI apresentava um…

3 de julho de 2024

Perplexity aprimora IA ‘Pro Search’ para melhor desempenho em matemática e pesquisa

A Perplexity lançou uma grande atualização em sua ferramenta de inteligência artificial (IA) de busca…

3 de julho de 2024

Easy-Peasy.AI: Reúna todas as ferramentas de IA em um só lugar

A Easy-Peasy.AI é uma plataforma de inteligência artificial que oferece uma variedade de ferramentas voltadas…

3 de julho de 2024

IA eleva capital de risco dos EUA ao nível mais alto em dois anos; entenda

O financiamento de capital de risco nos EUA disparou para US$ 55,6 bilhões no segundo…

3 de julho de 2024

Startup Magic busca avaliação de US$ 1,5 bilhão em financiamento

A Magic - uma startup dos EUA que desenvolve modelos de inteligência artificial (IA) para…

3 de julho de 2024