Microsoft planeja usar energia nuclear para alimentar data centers de IA
Créditos da imagem: Unsplash

Funcionário da Microsoft afirma que modelo da OpenAI está criando imagens prejudiciais

Shane Jones, um engenheiro de inteligência artificial (IA) da Microsoft, alertou a Comissão Federal de Comércio dos EUA (FTC) e o conselho da Microsoft sobre o potencial do Copilot Designer para criar conteúdo prejudicial.

Carta Aberta de Jones

  • Produtos Prejudiciais: Em seu relatório, Jones destaca problemas sérios com o DALL·E 3 e o Copilot Designer. Ele aponta que o Copilot Designer às vezes pode criar imagens inapropriadas, como a sexualização de mulheres em cenários tão inofensivos quanto um “acidente de carro”. Jones também critica a Microsoft por não divulgar esses riscos.
  • Interferência do CELA: Jones relata uma vulnerabilidade de segurança no DALL·E 3 e alega interferência do Corporate, External, and Legal Affairs (CELA) da Microsoft quando tentou comunicar esses riscos ao conselho da OpenAI.
  • Relato Público: Ao escrever uma carta aberta, Jones defende salvaguardas mais rigorosas para a inteligência artificial, contatando senadores e a FTC.

Resposta da Microsoft e OpenAI

A resposta mista que Jones recebeu – desde ser solicitado a remover sua postagem no LinkedIn pelo CELA até a falta de ação na abordagem dos problemas de geração de conteúdo – destaca os desafios enfrentados pelos denunciantes dentro da indústria de tecnologia e destaca a necessidade de canais mais transparentes e eficazes para levantar e abordar preocupações éticas no desenvolvimento de IA.

PUBLICIDADE

Engajamento Público e Regulatório

A abordagem de Jones para lidar com suas preocupações – desde relatar internamente dentro da Microsoft até se envolver com senadores dos EUA e a Comissão Federal de Comércio – ilustra o impacto potencial que ações individuais podem ter na promoção de uma compreensão mais ampla e reavaliação dos padrões éticos e de segurança da IA.

Discurso Regulatório

O caso de Jones instigou um amplo debate sobre a necessidade de supervisão regulatória e o estabelecimento de padrões claros e aplicáveis para a tecnologia de IA.

Leia também:

Rolar para cima