Inteligência Artificial

Estudo do Reino Unido encontra viés discriminatório em ferramentas de IA para saúde

Integrantes de minorias étnicas, mulheres e pessoas de comunidades carentes estão correndo risco de receber cuidados de saúde mais precários devido a discriminação dentro das ferramentas de IA e dispositivos médicos, revelou um relatório.

Publicado por
Vinicius Siqueira

Entre outras descobertas, o Relatório de Equidade em Dispositivos Médicos: Revisão Independente levantou preocupações sobre dispositivos que usam inteligência artificial (IA), bem como aqueles que medem os níveis de oxigênio. A equipe por trás da revisão disse que ação urgente é necessária.

O professor Frank Kee, diretor do centro de saúde pública da Universidade Queen’s de Belfast e co-autor da revisão, disse: “Gostaríamos de ter uma perspectiva de equidade em todo o ciclo de vida dos dispositivos médicos, desde os testes iniciais até a recrutamento de pacientes, seja no hospital ou na comunidade, até os estudos da fase inicial e a implementação no campo após serem licenciados”.

A revisão encomendada pelo governo foi iniciada em 2022, após preocupações serem levantadas sobre a precisão das leituras do oxímetro de pulso em pessoas de origem étnica negra e minorias étnicas.

O relatório confirmou as preocupações com os oxímetros de pulso superestimarem a quantidade de oxigênio no sangue de pessoas com pele escura, observando que, embora não haja evidências disso afetar o cuidado no setor público de saúde do Reino Unido, danos foram encontrados nos EUA – com tais preconceitos levando a diagnósticos e tratamentos tardios, bem como piora da função dos órgãos e morte em pacientes negros.

Os membros da equipe enfatizam que não estão pedindo para evitar os dispositivos. Em vez disso, a revisão apresenta uma série de medidas para melhorar o uso de oxímetros de pulso em pessoas de diferentes tons de pele, incluindo a necessidade de observar mudanças nas leituras em vez de leituras únicas, enquanto também fornece conselhos sobre como desenvolver e testar novos dispositivos para garantir que funcionem bem para pacientes de todas as etnias.

As preocupações com dispositivos baseados em inteligência artificial também foram destacadas pelo relatório, incluindo o potencial para essa tecnologia exacerbar o subdiagnóstico de condições cardíacas em mulheres, levar à discriminação com base no status socioeconômico dos pacientes e resultar em subdiagnóstico de cânceres de pele em pessoas com tons de pele mais escuros. As preocupações com este último, dizem eles, devem-se ao fato de que os dispositivos de IA são em grande parte treinados em imagens de tons de pele mais claros.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:46

Vinicius Siqueira

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024