Inteligência Artificial

Estudo do Reino Unido encontra viés discriminatório em ferramentas de IA para saúde

Integrantes de minorias étnicas, mulheres e pessoas de comunidades carentes estão correndo risco de receber cuidados de saúde mais precários devido a discriminação dentro das ferramentas de IA e dispositivos médicos, revelou um relatório.

Publicado por
Vinicius Siqueira

Entre outras descobertas, o Relatório de Equidade em Dispositivos Médicos: Revisão Independente levantou preocupações sobre dispositivos que usam inteligência artificial (IA), bem como aqueles que medem os níveis de oxigênio. A equipe por trás da revisão disse que ação urgente é necessária.

O professor Frank Kee, diretor do centro de saúde pública da Universidade Queen’s de Belfast e co-autor da revisão, disse: “Gostaríamos de ter uma perspectiva de equidade em todo o ciclo de vida dos dispositivos médicos, desde os testes iniciais até a recrutamento de pacientes, seja no hospital ou na comunidade, até os estudos da fase inicial e a implementação no campo após serem licenciados”.

A revisão encomendada pelo governo foi iniciada em 2022, após preocupações serem levantadas sobre a precisão das leituras do oxímetro de pulso em pessoas de origem étnica negra e minorias étnicas.

O relatório confirmou as preocupações com os oxímetros de pulso superestimarem a quantidade de oxigênio no sangue de pessoas com pele escura, observando que, embora não haja evidências disso afetar o cuidado no setor público de saúde do Reino Unido, danos foram encontrados nos EUA – com tais preconceitos levando a diagnósticos e tratamentos tardios, bem como piora da função dos órgãos e morte em pacientes negros.

Os membros da equipe enfatizam que não estão pedindo para evitar os dispositivos. Em vez disso, a revisão apresenta uma série de medidas para melhorar o uso de oxímetros de pulso em pessoas de diferentes tons de pele, incluindo a necessidade de observar mudanças nas leituras em vez de leituras únicas, enquanto também fornece conselhos sobre como desenvolver e testar novos dispositivos para garantir que funcionem bem para pacientes de todas as etnias.

As preocupações com dispositivos baseados em inteligência artificial também foram destacadas pelo relatório, incluindo o potencial para essa tecnologia exacerbar o subdiagnóstico de condições cardíacas em mulheres, levar à discriminação com base no status socioeconômico dos pacientes e resultar em subdiagnóstico de cânceres de pele em pessoas com tons de pele mais escuros. As preocupações com este último, dizem eles, devem-se ao fato de que os dispositivos de IA são em grande parte treinados em imagens de tons de pele mais claros.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:46

Vinicius Siqueira

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024