OMS divulga orientações sobre ética e governança em IA para grandes modelos multimodais

A Organização Mundial da Saúde (OMS) lançou novas orientações sobre a ética e a governação de grandes modelos multimodais (LMMs) – um tipo de tecnologia de inteligência artificial (IA) generativa de rápido crescimento com aplicações nos cuidados de saúde.

A orientação da OMS descreve mais de 40 recomendações a serem consideradas por governos, empresas de tecnologia e prestadores de cuidados de saúde para garantir a utilização adequada de LMMs para promover e proteger a saúde das populações.

PUBLICIDADE

Os LMMs podem aceitar um ou mais tipos de entradas de dados, como texto, vídeos e imagens, e gerar diversos resultados não limitados ao tipo de dados inseridos. Os LMMs são únicos em sua imitação da comunicação humana e na capacidade de realizar tarefas para as quais não foram explicitamente programados. Os LMMs foram adotados mais rapidamente do que qualquer aplicação de consumo na história, com diversas plataformas – como ChatGPT e Bard.

“As tecnologias de IA generativa têm o potencial de melhorar os cuidados de saúde, mas apenas se aqueles que desenvolvem, regulam e utilizam estas tecnologias identificarem e considerarem plenamente os riscos associados”, afirmou o Dr. Jeremy Farrar, cientista-chefe da OMS. “Precisamos de informações e políticas transparentes para gerir a concepção, o desenvolvimento e a utilização de LMMs para alcançar melhores resultados de saúde e superar as persistentes desigualdades na saúde.”

Potenciais benefícios e riscos

A nova orientação da OMS descreve cinco aplicações amplas dos LMMs para a saúde:

PUBLICIDADE

  • Diagnóstico e atendimento clínico, como responder às dúvidas por escrito dos pacientes;
  • Uso orientado pelo paciente, como para investigação de sintomas e tratamento;
  • Tarefas administrativas e de escritório, como documentar e resumir visitas de pacientes em registros eletrônicos de saúde;
  • Educação médica e de enfermagem, incluindo proporcionar aos estagiários encontros simulados com pacientes, e;
  • Pesquisa científica e desenvolvimento de medicamentos, inclusive para identificação de novos compostos.

Embora os LMM estejam começando a ser utilizados para fins específicos relacionados com a saúde, também existem riscos documentados de produção de declarações falsas, imprecisas, tendenciosas ou incompletas, o que poderia prejudicar as pessoas que utilizam essas informações na tomada de decisões sobre saúde. Além disso, os LMMs podem ser treinados com base em dados de má qualidade ou tendenciosos, seja por raça, etnia, ascendência, sexo, identidade de gênero ou idade.

A orientação também detalha riscos mais amplos para os sistemas de saúde, tais como a acessibilidade e o custo dos LMMs com melhor desempenho. O LMMS também pode encorajar o “viés de automação” por parte dos profissionais de saúde e dos pacientes, através do qual são ignorados erros que de outra forma teriam sido identificados ou escolhas difíceis são delegadas indevidamente a um LMM. Os LMM, tal como outras formas de inteligência artificial, também são vulneráveis ​​a riscos de cibersegurança que podem pôr em perigo as informações dos pacientes ou a fiabilidade destes algoritmos e a prestação de cuidados de saúde de forma mais ampla.

Para criar LMM seguros e eficazes, a OMS sublinha a necessidade de envolvimento de várias partes interessadas: governos, empresas tecnológicas, prestadores de cuidados de saúde, pacientes e sociedade civil, em todas as fases de desenvolvimento e implantação de tais tecnologias, incluindo a sua supervisão e regulamentação.

PUBLICIDADE

Principais recomendações

As novas orientações da OMS incluem recomendações para os governos, que têm a responsabilidade primária de estabelecer padrões para o desenvolvimento e implantação de LMMs, e a sua integração e utilização para fins médicos e de saúde pública. Por exemplo, os governos deveriam:

  • Investir ou fornecer infraestrutura pública ou sem fins lucrativos, incluindo poder computacional e conjuntos de dados públicos, acessíveis a desenvolvedores nos setores público, privado e sem fins lucrativos, que exijam que os usuários adiram a princípios e valores éticos em troca de acesso.
  • Utilizar leis, políticas e regulamentos para garantir que os LMMs e as aplicações utilizadas nos cuidados de saúde e na medicina, independentemente do risco ou benefício associado à tecnologia de IA, cumpram as obrigações éticas e os padrões de direitos humanos que afetam, por exemplo, a dignidade, a autonomia ou a privacidade de uma pessoa.
  • Designar uma agência reguladora existente ou nova para avaliar e aprovar LMMs e aplicações destinadas ao uso em cuidados de saúde ou medicina – conforme os recursos permitirem.
  • Introduzir auditorias pós-liberação obrigatórias e avaliações de impacto, inclusive para proteção de dados e direitos humanos, por terceiros independentes quando um LMM for implantado em grande escala. As auditorias e as avaliações de impacto devem ser publicadas e incluir resultados e impactos desagregados por tipo de utilizador, incluindo, por exemplo, por idade, raça ou deficiência.

A orientação também inclui as seguintes recomendações principais para desenvolvedores de LMMs, que devem garantir que:

  • Os LMMs não são projetados apenas por cientistas e engenheiros. Os potenciais utilizadores e todas as partes interessadas diretas e indiretas, incluindo prestadores de serviços médicos, investigadores científicos, profissionais de saúde e pacientes, devem ser envolvidos desde as fases iniciais do desenvolvimento da IA ​​numa conceção estruturada, inclusiva e transparente e ter oportunidades para levantar questões éticas, expressar preocupações e fornecer informações para a aplicação de IA em consideração.
  • Os LMMs são projetados para executar tarefas bem definidas com a precisão e confiabilidade necessárias para melhorar a capacidade dos sistemas de saúde e promover os interesses dos pacientes. Os desenvolvedores também devem ser capazes de prever e compreender possíveis resultados secundários.

Leia também:

Rolar para cima