Inteligência Artificial

OMS divulga orientações sobre ética e governança em IA para grandes modelos multimodais

A Organização Mundial da Saúde (OMS) lançou novas orientações sobre a ética e a governação de grandes modelos multimodais (LMMs) – um tipo de tecnologia de inteligência artificial (IA) generativa de rápido crescimento com aplicações nos cuidados de saúde.

Publicado por
Isabella Caminoto

A orientação da OMS descreve mais de 40 recomendações a serem consideradas por governos, empresas de tecnologia e prestadores de cuidados de saúde para garantir a utilização adequada de LMMs para promover e proteger a saúde das populações.

Os LMMs podem aceitar um ou mais tipos de entradas de dados, como texto, vídeos e imagens, e gerar diversos resultados não limitados ao tipo de dados inseridos. Os LMMs são únicos em sua imitação da comunicação humana e na capacidade de realizar tarefas para as quais não foram explicitamente programados. Os LMMs foram adotados mais rapidamente do que qualquer aplicação de consumo na história, com diversas plataformas – como ChatGPT e Bard.

“As tecnologias de IA generativa têm o potencial de melhorar os cuidados de saúde, mas apenas se aqueles que desenvolvem, regulam e utilizam estas tecnologias identificarem e considerarem plenamente os riscos associados”, afirmou o Dr. Jeremy Farrar, cientista-chefe da OMS. “Precisamos de informações e políticas transparentes para gerir a concepção, o desenvolvimento e a utilização de LMMs para alcançar melhores resultados de saúde e superar as persistentes desigualdades na saúde.”

Potenciais benefícios e riscos

A nova orientação da OMS descreve cinco aplicações amplas dos LMMs para a saúde:

  • Diagnóstico e atendimento clínico, como responder às dúvidas por escrito dos pacientes;
  • Uso orientado pelo paciente, como para investigação de sintomas e tratamento;
  • Tarefas administrativas e de escritório, como documentar e resumir visitas de pacientes em registros eletrônicos de saúde;
  • Educação médica e de enfermagem, incluindo proporcionar aos estagiários encontros simulados com pacientes, e;
  • Pesquisa científica e desenvolvimento de medicamentos, inclusive para identificação de novos compostos.

Embora os LMM estejam começando a ser utilizados para fins específicos relacionados com a saúde, também existem riscos documentados de produção de declarações falsas, imprecisas, tendenciosas ou incompletas, o que poderia prejudicar as pessoas que utilizam essas informações na tomada de decisões sobre saúde. Além disso, os LMMs podem ser treinados com base em dados de má qualidade ou tendenciosos, seja por raça, etnia, ascendência, sexo, identidade de gênero ou idade.

A orientação também detalha riscos mais amplos para os sistemas de saúde, tais como a acessibilidade e o custo dos LMMs com melhor desempenho. O LMMS também pode encorajar o “viés de automação” por parte dos profissionais de saúde e dos pacientes, através do qual são ignorados erros que de outra forma teriam sido identificados ou escolhas difíceis são delegadas indevidamente a um LMM. Os LMM, tal como outras formas de inteligência artificial, também são vulneráveis ​​a riscos de cibersegurança que podem pôr em perigo as informações dos pacientes ou a fiabilidade destes algoritmos e a prestação de cuidados de saúde de forma mais ampla.

Para criar LMM seguros e eficazes, a OMS sublinha a necessidade de envolvimento de várias partes interessadas: governos, empresas tecnológicas, prestadores de cuidados de saúde, pacientes e sociedade civil, em todas as fases de desenvolvimento e implantação de tais tecnologias, incluindo a sua supervisão e regulamentação.

Principais recomendações

As novas orientações da OMS incluem recomendações para os governos, que têm a responsabilidade primária de estabelecer padrões para o desenvolvimento e implantação de LMMs, e a sua integração e utilização para fins médicos e de saúde pública. Por exemplo, os governos deveriam:

  • Investir ou fornecer infraestrutura pública ou sem fins lucrativos, incluindo poder computacional e conjuntos de dados públicos, acessíveis a desenvolvedores nos setores público, privado e sem fins lucrativos, que exijam que os usuários adiram a princípios e valores éticos em troca de acesso.
  • Utilizar leis, políticas e regulamentos para garantir que os LMMs e as aplicações utilizadas nos cuidados de saúde e na medicina, independentemente do risco ou benefício associado à tecnologia de IA, cumpram as obrigações éticas e os padrões de direitos humanos que afetam, por exemplo, a dignidade, a autonomia ou a privacidade de uma pessoa.
  • Designar uma agência reguladora existente ou nova para avaliar e aprovar LMMs e aplicações destinadas ao uso em cuidados de saúde ou medicina – conforme os recursos permitirem.
  • Introduzir auditorias pós-liberação obrigatórias e avaliações de impacto, inclusive para proteção de dados e direitos humanos, por terceiros independentes quando um LMM for implantado em grande escala. As auditorias e as avaliações de impacto devem ser publicadas e incluir resultados e impactos desagregados por tipo de utilizador, incluindo, por exemplo, por idade, raça ou deficiência.

A orientação também inclui as seguintes recomendações principais para desenvolvedores de LMMs, que devem garantir que:

  • Os LMMs não são projetados apenas por cientistas e engenheiros. Os potenciais utilizadores e todas as partes interessadas diretas e indiretas, incluindo prestadores de serviços médicos, investigadores científicos, profissionais de saúde e pacientes, devem ser envolvidos desde as fases iniciais do desenvolvimento da IA ​​numa conceção estruturada, inclusiva e transparente e ter oportunidades para levantar questões éticas, expressar preocupações e fornecer informações para a aplicação de IA em consideração.
  • Os LMMs são projetados para executar tarefas bem definidas com a precisão e confiabilidade necessárias para melhorar a capacidade dos sistemas de saúde e promover os interesses dos pacientes. Os desenvolvedores também devem ser capazes de prever e compreender possíveis resultados secundários.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 11:06

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024