A Organização Mundial da Saúde (OMS) lançou novas orientações sobre a ética e a governação de grandes modelos multimodais (LMMs) – um tipo de tecnologia de inteligência artificial (IA) generativa de rápido crescimento com aplicações nos cuidados de saúde.
A orientação da OMS descreve mais de 40 recomendações a serem consideradas por governos, empresas de tecnologia e prestadores de cuidados de saúde para garantir a utilização adequada de LMMs para promover e proteger a saúde das populações.
Os LMMs podem aceitar um ou mais tipos de entradas de dados, como texto, vídeos e imagens, e gerar diversos resultados não limitados ao tipo de dados inseridos. Os LMMs são únicos em sua imitação da comunicação humana e na capacidade de realizar tarefas para as quais não foram explicitamente programados. Os LMMs foram adotados mais rapidamente do que qualquer aplicação de consumo na história, com diversas plataformas – como ChatGPT e Bard.
“As tecnologias de IA generativa têm o potencial de melhorar os cuidados de saúde, mas apenas se aqueles que desenvolvem, regulam e utilizam estas tecnologias identificarem e considerarem plenamente os riscos associados”, afirmou o Dr. Jeremy Farrar, cientista-chefe da OMS. “Precisamos de informações e políticas transparentes para gerir a concepção, o desenvolvimento e a utilização de LMMs para alcançar melhores resultados de saúde e superar as persistentes desigualdades na saúde.”
A nova orientação da OMS descreve cinco aplicações amplas dos LMMs para a saúde:
Embora os LMM estejam começando a ser utilizados para fins específicos relacionados com a saúde, também existem riscos documentados de produção de declarações falsas, imprecisas, tendenciosas ou incompletas, o que poderia prejudicar as pessoas que utilizam essas informações na tomada de decisões sobre saúde. Além disso, os LMMs podem ser treinados com base em dados de má qualidade ou tendenciosos, seja por raça, etnia, ascendência, sexo, identidade de gênero ou idade.
A orientação também detalha riscos mais amplos para os sistemas de saúde, tais como a acessibilidade e o custo dos LMMs com melhor desempenho. O LMMS também pode encorajar o “viés de automação” por parte dos profissionais de saúde e dos pacientes, através do qual são ignorados erros que de outra forma teriam sido identificados ou escolhas difíceis são delegadas indevidamente a um LMM. Os LMM, tal como outras formas de inteligência artificial, também são vulneráveis a riscos de cibersegurança que podem pôr em perigo as informações dos pacientes ou a fiabilidade destes algoritmos e a prestação de cuidados de saúde de forma mais ampla.
Para criar LMM seguros e eficazes, a OMS sublinha a necessidade de envolvimento de várias partes interessadas: governos, empresas tecnológicas, prestadores de cuidados de saúde, pacientes e sociedade civil, em todas as fases de desenvolvimento e implantação de tais tecnologias, incluindo a sua supervisão e regulamentação.
As novas orientações da OMS incluem recomendações para os governos, que têm a responsabilidade primária de estabelecer padrões para o desenvolvimento e implantação de LMMs, e a sua integração e utilização para fins médicos e de saúde pública. Por exemplo, os governos deveriam:
A orientação também inclui as seguintes recomendações principais para desenvolvedores de LMMs, que devem garantir que:
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:06
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…