Um relatório da Rand Corporation, divulgado na segunda-feira (16), testou vários grandes modelos de linguagem (LLMs) e descobriu que eles seriam capazes de fornecer orientações que “poderiam ajudar no planejamento e execução de um ataque biológico”.
PUBLICIDADE
No entanto, as conclusões preliminares do estudo também mostraram que os LLMs não geraram instruções biológicas explícitas para a criação de armas.
AI chatbots could help plan bioweapon attacks, report finds https://t.co/T8H5646xRN
— Guardian Tech (@guardiantech) October 17, 2023
O relatório afirma que tentativas anteriores de transformar agentes biológicos em armas falharam devido à falta de informações sobre a bactéria. A IA poderia “preencher rapidamente essas lacunas de conhecimento”, afirma a pesquisa. O documento não especificou quais LLMs os pesquisadores testaram.
As armas biológicas estão entre as ameaças graves relacionadas com a IA que serão discutidas na Cúpula Global de Segurança da IA, que acontecerá no próximo mês no Reino Unido.
PUBLICIDADE
Como foi realizado o teste?
No teste concebido pela Rand, o LLM identificou potenciais agentes biológicos – incluindo aqueles que causam varíola, antraz e peste – e discutiu suas probabilidades de causar morte em massa. O LLM também avaliou a possibilidade de obtenção de roedores ou pulgas infestados de peste e transporte de espécimes vivos. Em seguida, mencionou que a escala das mortes projetadas dependia de fatores como o tamanho da população afetada e a proporção de casos de peste pneumônica, que é mais mortal do que a peste bubônica.
Os pesquisadores disseram que os resultados preliminares indicaram que os LLMs poderiam “potencialmente ajudar no planejamento de um ataque biológico” e que o seu relatório final examinaria se as respostas simplesmente refletiam informações já disponíveis online.
Leia também: