Crédits images : Curto Actualités/BingAI

OpenAI lance une étude qui révèle le rôle de l’IA dans la création de menaces biologiques

A OpenAI, l'organisme de recherche à l'origine du puissant modèle linguistique GPT-4, a publié une nouvelle étude qui examine la possibilité d'utiliser l'intelligence artificielle (IA) pour aider à la création de menaces biologiques.

O étudier, qui a impliqué des experts en biologie et des étudiants, a constaté que GPT-4 fournit « tout au plus une légère augmentation » de la précision de la création de menaces biologiques, par rapport aux ressources de base existantes sur Internet.

PUBLICITÉ

L’analyse fait partie du cadre de préparation pour OpenAI, qui vise à évaluer et atténuer les risques potentiels liés aux capacités de sécurité avancées intelligence artificielle, en particulier ceux qui peuvent représenter des « risques frontières » – des menaces non conventionnelles qui ne sont pas bien comprises ou anticipées par la société d’aujourd’hui. 

L’un de ces risques frontières est la capacité des systèmes d’IA, tels que les grands modèles linguistiques (LLM), à aider les acteurs malveillants à développer et à exécuter des attaques biologiques, telles que la synthèse d’agents pathogènes ou de toxines.

Méthodologie et résultats de l'étude

Pour évaluer ce risque, les chercheurs ont mené une évaluation humaine auprès de 100 participants, dont 50 experts en biologie titulaires d'un doctorat et d'une expérience professionnelle en laboratoire et 50 participants de niveau étudiant ayant au moins un cours universitaire de biologie. 

PUBLICITÉ

Chaque groupe de participants a été assigné au hasard soit à un groupe témoin, qui avait uniquement accès à Internet, soit à un groupe de traitement, qui avait accès à GPT-4 en plus d'Internet. Chaque participant a ensuite été invité à accomplir un ensemble de tâches couvrant les aspects du processus de bout en bout de création de menaces biologiques, tels que l'idéation, l'acquisition, la mise à l'échelle, la formulation et la libération.

Les chercheurs ont mesuré les performances des participants sur cinq paramètres : précision, exhaustivité, innovation, temps passé et difficulté auto-évaluée. Ils ont constaté que GPT-4 n’améliorait pas de manière significative les performances des participants sur aucun des paramètres, à l’exception d’une légère augmentation de la précision pour le groupe au niveau des étudiants. Les chercheurs ont également noté que GPT-4 produisait souvent des réponses erronées ou trompeuses, ce qui pourrait entraver le processus de création de menaces biologiques.

Les chercheurs ont conclu que la génération actuelle de LLM, tels que GPT-4, ne présente pas de risque substantiel de permettre la création de menaces biologiques par rapport aux capacités Internet existantes.

PUBLICITÉ

Cependant, ils ont averti que cette conclusion n’est pas concluante et que les futurs LLM pourraient devenir plus performants et plus dangereux. Ils ont également souligné la nécessité de poursuivre les recherches et les délibérations communautaires sur ce sujet, ainsi que de développer des méthodes d’évaluation améliorées et des lignes directrices éthiques pour les risques de sécurité posés par l’IA.

Lire aussi:

Faire défiler vers le haut