OpenAI change de politique et autorise l’utilisation de son IA à des fins « militaires et de guerre »
Crédits images : Curto News/Bing IA

OpenAI change de politique et autorise l’utilisation de son IA à des fins « militaires et de guerre »

A OpenAI a révisé sa politique d'utilisation, modifiant notamment sa position sur l'utilisation de sa technologie d'intelligence artificielle (IA) à des fins militaires et de guerre.

Changement de politique sur l'utilisation militaire

A l'origine, la politique de OpenAI interdit l’utilisation de sa technologie pour le « développement d’armes » et « l’armée et la guerre ». Cependant, la politique révisée autorise désormais certaines applications liées à la sécurité nationale tout en continuant d'interdire le développement d'armes.

PUBLICITÉ

Concentrez-vous sur les cas d’utilisation bénéfiques

A OpenAI a précisé que sa mise à jour vise à permettre des cas d'utilisation de sécurité nationale qui correspondent à sa mission. Cela inclut des collaborations avec des organisations comme la DARPA pour développer des outils de cybersécurité afin de protéger les infrastructures critiques.

Impact de l'IA sur la guerre et la sécurité

Alors que les inquiétudes grandissent quant au rôle de intelligence artificielle dans les contextes militaires, cela est comparé aux changements profonds provoqués par des inventions telles que les armes nucléaires dans le passé.

La mise à jour de la politique effectuée par OpenAI marque un moment important dans l'industrie de l'IA, soulignant le rôle avancé de la technologie dans des domaines tels que la sécurité nationale et la défense.

PUBLICITÉ

Si cette évolution ouvre la possibilité à l’IA de contribuer positivement, comme dans le domaine de la cybersécurité, elle met également en lumière des préoccupations éthiques et la nécessité d’un examen attentif de la manière dont l’IA est appliquée dans des secteurs sensibles.

Lire aussi:

Faire défiler vers le haut