L'Agence espagnole de protection des données (AEPD) demande à l'organisme de surveillance de la vie privée de l'Union européenne d'évaluer les problèmes de confidentialité liés aux ChatGPT. Cette action fait suite à une surveillance mondiale croissante des systèmes d’IA. Le CEPD reconnaît la nécessité de décisions coordonnées au niveau européen pour les traitements susceptibles d'affecter les droits individuels.
L'agence demandé que la question de ChatGPT être inclus dans la prochaine plénière du Comité européen de la protection des données pour permettre des actions harmonisées pour réfléchir à la vie privée dans le cadre du règlement général sur la protection des données.
Mardi, le régulateur français de la vie privée a également annoncé une enquête sur des plaintes liées à ChatGPT. Pendant ce temps, le régulateur italien des données examine les mesures proposées par le OpenAI en réponse aux préoccupations qui ont conduit à l'interdiction temporaire du chatbot le 31 mars. Le conseil d'administration du régulateur italien s'est réuni mardi (11) pour discuter de la question.
Parallèlement, le gouvernement américain s’implique également dans les discussions sur l’IA. Le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la Federal Trade Commission (FTC) des États-Unis, alléguant que le dernier produit de l'entreprise OpenAI, GPT-4, viole la loi fédérale sur la protection des consommateurs et présente des dangers importants pour le public. En outre, l’administration Biden a demandé l’avis du public sur les mesures de responsabilisation concernant les systèmes d’IA, au milieu d’inquiétudes quant à leurs effets sur la sécurité nationale et l’éducation.
De l’autre côté du monde, la Chine a élaboré un ensemble de règles pour réglementer les services d’IA générative. Les régulateurs chinois ont déclaré que ces services doivent s'aligner sur les valeurs socialistes chinoises et éviter de produire du contenu qui promeut la subversion du régime, la violence, la pornographie ou perturbe l'ordre social et économique. Les fournisseurs doivent garantir la légitimité des données et éviter toute discrimination lors de la conception et de la formation des algorithmes. De plus, les fournisseurs de services d’IA générative doivent se soumettre à des évaluations de sécurité avant de lancer leurs produits.
Comprenez également :
Ce message a été modifié pour la dernière fois le 14 avril 2023 à 13h27
SynthID, annoncé en août 2023 comme filigrane pour identifier les images générées…
Alphabet, contrôleur de Google, a révélé mardi (14) Trillium, un nouveau membre de la famille…
Le contrôleur de Google, Alphabet, a montré mardi (14) comment il investit dans l'intelligence artificielle…
Meta, la société mère de Facebook, a annoncé mardi (14) qu'elle fermerait l'application Workplace, destinée…
A Tesla a été poursuivi par une organisation environnementale à but non lucratif qui accusait l'entreprise…
Lundi dernier (13), le OpenAI a annoncé le lancement de GPT-4o, un nouveau…