7 février 2025

L’interdiction de ChatGPT en Italie soulève des inquiétudes sur la confidentialité des données

Les régulateurs européens ont commencé à enquêter sur ChatGPT après l’interdiction temporaire en Italie, obligeant OpenAI à trouver des solutions pour se conformer aux règles strictes de confidentialité de l’Union Européenne tout en garantissant le développement de l’IA.

OpenAI, la société à l’origine de ChatGPT a annoncé qu’elle proposerait des solutions pour résoudre les problèmes de confidentialité des données qui ont conduit à l’interdiction temporaire du chatbot d’Intelligence Artificielle en Italie, selon les régulateurs qui ont communiqué cette information jeudi.
L’Autorité italienne de protection des données, Garante, a récemment bloqué le populaire chatbot d’OpenAI, basé à San Francisco, et a ordonné à celui-ci de cesser temporairement de traiter les informations personnelles des utilisateurs italiens, en raison d’une possible violation des règles de confidentialité des données de l’Union Européenne.
Des experts ont qualifié cette décision d’historique, car c’est la première fois qu’un pays impose une interdiction nationale d’une plateforme d’IA grand public. Lors d’une vidéoconférence mercredi soir entre les commissaires de Garante et les dirigeants d’OpenAI, dont le PDG Sam Altman, la société a promis de définir des solutions pour répondre aux préoccupations. Les remèdes n’ont pas encore été précisés.

L’organisme de surveillance italien a souligné l’importance pour OpenAI de se conformer aux règles strictes de confidentialité de chacun des 27 pays de l’UE tout en n’entravant pas le développement de l’IA.
La raison de l’interdiction est la découverte que certains messages et informations de paiement d’utilisateurs ont été exposés à d’autres. Les régulateurs se sont également interrogés sur la légalité de la collecte de grandes quantités de données par OpenAI pour former les algorithmes de ChatGPT, en s’inquiétant de la possible diffusion de fausses informations sur des individus.
Les technologies d’IA générative, telles que ChatGPT, sont « formées » sur de vastes ensembles de données, notamment des livres numériques et des écrits en ligne, et peuvent générer du texte qui imite les styles d’écriture humains.
Ces systèmes ont créé un buzz dans le monde de la technologie et au-delà, mais ont également suscité des craintes chez les responsables, les régulateurs et même les informaticiens et les leaders de l’industrie technologique quant aux risques éthiques et sociétaux potentiels.

D’autres régulateurs en Europe et ailleurs ont commencé à accorder une plus grande attention à la question, après l’action de l’Italie. La Commission irlandaise de protection des données a déclaré qu’elle « suivait avec le régulateur italien pour comprendre la base de son action et nous nous coordonnerons avec toutes les autorités de protection des données de l’UE à ce sujet ». Le régulateur français de la confidentialité des données, la CNIL, enquête également sur ChatGPT après avoir reçu deux plaintes. Le commissaire canadien à la protection de la vie privée a également ouvert une enquête sur OpenAI suite à une plainte concernant la « collecte, l’utilisation et la divulgation présumées de renseignements personnels sans consentement ».
Le Bureau du Commissaire à l’information du Royaume-Uni a publié un article mettant en garde les organisations qui développent ou utilisent l’IA générative sur leurs obligations en matière de protection des données dès le début de la conception. Il est essentiel que ces systèmes soient conçus en accord avec la protection des données par défaut. Le bureau a souligné que la protection des données n’était pas facultative, mais plutôt une obligation légale pour toute organisation traitant des données personnelles.

En réponse à ces préoccupations, OpenAI a publié un article de blog mercredi dernier, expliquant sa politique de sécurité en matière d’IA. La société a indiqué qu’elle s’efforce de retirer les données personnelles des données chaque fois que cela est possible, d’améliorer ses modèles pour refuser les demandes d’informations personnelles des particuliers et de répondre aux demandes de suppression des données personnelles de ses systèmes.

(Source: AP)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *