Lundi, OpenAI a été contraint de fermer temporairement son service ChatGPT suite à un problème de confidentialité majeur.

Un incident majeur de confidentialité aurait été signalé sur ChatGPT, le populaire service d’IA d’OpenAI. Selon des sources, une faille de sécurité dans le système aurait permis à certains utilisateurs de voir les titres des historiques de discussions d’autres utilisateurs, soulevant des inquiétudes quant à la confidentialité des données des utilisateurs sur la plateforme.
En réponse à cet incident, OpenAI a temporairement fermé ChatGPT et a désactivé la fonction d’historique des discussions pour les utilisateurs. Selon notre confrère Bloomberg, un porte-parole de la société a confirmé que le bogue était lié à un logiciel open source anonyme utilisé par ChatGPT, mais la cause exacte de l’incident est encore en cours d’enquête.
Les captures d’écran du bogue ont été partagées sur Reddit et Twitter, suscitant des interrogations quant à la sécurité de la plateforme et à la protection de la vie privée des utilisateurs. Bien que le service ait été rétabli lundi après-midi, la fonction d’historique des discussions est restée désactivée mardi matin.
Cet incident souligne les risques potentiels liés à l’utilisation d’outils d’IA pour enregistrer les interactions entre les utilisateurs afin d’améliorer les modèles. Les experts ont averti que les grandes IA telles que ChatGPT pourraient exposer les données des utilisateurs à d’autres utilisateurs, ce qui remet en question la sécurité et la confidentialité des informations partagées sur la plateforme.
Dans sa FAQ, OpenAI conseille aux utilisateurs de ne pas partager d’informations sensibles avec ChatGPT et indique que le service peut utiliser les conversations avec les utilisateurs à des fins de formation.
Cet incident devrait inciter les utilisateurs à être plus vigilants quant à l’utilisation des technologies d’IA et souligne l’importance de la sécurité et de la confidentialité pour garantir la protection de leur vie privée.