Nous l’avons déjà dit, et nous le répéterons: n’entrez rien dans ChatGPT que vous ne voulez pas que des parties non autorisées lisent.
Depuis que OpenAI a publié ChatGPT l’année dernière, il y a eu de nombreuses occasions où des défauts dans le chatbot ia auraient pu être armés ou manipulés par de mauvais acteurs pour accéder à des données sensibles ou privées. Et ce dernier exemple montre que même après la sortie d’un correctif de sécurité, des problèmes peuvent encore persister.
Selon un rapport de Bleeping Computer, OpenAI a récemment déployé un correctif pour un problème où ChatGPT pourrait fuir les données des utilisateurs à des tiers non autorisés. Ces données peuvent inclure les conversations des utilisateurs avec ChatGPT et les métadonnées correspondantes comme l’id de l’utilisateur et les informations de session.
Cependant, selon le chercheur en sécurité Johann Rehberger, qui a découvert la vulnérabilité et décrit comment elle a fonctionné, il ya encore des failles de sécurité dans le correctif d’openai. En substance, la faille de sécurité existe toujours.
La fuite de données de ChatGPT
Rehberger a pu profiter de la fonction GPTs personnalisée d’openai récemment publiée et très louée pour créer son propre GPT, qui exfiltrait les données de ChatGPT. Cette découverte est significative car les GPT personnalisés sont commercialisés en tant qu’applications d’ia, comme l’iphone a révolutionné les applications mobiles avec l’app Store. Si Rehberger pouvait créer ce GPT personnalisé, il semble que les mauvais acteurs pourraient bientôt découvrir la faille et créer des GPT personnalisés pour voler les données de leurs cibles.
Rehberger dit avoir contacté OpenAI pour la première fois au sujet de la “technique d’exfiltration de données” en avril. Il a contacté OpenAI une nouvelle fois en novembre pour signaler exactement comment il a pu créer un GPT personnalisé et effectuer le processus.
Mercredi, Rehberger a publié une mise à jour de son site web. OpenAI avait corrigé la vulnérabilité de fuite.
«La solution n’est pas parfaite, mais un pas dans la bonne direction», explique M. Rehberger.
La raison pour laquelle le correctif n’est pas parfait est que ChatGPT fuit toujours des données à travers la vulnérabilité découverte par Rehberger. ChatGPT peut toujours être trompé dans l’envoi de données.
“Certains tests rapides montrent que des morceaux d’informations peuvent voler [sic] fuite,” Rehberger a écrit, expliquant en outre que” il ne fuit que de petites quantités de cette façon, est lent et plus visible pour un utilisateur.” Malgré les problèmes restants, M. Rehberger estime que c’est un «pas dans la bonne direction, c’est sûr».
Mais, la faille de sécurité reste encore entièrement dans les applications ChatGPT pour iOS et Android, qui n’ont pas encore été mis à jour avec un correctif.
Les utilisateurs de ChatGPT doivent rester vigilants lorsqu’ils utilisent des GPTs personnalisés et devraient probablement transmettre ces applications ia de tiers inconnus.