Pourquoi vous ne devriez pas partager des informations sensibles avec l’IA
Le ChatGPT d’OpenAI a gagné en popularité, certains utilisateurs se tournant vers le chatbot comme s’il s’agissait d’un thérapeute ou d’un coach de vie pour partager des détails de leur vie personnelle et recevoir des conseils pertinents. Bien que ces conversations puissent sembler privées, le PDG de l’entreprise, Sam Altman, a fait remarquer dans une interview récente lors d’un podcast que vos conversations ne bénéficient pas de protections légales en matière de vie privée.
« Je pense que nous aurons certainement besoin d’un cadre juridique ou politique pour le domaine de l’IA », a répondu M. Altman à la question du présentateur Theo Von. Altman a ensuite ajouté : « Si vous parlez à ChatGPT de vos sujets les plus sensibles et qu’il y a ensuite un procès ou autre, nous pourrions nous retrouver forcés de produire ces informations, et je pense que c’est une très mauvaise chose ».
Le PDG a souligné que, contrairement aux conversations avec un thérapeute, un avocat ou un médecin de la vie réelle, qui sont protégées par le secret professionnel, les interactions avec ChatGPT ne bénéficient pas de la même protection juridique. Cela signifie qu’OpenAI peut être contrainte de divulguer vos journaux de discussion si la loi l’exige.
Les chatbots d’IA ne bénéficient toujours pas d’une protection juridique
M. Altman a déclaré : « Nous devrions avoir, pour vos conversations avec l’IA, le même concept de protection de la vie privée qu’avec un thérapeute ou autre ».
Il a ajouté que l’absence de protection spécifique de la vie privée pour l’IA n’a été mise en lumière que récemment et que ce problème doit être résolu immédiatement.
Les conversations avec ChatGPT ne sont généralement pas cryptées de bout en bout, et la politique d’OpenAI leur permet de lire vos conversations à des fins de surveillance de sécurité et d’entraînement du modèle d’IA.
Bien que les utilisateurs puissent supprimer leurs conversations et qu’OpenAI les supprime généralement de manière permanente après 30 jours, conformément à la politique de conservation des données de l’entreprise, un procès en cours intenté par le New York Times et d’autres entreprises de publication d’informations oblige actuellement l’entreprise à conserver toutes les données de discussion indéfiniment.
M. Altman suggère plutôt aux utilisateurs de bien lire la politique de confidentialité relative au « fair use » (usage raisonnable) et d’en comprendre les enjeux s’ils prévoient d’utiliser l’IA de manière intensive. Par ailleurs, il existe des solutions de contournement pour garantir une utilisation plus sûre et plus confidentielle de l’IA, comme l’utilisation de modèles similaires hors ligne comme GPT4All de Nomic AI et d’Ollama.
Utilisez-vous souvent ChatGPT ? Quelles mesures suggérez-vous pour rendre vos chats plus sûrs ? Donnez-nous votre opinion sur la question.
We mark partner links with this symbol. If you click on one of these links or buttons–or make a purchase through them–we may receive a small commission from the retailer. This doesn’t affect the price you pay, but it helps us keep nextpit free for everyone. Thanks for your support! Prices are based on the date of publication of this article and may be subject to change.