Pourquoi vous ne devriez pas partager des informations sensibles avec l’IA
Le ChatGPT d’OpenAI a gagné en popularité, certains utilisateurs se tournant vers le chatbot comme s’il s’agissait d’un thérapeute ou d’un coach de vie pour partager des détails de leur vie personnelle et recevoir des conseils pertinents. Bien que ces conversations puissent sembler privées, le PDG de l’entreprise, Sam Altman, a fait remarquer dans une interview récente lors d’un podcast que vos conversations ne bénéficient pas de protections légales en matière de vie privée.
« Je pense que nous aurons certainement besoin d’un cadre juridique ou politique pour le domaine de l’IA », a répondu M. Altman à la question du présentateur Theo Von. Altman a ensuite ajouté : « Si vous parlez à ChatGPT de vos sujets les plus sensibles et qu’il y a ensuite un procès ou autre, nous pourrions nous retrouver forcés de produire ces informations, et je pense que c’est une très mauvaise chose ».
Le PDG a souligné que, contrairement aux conversations avec un thérapeute, un avocat ou un médecin de la vie réelle, qui sont protégées par le secret professionnel, les interactions avec ChatGPT ne bénéficient pas de la même protection juridique. Cela signifie qu’OpenAI peut être contrainte de divulguer vos journaux de discussion si la loi l’exige.
Les chatbots d’IA ne bénéficient toujours pas d’une protection juridique
M. Altman a déclaré : « Nous devrions avoir, pour vos conversations avec l’IA, le même concept de protection de la vie privée qu’avec un thérapeute ou autre ».
Il a ajouté que l’absence de protection spécifique de la vie privée pour l’IA n’a été mise en lumière que récemment et que ce problème doit être résolu immédiatement.
Les conversations avec ChatGPT ne sont généralement pas cryptées de bout en bout, et la politique d’OpenAI leur permet de lire vos conversations à des fins de surveillance de sécurité et d’entraînement du modèle d’IA.
Bien que les utilisateurs puissent supprimer leurs conversations et qu’OpenAI les supprime généralement de manière permanente après 30 jours, conformément à la politique de conservation des données de l’entreprise, un procès en cours intenté par le New York Times et d’autres entreprises de publication d’informations oblige actuellement l’entreprise à conserver toutes les données de discussion indéfiniment.
M. Altman suggère plutôt aux utilisateurs de bien lire la politique de confidentialité relative au « fair use » (usage raisonnable) et d’en comprendre les enjeux s’ils prévoient d’utiliser l’IA de manière intensive. Par ailleurs, il existe des solutions de contournement pour garantir une utilisation plus sûre et plus confidentielle de l’IA, comme l’utilisation de modèles similaires hors ligne comme GPT4All de Nomic AI et d’Ollama.
Utilisez-vous souvent ChatGPT ? Quelles mesures suggérez-vous pour rendre vos chats plus sûrs ? Donnez-nous votre opinion sur la question.
Nous affichons ce symbole sur les liens vers des sites partenaires. Si vous cliquez sur l’un de ces liens ou boutons, ou si vous effectuez un achat par le biais de ceux-ci, nous avons la possibilité d’obtenir une commission en retour de la part du détaillant. Ceci n’affecte pas le prix que vous payez mais permet de faire en sorte que nextpit reste gratuit pour tout le monde. Merci pour votre soutien !
0commentaire