L’IA peut être utilisée pour pirater votre maison

Une équipe de recherche en cybersécurité a démontré comment l’assistant numérique de Google peut être facilement berné à l’aide de simples prompts ou d’une attaque par injection indirecte de prompts. Ce type d’attaque est également appelé « promptware », comme le rapporte Wired. Les attaquants peuvent utiliser cette méthode pour injecter du code et des commandes malveillants dans le chatbot, puis manipuler les appareils domestiques intelligents même sans avoir d’accès direct ou de privilège d’administrateur.

L’équipe a réussi à tromper Gemini en utilisant des attaques de type promptware par le biais d’invitations sur Google Calendar. Plus précisément, ils ont expliqué qu’il suffisait à un utilisateur d’ouvrir Gemini, de demander un résumé de son calendrier et de répondre simplement « merci » pour exécuter des actions que le propriétaire n’a jamais explicitement autorisées.

Contenu éditorial recommandé
Ce contenu externe provenant de YouTube a été sélectionné par l’équipe éditoriale de nextpit et complète l’article. Vous pouvez choisir de charger ou non ce contenu.
Autoriser le contenu externe
J’accepte le chargement de contenu externe. Les données personnelles peuvent être transférées vers des plateformes tierces. Vous trouverez plus d’informations dans le Déclaration de protection de données.

Dans l’exemple, une fois les ordres énoncés, Gemini a démontré sa capacité à éteindre les lumières, à fermer les rideaux des fenêtres et même à activer une chaudière intelligente. Bien que ces actions puissent sembler sans gravité, elles représentent un risque sérieux pour les utilisateurs, surtout si elles sont déclenchées de manière involontaire ou malveillante.

Google a corrigé la vulnérabilité

La bonne nouvelle, c’est que cette faille n’a apparemment pas encore été exploitée par des personnes malveillantes. Avant que l’attaque ne soit présentée lors de la conférence Black Hat, l’équipe avait déjà signalé cette possibilité à Google en février. L’entreprise a déclaré qu’elle avait corrigé le problème depuis lors.

Elle a ajouté que bien que les attaques de ce type soient très rares et nécessitent une préparation minutieuse, il est très difficile de se prémunir contre ce type de vulnérabilités

Ce n’est pas la première fois qu’un cas similaire de manipulation d’un modèle d’IA par des personnes malveillantes est signalé. En juin dernier, il a été rapporté que des hackers russes, chinois et iraniens avaient utilisé le ChatGPT d’OpenAI pour développer des logiciels malveillants destinés à l’escroquerie et à la désinformation sur les réseaux sociaux. OpenAI aurait supprimé les comptes liés à ces activités.

Ces cas présentés démontrent des lacunes flagrantes dans l’utilisation de l’intelligence artificielle, et ce malgré les investissements considérables dans le développement des technologies derrière ces chatbots. Aussi, nous vous posons la question : pensez-vous qu’il est sûr de confier à ces chatbots vos données personnelles et vos appareils ? Nous aimerions connaître votre opinion dans les commentaires.

Nous affichons ce symbole sur les liens vers des sites partenaires. Si vous cliquez sur l’un de ces liens ou boutons, ou si vous effectuez un achat par le biais de ceux-ci, nous avons la possibilité d’obtenir une commission en retour de la part du détaillant. Ceci n’affecte pas le prix que vous payez mais permet de faire en sorte que nextpit reste gratuit pour tout le monde. Merci pour votre soutien !