Les grandes entreprises continuent de repousser les limites l’intelligence artificielle, qui améliore nos vies à bien des égards. Cependant, avec l’expansion rapide de l’IA, des acteurs malveillants utilisent également la technologie pour leurs propres intérêts. Certains tentent de construire leurs propres systèmes d’IA en copiant des modèles existants. Ces systèmes peuvent ensuite servir dans le cadre d’attaques, et un cas similaire affecte actuellement Google.

Les pirates inondent Gemini de milliers de commandes textuelles (prompts) pour IA

Le dernier rapport sur les menaces du Google Threat Intelligence Group (GTIG) révèle que le modèle Gemini de l’entreprise a été la cible d’attaques par distillation. Dans ces attaques, les auteurs tentent de cloner le chatbot ou d’en extraire des informations technologiques sensibles.

Google a signalé que Gemini avait reçu plus de 100 000 prompts dans le cadre d’un campagne. Il s’agit là d’une quantité dépassant de loin les limites d’utilisation normales et surchargeant le système. L’entreprise a indiqué que de telles attaques avaient été répétées. Chacune d’entre elles suivait les mêmes schémas de distillation et provenait de différents groupes.

Selon Google, il se peut que des mercenaires russes, chinois, iraniens et d’autres pays soient à l’origine de ces attaques. Et c’est sans compter les chercheurs d’entreprises d’IA concurrentes.

Dans une déclaration faite à NBC, l’analyste en chef du GTIG, John Hultquist, a décrit cela comme du vol intellectuel. Des entreprises comme Google et OpenAI investissent des milliards dans des infrastructures pour développer leurs modèles d’IA. En revanche, ces campagnes de distillation réussies permettent aux attaquants d’en profiter sans faire les mêmes investissements.

Un incident similaire s’est produit lorsque OpenAI a accusé son rival chinois, DeepSeek, d’utiliser cette même méthode en entraînant ses modèles à l’aide des résultats de ChatGPT.

Qu’est-ce qu’une attaque par distillation d’IA ?

Les attaques par distillation exploitent la disponibilité publique des systèmes d’IA en ligne. Les personnes qui effectuent ces attaques interrogent le modèle à plusieurs reprises dans le cadre d’un processus connu sous le nom d' »extraction de modèle ». Le but d’une telle attaque est d’apprendre son fonctionnement interne et de recueillir des données à caractère critique.

Les informations volées peuvent ensuite servir à construire des modèles d’IA concurrents ou des chatbots dans d’autres langues. Plus dangereux encore, elles peuvent être réutilisées pour développer des outils avancés tels que des logiciels malveillants et des logiciels espions qui s’infiltrent dans les appareils.

Cela n’est pas sans rappeler le cas de l’année dernière où des applications malveillantes sur l’App Store d’Apple se sont fait passer pour des alternatives légitimes à ChatGPT. Il s’est avéré par la suite que ces applications contenaient du code malveillant et étaient hébergées sur des serveurs contrôlés par des acteurs aux intentions mauvaises. Ce n’est que plusieurs semaines après qu’elles aient contourné le contrôle de sécurité qu’Apple a retiré de sa boutique lesdites applications dangereuses, et celles-ci avaient déjà été téléchargées des milliers de fois.

Comment utilisez-vous l’IA ou les chatbots dans votre vie quotidienne ? Pensez-vous qu’ils améliorent vos expériences, ou les risques l’emportent-ils sur les avantages ? Nous aimerions connaître votre point de vue.

Nous affichons ce symbole sur les liens vers des sites partenaires. Si vous cliquez sur l’un de ces liens ou boutons, ou si vous effectuez un achat par le biais de ceux-ci, nous avons la possibilité d’obtenir une commission en retour de la part du détaillant. Ceci n’affecte pas le prix que vous payez mais permet de faire en sorte que nextpit reste gratuit pour tout le monde. Merci pour votre soutien !