Selon une nouvelle étude de Bitkom, 42 % des personnes interrogées ont déjà reçu des réponses fausses ou inventées de toutes pièces de la part d’une IA. Laissons ce chiffre se tasser ! Malgré cela, seuls 57 % vérifient encore une fois les informations générées avant de les réutiliser. 64 pour cent jugent les réponses « insatisfaisantes » et même 73 pour cent les classent comme « utiles ». Dans la pratique, cela signifie que les outils d’IA sont pour beaucoup un raccourci pratique. Mais ce raccourci est souvent utilisé sans garde-fous.

Nous assistons à un changement important de notre comportement vis-à-vis de l’information. De nos jours, la commodité menace la notion d’examen critique. Au lieu de se frayer un chemin à travers des listes de liens web, de plus en plus de personnes préfèrent se fier directement à la réponse directe formulée par une IA. Cette évolution est en grande partie motivée par le désir d’efficacité et de simplicité. Mais un tel comportement modifie fondamentalement la manière dont nous accédons à l’information et évaluons sa crédibilité.

Les statistiques d’utilisation centrales de l’étude Bitkom confirment cette tendance de manière impressionnante. Déjà 50 % de tous les utilisateurs d’Internet en Allemagne ont recours, au moins occasionnellement, à des bots de discussion par IA comme ChatGPT au lieu d’utiliser un moteur de recherche classique. Ce comportement est particulièrement marqué chez la jeune génération. En effet, chez les 16-29 ans, ce sont même deux tiers qui empruntent cette nouvelle voie pour rechercher des informations. Le Dr Bernhard Rohleder, directeur général de Bitkom, explique la motivation qui se cache derrière ce phénomène :

« Beaucoup de gens préfèrent utiliser la réponse compacte du chat de l’IA plutôt que de cliquer eux-mêmes sur les résultats de recherche et de chercher des indices sur les sites web pour répondre à leur question ».

La moitié des résultats sont de qualité douteuse

L’examen des groupes d’âge est particulièrement passionnant. Les plus jeunes misent nettement plus souvent sur les intelligentes artificielles comme terminal d’interaction avec internet. Pour eux, la saisie sur les fenêtres de discussion avec des bots de discussion remplace de plus en plus le champ de recherche classique, qui semble soudain inutilement compliqué. Là où les moteurs de recherche fournissent des liens, l’IA déballe directement des phrases toutes prêtes à être consommées. C’est précisément ce qui semble faire pencher la balance.

Le problème : les grands modèles de langage semblent en général sûrs d’eux-mêmes. Et ce même lorsqu’ils sont complètement à côté de la plaque. Les faits erronés, les sources peu claires, les informations obsolètes ou les détails complètement inventés continuent d’être monnaie courante. Même les modèles les plus récents, d’une plus grande précision, produisent des erreurs qui auraient été immédiatement remarquées dans une recherche classique.

Une enquête de l’Union européenne de radio-télévision (UER) étaye ce danger avec une précision effrayante. Lors d’un test des versions gratuites des « quatre grands » « chatbots », près de la moitié des réponses se sont avérées erronées. L’analyse a révélé que plus de 17 pour cent des réponses de l’IA étaient erronées sur des points essentiels. Et 31 pour cent supplémentaires présentaient des inexactitudes significatives, par exemple au niveau du contexte ou de l’indication de la source.

Le cercle vicieux de la désinformation

L’étude de Bitkom montre donc moins une tendance à la recherche par IA en tant que substitut, mais plutôt un rejet de la responsabilité. De nombreux utilisateurs comptent sur l’exactitude de la machine, même s’ils devraient savoir que ce n’est pas toujours le cas. La commodité l’emporte sur l’attention.

Les experts mettent en garde contre l’assimilation de ces outils à des moteurs de recherche traditionnels. En effet, l’objectif premier de ces derniers est de renvoyer à des sources existantes. Katharina Zweig, professeur d’informatique à l’université de Kaiserslautern-Landau, résume sans ambiguïté la règle de conduite la plus importante : « La règle numéro 1, c’est de ne pas utiliser le site comme moteur de recherche ».

Les raisons de cette forte propension aux erreurs résident dans la technologie elle-même. Parmi les principales causes de fausses informations, on trouve les sources peu fiables, le mélange de faits et d’opinions, ainsi que le phénomène d' »hallucination » bien connue de l’IA.

Les conséquences menacent notre socle commun de connaissances. Une étude de l’université de Princeton a révélé que jusqu’à 5 % des nouvelles entrées de Wikipedia en anglais contiennent déjà du matériel généré par l’IA. Cela crée un dangereux cercle vicieux de désinformation, dans lequel les IA sont entraînées avec des contenus erronés générés par d’autres IA.

Conclusion : la méfiance comme nouvelle compétence médiatique

La délégation de la recherche sur Internet aux chatbots d’IA est une tendance qui modifie durablement notre paysage informationnel. Notre confort ne devrait pas nous empêcher de reconnaître le danger réel et croissant de la désinformation. Les études démontrent qu’une confiance aveugle dans la technologie n’est pas seulement naïve, mais dangereuse.

À l’ère de l’IA, le scepticisme n’est pas du cynisme. C’est une condition sine qua non pour pouvoir survivre dans le monde numérique. L’examen critique des faits et des sources n’est plus une option, mais une capacité essentielle pour se protéger non seulement soi-même, mais aussi préserver l’intégrité de nos sources de connaissances communes.

D’une manière ou d’une autre, la recherche basée sur l’IA va continuer à se développer. Google intègre même depuis longtemps cette technologie directement dans ses plateformes de recherche. C’est pourquoi il est de plus en plus urgent que les utilisateurs restent conscients des risques, et ce, surtout lorsqu’il s’agit de sujets délicats.

Dans les faits, et en ce qui vous concerne, cela signifie que l’IA peut vous faire gagner beaucoup de temps, mais qu’elle ne doit pas être le dernier recours. Si vous recevez une réponse, vous devez contrôler sa véracité en cas de doute, et ce même si elle semble convaincante.

Comment faites-vous cela ? Utilisez-vous déjà les IA en lieu de la recherche classique, ou préférez-vous continuer à recourir à Google, DuckDuckGo et autres ?