Le trafic des bots est en hausse : votre site web est-il prêt ?

Hébergement web

Le trafic des bots est en hausse : votre site web est-il prêt ?

Olivier
10 min read

Pour chaque humain qui visite votre site web, il y a 3 bots qui font de même. Des études récentes révèlent qu’en moyenne, plus de 70 % du trafic web provient de bots depuis le mois de janvier 2025.

Les robots d’IA de ChatGPT (9 %), Claude (6 %) et d’autres LLM domine bien sûr le trafic des bots. Ils sont désormais plus présents que les robots d’exploration des moteurs de recherche. Parmi ceux-ci, le plus actif est Googlebot, qui représentent 7,5 % du trafic.

Les propriétaires de sites web ne peuvent pas simplement tous les bloquer, car plusieurs bots sont absolument nécessaires. Googlebot, notamment, est vital pour permettre à votre site d’apparaître dans les résultats de recherche.

Le multiplication des bots peut toutefois amener différents types de problèmes. Si vous observer des pics suspects de trafic ou une augmentation de spam dans vos formulaires de contact, il peut s’avérer nécessaire de prendre des mesures immédiates.

Le trafic de bots est particulièrement intense dans certaines régions

L’augmentation du trafic de bots est une réalité affectant l’ensemble du web. Il est toutefois fortement concentré dans certains pays, où ils représentent une écrasante majorité du trafic web dans son ensemble.

L’Irlande est en tête du trafic de bots, comptant pour plus de 40,7 % des visites quotidiennes mondiales. La seconde place est occupé par Singapour, qui compte pour 13 % du trafic global de bots. Cette concentration dans ces états n’a rien d’une coïncidence.

L’Irlande abrite le siège européen de presque toutes les grandes entreprises technologiques américaines – Google, Apple, Microsoft, Amazon et Facebook – attirées par l’accès à l’UE, des impôts sur les sociétés faibles et une main-d’œuvre anglophone.

Pendant ce temps, Singapour est le centre de données d’Asie-Pacifique, avec AWS, Microsoft Azure et Google Cloud qui y exploitent les principales installations pour servir les marchés asiatiques avec une latence plus faible. Lorsque les robots d’IA et les services cloud analysent des sites web, ils opèrent souvent à partir de fermes de serveurs concentrées dans ces deux emplacements stratégiques.

Nos résultats sont assez cohérents avec le Bad Bot Report 2025 d’Imperva, où 51 % de tout le trafic internet provient désormais de sources automatisées, avec 37 % classés comme bots malveillants. Le défi réside dans la zone grise.

Certains robots d’entraînement IA (comme GPTBot) collectent votre contenu pour entraîner des modèles linguistiques sans fournir d’avantages de trafic direct vers votre site.

Mais que ceux-ci représentent des bots « bons » ou « mauvais » dépend de ce que vous pensez des entreprises d’IA qui utilisent votre contenu à des fins commerciales.

Bons Bots vs. Mauvais Bots : Quelle est la différence ?

Bons Bots vs. Mauvais Bots

Tout le trafic automatisé ne mérite pas d’être bloqué. Vous devez savoir quels bots aident votre entreprise et lesquels lui nuisent avant de prendre des mesures pour gérer les bots sur votre site web.

De bons bots qui profitent à votre site

  • Crawlers des moteurs de recherche : Par exemple, Googlebot et Bingbot indexent votre contenu pour les résultats de recherche.
  • Bots de médias sociaux : Like FacebookExternalAgent génère des aperçus de liens lorsque les utilisateurs partagent votre contenu.
  • Services de surveillance : Ceux-ci vérifient la disponibilité et les performances de votre site.
  • Crawlers de recherche IA : Comme ChatGPT-User et Perplexity-User qui citent votre contenu lorsqu’ils répondent aux requêtes des utilisateurs.

Les mauvais bots qui drainent vos ressources

  • Scrapers de contenu : Ceux-ci volent vos articles, descriptions de produits et images.
  • Bots spammeurs de formulaires : Ils inondent les formulaires de contact avec des soumissions indésirables.
  • Bots de surveillance des prix : Provenant de concurrents qui suivent vos stratégies tarifaires.
  • Bots de stockage d’inventaire : Ceux-ci ajoutent des produits aux chariots sans acheter.
  • Les bots de bourrage d’informations d’identification : ils tentent de pénétrer dans les comptes des utilisateurs.

Les coûts cachés de la hausse du trafic de bots

Les coûts cachés de la hausse du trafic de bots

Quel que soit le type de bot, le trafic automatisé impacte votre site web dans trois domaines critiques :

  • Frais d’hébergement
  • Risques de sécurité
  • Exactitude des données

Chaque visite de bot consomme des ressources du serveur tout comme un visiteur humain, mais sans aucun potentiel de conversions, d’engagement ou de revenus.

1. Vos coûts d’hébergement web continuent d’augmenter

Chaque demande de bot utilise votre bande passante, votre puissance de traitement et votre stockage.

Si vous avez un site riche en contenu ou une plateforme de commerce électronique, vous êtes susceptible de voir cela atteindre votre portefeuille rapidement.

Le projet Read the Docs a réduit le trafic de 75 % après avoir bloqué les crawlers IA. Sa consommation de bande passante est alors passé de 800 Go à 200 Go par jour. Ils ont ainsi économisé 1500 $ par mois en coûts de bande passante.

Si vous êtes sur un plan d’hébergement partagé, vous ne verrez pas de coûts directs.

Un trafic bot excessif peut toutefois déclencher votre hébergeur pour réduire les performances du site. Une activité de bot plus agressive peut vous pousser à demander un VPS ou des solutions d’hébergement dédié plus tôt que prévu.

2. Les problèmes de sécurité et de spam empirent

Les bots malveillants ciblent vos formulaires de contact, pages de connexion et processus de paiement.

Ils recherchent des vulnérabilités, tentent des attaques de bourrage d’informations d’identification et inondent également les formulaires avec des soumissions indésirables. Puisque la plupart des sites web n’ont qu’une sécurité de base, ils deviennent une cible attrayante.

Si vos formulaires de contact ou commentaires de blog contiennent des entrées indésirables, je vous suggère d’installer immédiatement Askimet pour voir que les entrées indésirables diminuent. Souviens-toi, cependant, qu’Askimet ne bloque pas le trafic des bots.

3. Vos données d’analyse sont contaminées

Le trafic de bots perturbe les analyses de votre site web, à cause de leur comportement différent de celui des internautes humains.

Quand les bots visitent des pages web, ils n’interagissent pas avec le contenu. Ils augmentent ainsi artificiellement les chiffres de trafic, tout en diminuant les taux de conversion.

Ce problème contamine vos résultats et rend presque impossible pour vous de mesurer le comportement réel des utilisateurs humains. Il est donc plus difficile d’optimiser vos entonnoirs de conversion ou de prendre des décisions marketing basées sur les données.

Des outils comme Google Analytics vous permettent de filtrer le trafic pour affiner l’analyse. Il est toutefois difficile de distinguer le trafic des bots des visiteurs humains réguliers.

Gérer et bloquer les mauvais bots sans nuire aux bons

Gérer et bloquer les mauvais bots sans nuire aux bons

Il est recommandé d’être prudent quand vous bloquez le trafic des bots, pour éviter de bloquer aussi accidentellement les bons bots et de vrais utilisateurs.

Il vous faut chercher une approche équilibrée qui bloque le trafic automatisé nuisible, tout en préservant les robots bénéfiques. Effectuer un tri sélectif peut toutefois contribuer à améliorer l’expérience utilisateur des visiteurs de votre site.

Voici donc quelques conseil pour gérer les bots, qui vous éviteront de bloquer accidentellement les moteurs de recherche ou les services légitimes.

Configurez votre fichier robots.txt

Le fichier robots.txt de votre site web fait office de première ligne de défense contre les bots indésirables. Plusieurs bots malveillants l’ignorent, mais les scrapers des IA sont censés lui obéir.

Vous devez donc créer ou mettre à jour le fichier dans le répertoire racine de votre site web. Incluez-y ces instructions spécifiques pour différents types de bots.  :

# Bloquer les crawlers de formation d'IA.
User-agent: GPTBot
Disallow: /

User-agent: anthropic-ai
Disallow: /

User-agent: Google-Extended
Disallow: /

# Permettre les robots d'exploration des moteurs de recherche.
User-agent: Googlebot
Allow: /

User-agent: Bingbot
Allow: /

# Permettre les robots d'exploration des IA pour être cité dans les réponses.
User-agent: ChatGPT-User
Allow: /

User-agent: PerplexityBot
Allow: /

Mettez en place un pare-feu d’application web

Pour accroitre la sécurité de votre site web, il est recommandé d’implémenter un pare-feu d’application web (WAF). Celui-ci peut bloquer les bots directement au niveau du serveur.

Si votre site repose sur un service d’hébergement web d’Ex2, un pare-feu ModSecurity est installé au niveau de votre serveur pour aider au blocage.

Vous avez également quelques options supplémentaires pouvant vous aider à gérer le trafic de bots sur votre site web.

Forfait gratuit Cloudflare :

  • Fournit des outils avancé pour lutter contre les bots, comme un blocage complet et un labyrinthe IA.
  • Propose des règles de pare-feu personnalisables, permettant de cibler des menaces spécifiques
  • Ses analyses avancées détectent et bloquent automatiquement le trafic malveillant évident

Wordfence (Utilisateurs de WordPress) :

  • Inclut des fonctionnalités de détection et de blocage des bots
  • Mises à jour en temps réel de renseignement sur les menaces
  • Limitation du débit au niveau du serveur
  • Limitation de débit personnalisable pour prévenir les demandes à déclenchement rapide

Plusieurs hébergeurs web proposent des fonctionnalités qui ralentissent ou bloquent automatiquement les adresses IP qui font trop de requêtes dans des délais courts.

Vous pouvez configurer ces limiteurs de débit afin de bloquer les IP qui parcourent trop de pages en très peu de temps.

Par exemple, un humain normal aurait besoin de quelques secondes pour regarder le contenu d’une page, avant de cliquer sur différents liens. Un bot peut suivre le même parcours et faire de même en quelques millisecondes. Il est donc préférable de bloquer ces activités trop rapides.

Solutions de plugins pour les sites WordPress

Si vous utilisez WordPress, vous avez des options supplémentaires. Une multitude de plugins peuvent vous aider à gérer le trafic de bots.

  • Akismet : Filtre automatiquement les commentaires et le spam avec une précision de 99,99 %. Pour ce faire, il utilise un filtrage avancé basé sur l’IA. Ce plugin est donc essentiel pour les sites WordPress permettant les commentaires d’utilisateurs.
  • All-In-One Security (AIOS) : Offre des fonctionnalités de sécurité comme des pares-feux et des outils de blocage de bots.
  • WP Cerber Security : Fournit une protection complète contre les bots. Il comprend la limitation des tentatives de connexion, le blocage d’IP et des algorithmes avancés de détection des bots.

Pour conclure sur l’augmentation du trafic de bots

Le trafic des bots représente désormais plus 70 % du trafic. Les bots sont donc près de trois fois plus nombreux que les humains sur Internet.

La plupart des propriétaires de sites web tentent encore de s’adapter à ce changement. Il n’est toutefois par évident trier dans ce chaos, pour bénéficier des bons bots sans subir les nuisibles.

Grâce aux informations et aux conseils fournis dans cet article, vous devriez être en mesure d’améliorer votre gestion du trafic de bots.

Nous espérons que cet article vous a plu et vous a aidé à augmenter la sécurité de vos mots de passe. Si c’est le cas, nous vous invitons maintenant à consulter nos autres autres articles et tutoriels.

N’hésitez pas non plus à consulter notre base de connaissance. Vous y trouverez une foule d’articles détaillés pouvant répondre à toutes vos questions web.

Olivier

Olivier est un blogueur et développeur web expérimenté. Il créé et gère des sites WordPress depuis plus de 12 ans, et possède plus d'une décennie d'expérience en tant que rédacteur web.