Aller au contenu
Accueil » Blog » Passagers clandestins : fin de partie

Passagers clandestins : fin de partie

Google revient à 10 résultats par page : sobriété fonctionnelle pour les humains, signal d’alerte pour les passagers clandestins

Mes contacts professionnels dans le monde du SEO sont sous le choc depuis l’annonce de Google. La désactivation du paramètre &num=100 et le retour imposé à dix résultats par page bouleversent leurs pratiques. C’est compréhensible : pour nombre d’entre eux, cela fragilise une chaîne de valeur bien rodée, voire une partie de leur proposition commerciale. Mais attention aux arguments brandis à chaud — ils émanent d’acteurs partie prenante, dont le modèle repose justement sur une croyance implicite : celle d’un Google gratuit, illimité, et techniquement malléable à volonté.

Or cette croyance n’était qu’une tolérance. Une tolérance exploitée, parfois industrialisée, mais fondamentalement instable. Ce qui se joue ici, c’est un rappel de réalité économique : l’infrastructure privée n’est pas un bien commun. L’accès est offert, tant qu’il ne nuit ni à l’expérience des utilisateurs, ni à la stratégie du fournisseur, ni à la performance technique du système. Lorsqu’un déséquilibre apparaît, les règles changent — unilatéralement.

La récente décision de Google de désactiver l’option &num=100, qui permettait d’afficher jusqu’à cent résultats par page, et de revenir à une pagination stricte de dix liens par défaut, a provoqué des remous dans l’écosystème numérique (Search Engine Land, 18 septembre 2025 ; WebProNews, 13 septembre 2025). Présentée comme une mesure d’optimisation de l’expérience utilisateur, elle marque aussi une évolution stratégique dans la gestion des flux de données issus des pages de résultats.

Derrière l’apparente sobriété fonctionnelle, ce changement redéfinit les rapports entre utilisateurs, éditeurs de contenus, et extracteurs tiers. Il invite à une lecture multiple : ergonomique, économique, environnementale et réglementaire.

1. Un choix fonctionnel au service des utilisateurs

Du point de vue des internautes, cette restriction initiale à dix résultats peut sembler pragmatique. Elle favorise une lecture plus claire, limite la surcharge d’information, et permet de mieux valoriser les réponses jugées pertinentes. Moins de redondance, moins de scroll mécanique, plus de lisibilité : pour les requêtes simples et les usages quotidiens, le gain est réel.

Cependant, cette logique n’est pas universelle. Dans certains secteurs comme l’hôtellerie en ligne ou la comparaison de produits, des tests ont montré que la limitation à dix résultats pouvait compliquer la recherche multi-critères et dégrader l’expérience (Reuters, 12 décembre 2024). Dans le contexte européen, les obligations du Digital Markets Act (DMA) rendent ces contraintes encore plus sensibles. L’uniformité d’affichage peut ainsi produire des effets contre-productifs selon le parcours utilisateur.

2. Pour les passagers clandestins : fin de l’illusion du tout-gratuit

De nombreux acteurs — outils SEO, agrégateurs, moteurs secondaires — se reposaient sur l’accès libre et automatisable aux résultats profonds de Google pour analyser le marché, prospecter, ou nourrir des IA génératives. Le paramètre &num=100 permettait d’extraire en une requête l’équivalent de dix pages. Sa suppression complique le pompage à grande échelle, mais ne le rend pas impossible.

Les techniques modernes de scraping gèrent très bien la pagination, y compris dans des environnements AJAX (ScrapingAnt, 24 septembre 2024 ; Kocerroxy, 7 mars 2025). Toutefois, le coût d’extraction augmente mécaniquement : plus de requêtes, plus de charge réseau, plus de contre-mesures à contourner. Cela fragilise les modèles économiques fondés sur une collecte intensive non rémunérée.

La mesure peut donc être interprétée comme un rappel stratégique : l’infrastructure privée n’est pas un bien commun. L’accès toléré n’est maintenu que s’il ne nuit ni à la qualité de service, ni à la stratégie produit, ni aux marges. Lorsque l’un de ces équilibres est rompu, les règles changent — rationnellement.

3. Une décision aussi économique que technique

Au-delà de la lisibilité, cette évolution pourrait également viser à réduire la captation de données par des plateformes concurrentes — assistants IA, rank trackers, moteurs verticaux — qui dépendent des SERP pour construire leurs modèles ou leurs services. En limitant l’exposition brute de la page de résultats, Google se protège d’une extraction excessive et revalorise ses canaux contractuels (API, annonces, partenariats) (TechWyse, 26 septembre 2025 ; Search Engine Land, 18 septembre 2025).

Cette lecture concurrentielle n’annule pas l’intérêt utilisateur — mais elle rappelle que toute décision technique est aussi un acte stratégique.

4. Un geste de sobriété numérique… à relativiser

L’impact environnemental du web est bien réel, mais souvent invisible. En 2009, Google estimait qu’une requête générait environ 0,2 gramme de CO₂ (Wired, 2009). Depuis, les infrastructures se sont modernisées, les datacenters sont devenus plus sobres, et certaines estimations évoquent aujourd’hui un ordre de grandeur bien inférieur — entre 0,02 et 0,05 gramme selon les hypothèses (Sustainability by Numbers, 6 mai 2025).

Même si l’on retient une moyenne basse, à raison de 190 000 requêtes par seconde dans le monde (Exploding Topics, 15 août 2025 ; Semrush, 9 juillet 2025), cela représente plusieurs dizaines de tonnes de CO₂ par jour. Sur une année, l’équivalent de centaines de milliers de vols transatlantiques. Pour mémoire, un aller-retour Paris–New York émet environ 1,77 tonne de CO₂ par passager (ADEME).

Peut-on affirmer que la nouvelle pagination réduit significativement cette empreinte ? Pas de manière certaine. L’hypothèse est plausible : moins de requêtes annexes, moins de chargements de pages profondes, donc potentiellement moins d’émissions. Mais l’effet est indirect, non mesuré à ce stade, et pourrait être compensé par d’autres usages plus énergivores (ex. intégration croissante de l’IA dans les réponses).

5. Ce que la décision révèle : arbitrage, dépendances, effets collatéraux

Cette mise à jour technique soulève plusieurs leçons durables.

Modèles fondés sur l’accès libre : lorsqu’un acteur bâtit son modèle économique sur une infrastructure qu’il ne finance pas, il accepte par défaut une forte volatilité. L’illusion d’un « canal pérenne » gratuit est un biais de pilotage.

Recherche organique : elle reste un canal précieux, mais conditionnel. Sa stabilité dépend d’algorithmes, de signaux comportementaux, et de règles qui évoluent sans préavis.

Sobriété forcée : en réduisant la profondeur d’accès par défaut, Google incite à une recherche plus ciblée. Ce n’est pas nécessairement une régression — c’est une nouvelle forme d’optimisation.

6. Incertitudes et effets inattendus

Il convient enfin de signaler les limites et effets secondaires potentiels :

Pour les professionnels : les outils SEO doivent adapter leurs méthodes. Le tracking de positions devient plus incertain.
Pour certains secteurs : les comparateurs, les analystes de marché, ou les chercheurs en sciences sociales pourraient perdre en granularité.
Pour l’utilisateur averti : plus de clics, plus de pagination, donc un potentiel recul en fluidité pour certains usages.
Côté climat : l’effet positif est plausible, mais marginal et difficilement mesurable. Il ne doit pas masquer l’empreinte croissante d’autres fonctions (inférence IA, vidéo, cloud).

There is no Free Lunch

Moins de bruit, plus de structure, mais aussi plus de contrôle. Derrière cette mise à jour apparemment anodine, Google envoie un double message : aux utilisateurs, une promesse de clarté ; aux extracteurs, une fin de tolérance implicite.

Construire un modèle sur une infrastructure que l’on ne maîtrise pas, c’est toujours accepter que le gratuit puisse un jour se refermer.

Il n’y a pas de repas gratuit.