Comment Google façonne-t-il en temps réel nos résultats de recherche et l’affichage sur Discover ? Ces dernières années, le géant américain n’a cessé d’innover, multipliant les micro-expérimentations quasi-invisibles qui modifient pourtant en profondeur la façon dont l’information circule sur le web.
Grâce à des analyses croisées et des fuites documentaires récentes, nous pouvons enfin lever le voile sur plus de 800 expériences actives ayant un impact direct sur l’écosystème Google Discover et Search cette année.
Le laboratoire permanent de Google : 1200 expériences, 800 actives en juin 2025
Derrière l’immense façade de stabilité de Google, un flux permanent de tests et d’ajustements agite ses algorithmes les plus secrets. Contrairement à la plupart des sites qui procèdent par refonte globale, Google opère par micro-changements intégrés en continu dans son moteur. En juin 2025, plus de 800 expérimentations étaient actives en même temps, touchant chaque aspect de la recherche : des classements à la personnalisation de Discover, en passant par l’IA, le shopping et les verticales spécialisées.
Quelques composants décodés parmi les 800 expériences :
- Twiddlers, QRewrite, Tangram, QUS : des moteurs de réécriture ou d’ajustement du scoring déjà repérés dans les fuites de 2024.
- Harmony, Thor, Whisper, Moonstone, Solar : des noms poétiques pour des modules explorant la diversité, la compréhension sémantique ou les signaux de fraîcheur.
- DeepNow (successeur de Google Now) et NowBoost : pour adapter en temps réel les contenus pushés sur Discover.
- SuperGlue : une nouvelle génération du module d’alignement été associée à la recherche universelle, prolongeant l’historique de NavBoost.
Google évolue par micro-changements : innovation permanente sans refonte majeure
L’approche “test and learn” de Google révolutionne le développement de la recherche en ligne : au lieu de grandes annonces, chaque innovation passe d’abord par une phase de test sur une portion d’utilisateurs puis se généralise progressivement.
- Risques minimisés : Si un test échoue, l’impact reste limité à une sous-population.
- Vitesse d’innovation maximale : Plusieurs itérations rapides permettent une évolution continue, visible notamment à travers les versions MagitCotRev15Launch (15ème mouture d’un même test).
- Optimisation fine : Tous les aspects, y compris le score de pertinence, l’apparition d’un contenu dans Discover ou le formatage des sections, sont concernés.
Diversité des domaines : IA, Knowledge Graph, verticales thématiques…
Les 800+ tests couvrent toutes les verticales :
- Intelligence artificielle : multiples variantes de Magi et d’Aim (AI Mode), la colonne vertébrale des nouveaux modules LLM et IA générative.
- E-commerce : plus de 50 expérimentations dédiées à l’expérience shopping, gestion de catalogues, contenu multimédia produit, etc.
- Verticaux spécialisés : sport, finance, météo, voyages ou podcasts, chacun avec ses propres modules de scoring et d’affichage Discover.
- Gestion des conflits de tests : grâce aux “Overlapping Domains” (ex. ShoppingOverlappingDomain), chaque équipe innovante dispose de son environnement protégé, évitant les effets de bord.
Knowledge Graph : le cœur de Discover, la chasse à l’entité validée
L’aspect le plus spectaculaire de ces expérimentations réside dans le rôle central du Knowledge Graph. Il ne s’agit plus seulement d’une base d’infos factuelles : le graph d’entités de Google supervise désormais la quasi-totalité de la personnalisation Search & Discover.
Classement des faits selon leur fiabilité
- kc : “knowledge corpus” issu de données validées (état civil, gouvernements…).
- ss : “webfacts” extraits du web.
- hw : “human written”, faits sourcés manuellement.
Entités fantômes et événements émergents
- Google détecte en continu les “entités flottantes” (entités fantômes) pour réagir quasi-instantanément à l’actualité et fuir la latence des LLM classiques.
- Ces entités sont rattachées via les systèmes SAFT et WebRef, révélés dans les leaks internes 2024, qui extraient, classifient et connectent en temps réel les nouvelles requêtes émergentes.
Objectif SEO : devenir une entité validée
- L’enjeu 2025 pour un site : ne plus simplement publier du contenu, mais s’établir comme une “entité” fortement reconnue, validée par plusieurs sources et figurant dans ce graphe thématique central.
- Scores de cohérence : la capacité d’un site à “coller” à une thématique est mesurée (siteFocusScore, Nsr…), impactant directement la visibilité Discover et Search.
- Les données anonymisées de Chrome servent aussi à calculer la notoriété réelle des entités, détectant tendances et évolutions du web.
L’offensive IA : 90 projets d’IA en parallèle et le mode multi-agents
Google ne se contente plus d’un moteur généraliste unique. Son “mode IA” (projet Magi/AIM) laboure aujourd’hui des dizaines de sous-spécialités, chacune testée dans des expériences distinctes.
- MedExplainer (médical), Travel Agent (voyage), Neural Chef (cuisine)… : des IA ultra-spécialisées qui traitent chaque intention utilisateur différemment.
- MagiModelLayerDomain, MagitV2p5Launch, SuperglueMagiAlignment : infrastructure sous-jacente des LLM Gemini.
- Chain of Thought : technique déployée pour rendre l’intelligence artificielle explicite, en plusieurs étapes (Réflexion → Recherche → Lecture → Synthèse → Polissage), visible dans la quinzième génération de MagitCotRev15Launch.
Nouvelles entrées et interfaces IA
- Sidebar IA, entrée via “J’ai de la chance”, logo Google transformé en bouton IA — tout fait l’objet d’expérimentation.
- Conversation contextuelle : Search et Discover deviennent pilotables sur la durée d’une session, de manière continue, abolissant la frontière avec l’IA conversationnelle type chatbot.
Embeddings : la machine à profiler Google
Google Discover repose désormais sur un duo d’embeddings utilisateurs : Picasso (long terme) et VanGogh (temps réel), orchestrés pour s’adapter à la fois à vos intérêts durables et vos besoins immédiats.
- Picasso construit un historique vectoriel statique de vos interactions (fenêtres temporelles “STAT” et “LTAT”).
- VanGogh fonctionne localement, capte en temps réel vos requêtes, la profondeur de vos scrolls, votre device.
- Ces embeddings forment un “profil multidimensionnel” utilisé pour mesurer l’alignement entre contenus proposés et profils utilisateurs (essentiel dans Discover).
- HULK : module spécialisé qui détecte votre contexte géographique et comportemental (en transport, à vélo, au bureau, dormant…).
Diversité des embeddings
- Google gère des embeddings verticaux, temporels, contextuels, chacun ajusté à une classe de contenus : podcasts, vidéos, shopping…
- Ces vecteurs servent à calculer en temps réel la probabilité d’affichage d’un contenu Discover selon la similarité vectorielle avec votre profil.
Compréhension des requêtes : expansion et scoring avancé
Google réinvente la notion même de correspondance entre recherche et résultats : chaque mot, chaque entité subit une série de traitements sophistiqués.
- Expansion de requêtes : “coffre de toit” devient “coffredetoit”, puis se décline en “coffres”, “toits”, “toiture”… Le tout boosté ou modulé selon la géolocalisation et le contexte.
- Marqueurs spécifiques (iv;p / iv;d) : pour distinguer correspondances exactes et dérivées linguistiques.
- Traitement géographique : pour une requête locale (“nail salon fort lauderdale 17th street”), Google ajoute des codes géo et traduit automatiquement les termes, ajustant dynamiquement les résultats.
Scoring lexical de 0 à 10
- Chaque terme scanné reçoit un score individuel de 0 à 10 points par URL selon sa saillance contextuelle.
- Les entités nommées sont favorisées, le contexte de la requête primant sur la simple présence dans l’URL.
- Cette pondération est “pairwise” : le score d’un même terme peut évoluer d’une URL à l’autre selon l’intention de recherche détectée.
- Les signaux virtuels (virtualTf, idf, salience) sont combinés pour ajuster le score, complété par la fraîcheur (hyper-priorisée dans Discover) et la popularité via NavBoost.
Quels enjeux concrets pour le SEO en 2025 ?
La visibilité dans Google Discover et Search ne dépend plus uniquement de la production de contenu. Les clés du succès :
- Devenir une entité solide du Knowledge Graph.
- Renforcer la cohérence thématique de son site (éviter la dispersion sur trop de sujets sans lien).
- Alimenter et croiser ses informations sur plusieurs sources reconnues.
- Adopter des contenus multi-modaux et adaptés à chaque vertical Google.
- Travailler la popularité (liens, notoriété, signaux Chrome) pour mieux peser dans les nouveaux scores vectoriels.
Les professionnels du référencement doivent se préparer à une hyper-personnalisation des résultats, où l’alignement vectoriel entre le contenu et le profil embedding de l’utilisateur devient aussi important que le classique trio “contenu-technique-popularité”.
L'auteur du blog
Je suis Nicolas Dayez, consultant SEO/GEO basé à Lille, et je transforme la visibilité en ligne de mes clients en résultats commerciaux concrets. Avec plus de 6 années d'expertise dans le référencement naturel, j'aide les entreprises à attirer plus de trafic qualifié et à convertir leurs visiteurs en clients fidèles.