Comment ChatGPT, Claude et Perplexity choisissent qui citer
Le GEO (Generative Engine Optimization) n'est pas du SEO. Il faut écrire pour les LLM, structurer le schema, et accepter que le ranking soit une boîte noire, mais documentable.
Le SEO traditionnel, on le connaît. Mots-clés, backlinks, autorité de domaine, intention. Mais quand un utilisateur pose une question à ChatGPT ou Perplexity et que l’IA cite trois sources… comment ces sources ont été choisies ?
C’est ce que j’appelle le GEO (Generative Engine Optimization), et c’est une discipline distincte du SEO classique.
Ce que les LLM cherchent (et ce qu’ils ignorent)
Pour avoir étudié pas mal de citations dans les réponses de ChatGPT, Claude et Perplexity sur des requêtes commerciales, les patterns convergent :
Ce qui aide à être cité :
- Structure claire : titres, listes, tableaux
- Réponses directes dans le premier paragraphe
- Données chiffrées précises (les LLM aiment les nombres)
- Schema.org structuré (FAQ, HowTo, Article)
- Auteur et date explicites
- Sources externes citées dans l’article (les LLM aiment les articles qui sourcent)
Ce qui ne sert à rien (ou presque) :
- Le keyword stuffing
- Les mots-clés dans les balises invisibles
- Les backlinks (probablement)
- La vitesse de page (curieusement, oui, les LLM crawlent à leur rythme)
La règle d’or : répondre à la question dès la première phrase
Les LLM construisent leur réponse en assemblant des extraits courts (souvent 2-3 phrases). Si votre article met 500 mots à arriver à la réponse, il ne sera pas cité, l’extrait choisi sera trop loin du début.
La structure qui marche :
H1, La question reformulée
Première phrase : la réponse directe
Deuxième phrase : la nuance principale
Troisième phrase : où trouver le détail
H2, Le contexte (pour humains)
H2, Le détail (pour humains)
H2, La nuance (pour humains et LLM)Schema.org, le levier sous-estimé
Sur les pages de cas client, je systématise :
CreativeWorkouArticleFAQPagequand il y a une vraie FAQBreadcrumbListOrganization(la marque, l’auteur)Reviewquand il y a un témoignage
Et surtout, je vérifie chaque page sur le validator Google + le validator Schema.org. Une erreur de structuration et le LLM ne lit même pas correctement les blocs.
L’auteur compte
Les LLM, en particulier Perplexity, vérifient l’auteur. Une page avec auteur explicite (E-A-T : Expertise, Authoritativeness, Trustworthiness), avec lien vers une page auteur réelle, avec une bio sourcée, est citée 3-4× plus souvent qu’une page anonyme.
C’est l’effet le plus tangible que j’ai mesuré. Indiquez votre auteur. Liez sa bio. Sourcez ses qualifications.
Ce qu’on ne contrôle pas
Une fois ces fondamentaux posés, le ranking GEO reste une boîte noire. Aucun LLM ne publie son algorithme. La fenêtre de fraîcheur, le poids des sources externes, la pondération des citations, tout ça change tous les 2-3 mois.
La règle : optimiser ce qui est mesurable (structure, schema, auteur, fraîcheur), surveiller les requêtes test sur ChatGPT et Perplexity tous les mois, et accepter que le reste soit du tâtonnement informé.
En résumé
- Répondez en première phrase
- Structurez comme un manuel, pas comme un essai
- Schema.org partout
- Auteur explicite, bio liée
- Données chiffrées et sources externes
- Surveillance mensuelle des citations sur ChatGPT et Perplexity
Bâtissons votre architecture ensemble.
Audit gratuit sous 24 h ouvrées. Devis chiffré sous 72 h. Aucun engagement derrière.
Réserver un audit