Nel 2025 è esploso un nuovo mercato: GEO, AEO, LLMO, AI SEO. Ogni settimana un nuovo acronimo, ogni guru un nuovo framework, ogni agenzia una nuova offerta "rivoluzionaria". Il rumore è enorme. La sostanza, spesso, molto meno.
Lily Ray — una delle SEO più autorevoli al mondo, ricercatrice e speaker di riferimento a livello internazionale — ha documentato questo fenomeno con lucidità: il 2025 è stato l'anno del "naming frenzy", in cui la narrativa "SEO is dead" è stata riportata in vita per l'ennesima volta, questa volta per vendere la GEO come disciplina completamente nuova.
Non è così. E noi la pensiamo diversamente.
La nostra posizione
La GEO non è una rivoluzione. È un'accelerazione — di un percorso che chi fa SEO seriamente ha già intrapreso da anni.
La SEO ha smesso di essere una questione di keyword density almeno nel 2015. Da allora, il lavoro vero si costruisce su contenuti che rispondono a bisogni reali, sull'autorevolezza tematica, sui cluster semantici, sulle entità — non sulle singole parole. Chi ha costruito contenuti long tail su domande specifiche degli utenti, chi ha sviluppato FAQ contestuali, chi ha lavorato sulla crawlability e sul markup strutturato: è già a metà strada verso la GEO.
I modelli generativi si nutrono delle stesse cose di cui si nutre Google: contenuti chiari, autorevoli, ben strutturati, coerenti nel tempo. La differenza non è nella logica. È nel canale — e nella funzione che il canale svolge. Mark Himmelsbach, CEO di RYA, lo ha sintetizzato in modo efficace: "Google is the place you go when you already know what you want. Chat is the place you go when you don't." Due canali complementari, non alternativi. E le implicazioni operative che vale la pena capire bene, invece di nasconderle sotto un nome nuovo.
Essere a metà strada, però, non significa essere arrivati. E qui sta il punto che molte aziende sottovalutano.
Anche chi ha una SEO solida si trova spesso a scoprire — quando misura per la prima volta la propria presenza sugli LLM — di essere quasi invisibile su ChatGPT o Perplexity, mentre i competitor vengono citati sistematicamente. Non perché abbiano fatto chissà cosa di nuovo. Ma perché hanno lavorato su leve specifiche che la SEO classica non copre: l'ontologia dell'entità, la struttura dei contenuti pensata per essere estratta dai modelli, la presenza su fonti che i modelli pesano come autorevoli, la coerenza cross-canale dell'identità del brand.
La GEO non richiede di buttare via quello che è stato fatto. Richiede di fare un'analisi precisa di dove si è oggi — sulla SEO e sugli LLM — e di costruire un piano di lavoro dedicato che acceleri la presenza sui nuovi canali. È un lavoro nuovo, con strumenti nuovi e competenze specifiche. Non si improvvisa, e non succede automaticamente continuando a fare SEO come prima.
Vale però la pena dirlo chiaramente: la GEO non si costruisce con le scorciatoie. Lily Ray ha documentato casi in cui aziende che hanno adottato tattiche aggressive — contenuto AI-generated in scala, listicle auto-promozionali, trucchi per aumentare le citazioni nel breve — hanno visto prima crescere i numeri e poi crollare, portandosi dietro anche la SEO organica in un crollo difficile da recuperare. La conclusione che emerge dall'analisi di questi casi è netta: quasi tutti i "GEO wins" celebrati si spiegano con una SEO di base già solida. La GEO amplifica quello che c'è — non sostituisce quello che manca, e non perdona le fondamenta fragili.
C'è poi un'altra cosa che SEO e GEO condividono, e che viene sistematicamente sottovalutata: i brand forti vincono su entrambe. Un'azienda con un'identità riconoscibile, una reputazione costruita nel tempo e menzioni diffuse sul web emerge più facilmente anche nelle risposte degli LLM. I modelli si addestrano su ciò che esiste e viene citato — e l'autorevolezza che costruisci oggi è quella che i modelli di domani impareranno a riconoscere. Costruire un brand forte non è una strategia GEO. È la strategia. La GEO, come la SEO, ne accelera gli effetti — non la sostituisce.
Due modi di conoscere il mondo
Un LLM non conosce il mondo in un unico modo. Lo conosce in due — e sono fondamentalmente diversi, con implicazioni operative altrettanto diverse.
Il primo è la conoscenza parametrica: quello che il modello ha imparato durante il pre-training, codificato nei pesi neurali. È la memoria permanente. Cambia solo quando il modello viene riaddestrato — e i cicli di retraining dei grandi modelli si misurano in mesi, non in giorni. Secondo uno studio Nectiv dell'ottobre 2025, il 31% dei prompt su ChatGPT attiva almeno una ricerca web — il restante ~69% viene risposto attingendo esclusivamente alla conoscenza acquisita in training. La percentuale è volatile: uno studio Semrush su 17 mesi di dati la vede oscillare tra il 15% e il 66% a seconda del tipo di query e degli aggiornamenti del modello. Ma il punto resta: la maggioranza delle risposte parte da dentro il modello, non dal web. Il segnale di autorevolezza più pesante su questo canale è Wikipedia: secondo SearchAtlas, rappresenta il 27% delle citazioni esplicite nelle risposte di ChatGPT. Un brand citato frequentemente in fonti autorevoli prima del training cutoff ha un vantaggio strutturale difficile da colmare nel breve periodo.
Il secondo è il RAG — Retrieval-Augmented Generation: quando il modello fa ricerca web in tempo reale per ancorare la risposta a dati freschi. Perplexity lo fa sempre. ChatGPT in modalità browse. Gemini per le AI Overviews, attingendo direttamente all'indice Google. Qui contano le fondamenta SEO classiche: crawlability, contenuto aggiornato, struttura, dati strutturati. Con una differenza non banale: secondo Seer Interactive, ChatGPT per il RAG attinge per l'87% dai risultati top-10 di Bing — non Google.
Le implicazioni pratiche sono diverse per i due canali. Per la conoscenza parametrica si lavora sul lungo periodo: entity building, Wikipedia, PR su fonti autorevoli, coerenza cross-canale. Per il RAG si lavora sul medio periodo: SEO tecnica, freshness, struttura dei contenuti. Una GEO fatta bene presidia entrambi. Chi lavora solo su uno lascia metà del campo scoperto.
Questo tema merita un approfondimento tecnico dedicato — e lo avrà. [→ Come funzionano davvero i modelli AI: conoscenza parametrica, RAG e cosa significa per il tuo brand]
Il brand è il moltiplicatore
I modelli citano chi riconoscono. E riconoscono chi viene citato da altri, più volte, in contesti autorevoli, in modo coerente nel tempo.
Jason Barnard, tra i massimi esperti mondiali di entity SEO, ha costruito un'intera metodologia intorno al concetto di corroboration: la coerenza dell'identità del brand su tutti i touchpoint digitali — sito, Wikipedia, Knowledge Panel, PR, social — aumenta la confidenza con cui i modelli ti citano. Non basta essere presenti su un canale: occorre che tutti i canali raccontino la stessa storia, con gli stessi fatti, le stesse relazioni, gli stessi concetti associati.
Un brand forte parte avvantaggiato su qualsiasi canale di visibilità. Google, LLM, o quello che verrà dopo. Vale oggi come valeva dieci anni fa.
Le leve operative
Questa è la parte in cui la visione si traduce in lavoro. Non è un elenco di cose da fare — è una mappa di priorità.
Entity building e ontologia del brand. I motori di ricerca e i modelli non leggono il sito come una serie di pagine: lo interpretano come una rete di concetti connessi. Costruire l'ontologia del brand significa definire quali territori semantici deve presidiare, quali relazioni deve comunicare, quali concetti devono co-occorrere per rafforzarne l'identità. Nike non è "scarpe sportive" — è la rete semantica che connette performance, superamento dei limiti, atleti di riferimento, cultura dello sport urbano. McDonald's non è "fast food" — è comodità, infanzia, consistency globale, accessibilità. I modelli riconoscono entità, non parole.
Answer-first content. Strutturare i contenuti perché siano estraibili come risposta diretta. FAQ contestuali nelle pagine prodotto e di categoria — non in una pagina separata dimenticata nel footer. Cluster tematici costruiti intorno a bisogni reali, non keyword isolate. Paragrafi con struttura "risposta → contesto → dettaglio": leggibili dall'utente, estraibili dall'AI.
Crawlability per i bot AI. Architettura pulita, dati strutturati, feed accurati. E un trade-off che molte aziende stanno facendo senza capirlo: bloccare i crawler AI — ClaudeBot, GPTBot — per paura di essere "scraped" significa penalizzare la propria conoscenza parametrica nelle prossime generazioni di modelli. Chi blocca oggi potrebbe ritrovarsi invisibile nei modelli di domani.
Lo stesso vale per chi blocca i bot non per scelta strategica ma per ragioni di infrastruttura: server che non reggono il carico di crawling, architetture lente, limiti tecnici non risolti. Il problema non cambia — anzi, è doppio: si paga in visibilità GEO e si ha un problema tecnico che impatta anche la SEO classica. In entrambi i casi, è qualcosa da risolvere, non da ignorare.
Una notizia di questi giorni vale una nota specifica per chi lavora su Shopify. La piattaforma ha avviato silenziosamente il rollout di file llms.txt nativi su tutti gli store, senza annuncio ufficiale né documentazione pubblica. Il file, accessibile a yourstore.com/llms.txt, include metadati dello store, link diretti al catalogo, istruzioni per gli agenti AI ed endpoint MCP per il commercio programmatico. È un segnale preciso di dove sta andando la piattaforma. Torneremo su questo in un articolo dedicato. [→ Shopify, llms.txt e la nuova crawlability per i bot AI]
Schema markup avanzato. Distinto dalla crawlability generica: è il linguaggio con cui il sito comunica ai modelli cosa è cosa. Secondo la ricerca di Princeton sulla GEO, FAQPage schema è uno dei tipi con maggiore impatto sulla citazione AI. Organization, AggregateRating, BreadcrumbList, Product — ogni schema corretto riduce l'ambiguità con cui i modelli interpretano il contenuto.
Wikipedia e Wikidata. Wikipedia non è uno strumento SEO. È un'enciclopedia con regole editoriali rigide, gestita da editor volontari che non lavorano per i brand — e che anzi sono storicamente diffidenti verso qualsiasi uso promozionale della piattaforma. Il criterio fondamentale è la notability: non basta che un'azienda esista o fatturi — deve avere un impatto documentato da fonti terze indipendenti. Tentare di creare o modificare la propria pagina in modo promozionale non funziona, e può ritorcersi contro (The North Face ha trasformato un tentativo di edit su Wikipedia in un caso di comunicazione negativa che ora vive sulla sua stessa pagina).
Detto questo, avere una pagina Wikipedia trasforma il brand da stringa di testo a entità riconosciuta nel Knowledge Graph — con effetti diretti sulla confidenza con cui i modelli ti citano. Il percorso richiede di costruire prima la sostanza: PR editoriali, citazioni su fonti autorevoli, storia documentabile. Wikipedia è la conseguenza, non il punto di partenza.
Per chi non ha ancora i requisiti di notability, il passo pratico immediato è Wikidata: database strutturato della Wikimedia Foundation, senza requisiti di notability, interrogato direttamente da Google Knowledge Graph, Siri, Alexa e Copilot. Un record accurato su Wikidata non richiede di meritarsi l'approvazione di nessun editor — ed è la fondamenta dell'entity building per chiunque.
PR digitale e segnali di autorevolezza. Le menzioni su fonti terze — articoli, ricerche, citazioni editoriali — alimentano sia il training data futuro che il RAG presente. E non solo sulle fonti "nobili": Perplexity cita Reddit per il 46,7% delle sue risposte, community verticali e forum di settore inclusi. Il brand discusso organicamente nelle community ha un vantaggio che nessun contenuto owned può replicare.
Review management e UGC. Le recensioni su Trustpilot, Google, piattaforme verticali vengono citate dai modelli. Gestire la reputazione nei luoghi in cui gli utenti parlano del brand non è più solo CRO o customer care: è alimentare il RAG con segnali di fiducia provenienti da fonti terze, che i modelli pesano più di qualsiasi contenuto proveniente dal sito stesso.
Agentic commerce readiness. La frontiera prossima, già presente. Secondo Shopify, gli ordini arrivati da query AI su store Shopify sono cresciuti di 11 volte tra gennaio 2025 e gennaio 2026 — con un tasso di conversione del traffico AI superiore del 31% rispetto alla ricerca organica non branded. Gli AI shopping agent non scelgono chi ha il sito più bello: scelgono chi ha i dati di prodotto più completi, le policy più chiare, la disponibilità aggiornata. È il punto in cui GEO e qualità del dato ecommerce si fondono in modo concreto.
Come si misura
Il cambio di metrica è il capitolo più ignorato del dibattito GEO.
Kevin Indig — growth advisor di Shopify e Atlassian — ha documentato il concetto di decoupling of clicks from impact: con la GEO, il traffico smette di essere la proxy affidabile del valore. Un brand può essere citato migliaia di volte dagli LLM senza generare un singolo click. Come si misura la visibilità su un canale che non produce sessioni?
La risposta non è semplice, ma c'è un dato che aiuta a inquadrare il problema. Secondo Similarweb, i brand citati frequentemente dai modelli ricevono meno dell'1% di traffico referral diretto dalle piattaforme AI — eppure il Washington Post ha rilevato che i visitatori arrivati da piattaforme AI convertono a iscrizioni a un tasso quattro o cinque volte superiore rispetto alla ricerca organica tradizionale. Il volume è basso, la qualità è alta. Questo cambia profondamente come si giustifica un investimento in GEO al management: non si tratta di traffico, si tratta di presidio di un canale ad alta intenzione d'acquisto che oggi è ancora poco affollato.
Le metriche cambiano: AI citation share, copertura per provider, distribuzione per scenario d'uso, trend nel tempo. Gli strumenti cambiano. E la misurazione richiede un approccio diverso dalla SEO classica — più probabilistico, meno deterministico, ma non per questo meno utile. A patto di saperlo leggere correttamente, e di non confondere l'indicazione di tendenza con una certezza assoluta.
Abbiamo costruito Brand Presence — il modulo di MAX dedicato a questo — per rispondere esattamente a questa domanda. [→ Brand Presence: lo strumento di Boraso per misurare la visibilità dei brand sugli LLM]
Il momento in cui conviene iniziare
La GEO non è il futuro. È il presente di chi ha fatto SEO seriamente negli ultimi dieci anni — e si trova, quasi senza accorgersene, già in una posizione di vantaggio.
Ma "posizione di vantaggio" non significa "posizione sufficiente". Il gap tra una SEO ben fatta e una presenza reale sugli LLM esiste — ed è misurabile. Spesso sorprende anche chi pensava di essere a posto.
Noi lavoriamo sulla GEO come lavoriamo sulla SEO: con analisi, dati, strategia e un piano di contenuti che ha senso rispetto al mercato specifico del cliente. Non vendiamo acronimi nuovi — costruiamo visibilità su tutti i canali in cui i tuoi potenziali clienti cercano risposte, oggi e domani.
Se vuoi capire dove si trova il tuo brand oggi — sulla SEO, sulla GEO, e su quello che verrà dopo — scrivici. Partiamo dall'analisi.