Da dove prende le informazioni ChatGPT (e perché conta per il tuo business)

Per oltre due decenni, la visibilità online è stata sinonimo di una cosa soltanto: comparire tra i primi risultati di Google. In pratica, chi riusciva – con tecnica, capacità di scrittura e molto impegno - a conquistare quella posizione privilegiata otteneva traffico, opportunità commerciali e crescita Lo scenario sta però cambiando rapidamente. Contrariamente al passato, in cui gli utenti effettuavano le loro ricerche online digitando query, le richieste passano oggi sempre più di frequente dagli assistenti vocali – modelli linguistici come ChatGPT – che vengono “incaricati” di individuare risposte e soluzioni. In questo passaggio silenzioso ma dirompente si afferma quindi un nuovo intermediario tra brand e clienti: l’intelligenza artificiale. Di riflesso, cambia anche la domanda chiave che le aziende si pongono: da “come farmi trovare?” a “come farmi scegliere?”. Essere indicizzati non basta più: bisogna diventare la fonte che le AI riconoscono come affidabile e autorevole. A seguire, analizzeremo le fonti da cui ChatGPT prende realmente le informazioni, quali indagini indipendenti hanno fatto emergere nuovi scenari e perché tutto questo sta ridisegnando le regole del gioco per la SEO e per la strategia digitale delle imprese. Siamo ufficialmente entrati nell’era dell’AEO, e stiamo vivendo una trasformazione che nessuna organizzazione strutturata può permettersi di ignorare.

Da Bing a Google: l’indagine che cambia lo scenario

Per molto tempo la narrazione ufficiale è stata lineare: quando ChatGPT cercava informazioni online, lo faceva attraverso Bing. La logica era chiara: Microsoft è uno dei principali investitori in OpenAI e la partnership tecnica sembrava naturale. Tuttavia, una ricerca indipendente condotta dal ricercatore francese Alexis Rylko ha recentemente messo in discussione questa certezza, aprendo scenari ben più complessi. Attraverso l’analisi dei file di log generati da ChatGPT - una sorta di “diario di bordo” invisibile che registra ogni query – Rylko ha scoperto un dato sorprendente. Confrontando le ricerche effettuate dal chatbot con i risultati di Bing, la corrispondenza era solo del 30%. Lo stesso confronto con Google restituiva invece un allineamento superiore al 90%, con snippet e URL quasi identici. In più, molti dei link riportavano il parametro “?srsltid”, tipico del tracciamento di Google. A confermare che le fonti informative si stiano ampliando è arrivata anche la celebre consulente SEO Aleyda Solís, che ha evidenziato l’integrazione di Shopify come partner ufficiale di OpenAI per i dati legati all’e-commerce. Il quadro che emerge è piuttosto evidente: l’ecosistema informativo degli LLM non è più legato a un’unica fonte, ma si muove su più fronti, spesso senza annunci ufficiali.  Per le aziende, ciò significa che la “catena di fiducia” che porta un’informazione dall’online alla risposta di un’IA si è spostata, e ignorarlo equivale a perdere competitività in un contesto che non smette di evolvere.

Come si alimentano i modelli Open AI: le tre fonti principali

Comprendere da dove un modello come ChatGPT attinga le proprie informazioni non è un esercizio di curiosità tecnica, ma la base per interpretarne le logiche e, soprattutto, per capire come un’azienda può diventare parte di quell’ecosistema informativo OpenAI dichiara di costruire i propri modelli su tre grandi categorie di dati, che insieme costituiscono la “materia prima” dell’intelligenza artificiale. Vediamole a seguire.

Dati pubblici

Sono i contenuti disponibili liberamente sul web: articoli, siti, documentazione tecnica, forum come Reddit, libri digitalizzati, dataset accademici. Queste fonti forniscono l’ampiezza linguistica e culturale necessaria al modello per “capire” il mondo e formulare risposte coerenti. Quella formata dai dati pubblici la componente più vasta e diversificata, ma anche la più volatile: ciò che conta è essere riconosciuti come contenuti chiari, aggiornati e autorevoli.

Dati proprietari da partnership

Accanto alle fonti pubbliche, OpenAI integra dati forniti da partner selezionati. È il caso, ad esempio, di Shopify per i contenuti legati all’e-commerce: schede prodotto, cataloghi, recensioni. Queste collaborazioni permettono di arricchire l’IA con dataset verticali e non accessibili al pubblico, ampliando la precisione delle risposte in contesti specifici.

Dati generati da utenti e ricercatori

Il modello si affina continuamente grazie al feedback degli addestratori umani, alle interazioni con gli utenti e al contributo dei ricercatori. Questo processo di “reinforcement learning” consente di migliorare la qualità delle risposte e ridurre gli errori. Una precisazione fondamentale: non vengono utilizzati dati sensibili o proprietari delle aziende clienti senza consenso. La raccolta è orientata a fonti pubbliche o autorizzate, con filtri specifici per rispettare privacy e conformità normativa.

Dalla SEO all’AI Search: nuove regole del gioco

La Search Engine Optimization è stata per anni un’arte precisa: ottimizzare contenuti e siti per scalare le classifiche dei motori di ricerca – Google in primis – con l’obiettivo ultimo di farsi trovare. Con l’affermarsi degli assistenti conversazionali, però, è importante anche (spieghiamo in questo articolo perché la SEO resta comunque indispensabile) diventare la fonte che l’intelligenza artificiale sceglie di citare nella sua risposta (AEO). In questa nuova logica di AI Search, l’autorevolezza pesa più del posizionamento. Un contenuto mediocre, anche se ben ottimizzato per una parola chiave, difficilmente verrà selezionato da un modello linguistico. Al contrario, una risorsa percepita come affidabile, comprensibile e completa potrà entrare nel “ventaglio ristretto” delle risposte fornite all’utente. Il mercato sta già reagendo. Startup come Athena (nata da ex ingegneri Google) aiutano le aziende a monitorare come i chatbot parlano del loro brand. Profound, che ha raccolto oltre 20 milioni di dollari di investimenti, offre strumenti per ottimizzare la visibilità nelle risposte generative. Scrunch AI ha portato un’azienda tech, Clerk, a registrare un +9% di iscrizioni in soli sei mesi provenienti dal traffico generato da IA. Ma questo nuovo terreno può essere anche costellato di insidie. Le cosiddette hallucinations - risposte errate o inventate dall’AI – possono ad esempio trasformarsi in una vera minaccia per la reputazione aziendale. Ancora più delicato è il tema del controllo narrativo: se un modello si basa su una recensione datata o su fonti non attendibili, un determinato prodotto o servizio potrebbe essere descritto in modo impreciso, senza possibilità di intervento diretto. L’obiettivo attuale è quindi costruire fiducia e coerenza tali da rendere il proprio brand una fonte irrinunciabile per le intelligenze artificiali.

Esperimenti ed evidenze: si può influenzare un’IA?

Un esempio curioso ma estremamente istruttivo arriva dall’agenzia SEO Reboot. Per mettere alla prova i limiti degli LLM, il team ha orchestrato un esperimento provocatorio: incoronare il proprio CEO, Shai Aharony, come “l’uomo calvo più sexy del 2025”. Come? Creando una serie di siti a bassa autorevolezza, tutti con la stessa notizia, costruita ad hoc e priva di alcun fondamento. Il risultato è stato sorprendente: interrogando ChatGPT o Perplexity, la risposta riportava effettivamente quella (dis)informazione, citando il nome di Aharony come fosse un dato verificato. In pratica, l’esperimento ha dimostrato che i modelli meno sofisticati possono essere “allenati” da contenuti ripetuti e coerenti, anche se privi di attendibilità. Non tutti, però, si sono lasciati ingannare. Gemini di Google, ad esempio, ha continuato a basarsi su fonti più solide, scartando l’esperimento come non attendibile. La lezione è chiara: manipolare un’IA è possibile, ma non è una strategia scalabile né sostenibile. Il vero vantaggio competitivo non si costruisce infatti con artifici temporanei ma con contenuti autorevoli, aggiornati e coerenti nel tempo. È questa consistenza che convince i modelli più avanzati a considerare un brand come fonte di riferimento. Per le aziende, investire nella reputazione digitale e nella qualità dei contenuti è dunque l’unica via per “entrare” davvero nella conoscenza delle intelligenze artificiali.

Il traffico è ancora una metrica utile?

Per anni, il traffico web è stato il parametro di riferimento per misurare il successo di una strategia digitale. Più visite significava più opportunità di vendita, più lead, più ricavi. Ma nell’era delle risposte generate dall’IA questa equazione rischia di non reggere più. Rand Fishkin, fondatore di SparkToro, l’ha definita senza mezzi termini una vanity metric: il traffico è una metrica di vanità. Con l’affermarsi delle zero-click search, l’utente ottiene la risposta direttamente in pagina (o, sempre più spesso, dall’assistente AI) senza neppure visitare il sito di origine. Ecco perché il numero di visite diventa, di per sé, meno rilevante e ciò che davvero conta è cosa accade dopo: tassi di conversione, richieste di preventivo, acquisti, iscrizioni a una newsletter, sottoscrizioni a un servizio. Per un e-commerce o un’azienda B2B, la metrica chiave non è più il volume di traffico ma la capacità di trasformare ogni interazione in valore concreto. Al contrario, per editori e media digitali il traffico resta vitale, perché alimenta i ricavi pubblicitari. Ma anche in questo settore affidarsi a un’unica fonte di monetizzazione è diventato rischioso: algoritmi, ad-blocker e nuove abitudini di consumo possono erodere in un attimo la base di visite. La parola d’ordine è quindi diversificazione: modelli basati su abbonamenti, contenuti premium, eventi, prodotti a marchio proprio. In un ecosistema digitale sempre più instabile, sopravvive chi non misura solo la quantità di pubblico, ma la qualità della relazione costruita con esso.

Come farsi scegliere da un’IA: linee guida per le aziende

Se la SEO tradizionale puntava tutto sulle keyword, oggi la priorità è ribaltata: presidiare una parola chiave non basta, e bisogna diventare l’autorità riconosciuta su un topic. Oltre alla frequenza di un termine, gli LLM valutano infatti anche la profondità e la coerenza con cui un argomento viene trattato.

Passare da keyword-first a topic-first

Significa sviluppare contenuti che coprono in modo esaustivo un tema, anticipando le domande che l’utente potrebbe porre a un’IA. Non una singola pagina ottimizzata, ma un ecosistema di risorse coerenti che costruiscono autorevolezza.

Costruire autorità tematica

La qualità prevale sulla quantità. Schede prodotto complete, whitepaper, case study e articoli specialistici devono diventare il “corpus” a cui un modello non può non attingere. L’obiettivo è che il brand sia percepito come fonte attendibile a prescindere dal canale.

Curare reputazione e citazioni

Recensioni, menzioni su media di settore, discussioni sui forum: ogni punto di contatto contribuisce a definire l’immagine del brand che un’IA raccoglie e sintetizza. Si passa quindi dalla SEO al vero e proprio reputation management.

Monitorare la presenza negli LLM

Strumenti emergenti permettono di analizzare come un brand viene citato nelle risposte generative. È un campo ancora giovane, ma che offre insight preziosi per correggere e indirizzare la percezione AI.

Affidarsi a competenze consulenziali

Leggere la logica dei modelli e trasformarla in strategia richiede esperienza. Un partner SEO esperto diventa indispensabile per guidare l’azienda nel nuovo scenario dell’AI Search. In sintesi: farsi scegliere da un’IA comporta necessariamente una strategia complessiva che unisca contenuto, reputazione e governance digitale.

Quali next step per le aziende?

La transizione dall’era della SEO tradizionale all’AI Search non è un cambiamento graduale, ma un salto di paradigma che impone alle aziende di muoversi con rapidità e metodo. Quali sono, quindi, le azioni immediate da mettere in campo?

Audit dei contenuti aziendali

La prima domanda da porsi è semplice: i miei contenuti sono percepiti come autorevoli? Un’analisi critica delle risorse già online (come schede prodotto, whitepaper, case study, articoli blog) permette di identificare punti di forza, lacune e aree da arricchire.

Rafforzare il brand positioning

Nell’era degli LLM, la chiarezza conta. Occorre presidiare i temi chiave con una strategia di branding solida, che trasmetta coerenza e autorevolezza in ogni punto di contatto. Il mercato si sta dotando di soluzioni che permettono di tracciare come i chatbot descrivono prodotti e servizi. È un investimento ancora pionieristico, ma essenziale per anticipare criticità e cogliere opportunità.

Prepararsi al quadro normativo

La regolamentazione europea – dal Digital Markets Act alle direttive su AI e data governance – influenzerà inevitabilmente le dinamiche di raccolta e utilizzo dei dati. Essere pronti a gestire questi aspetti significa ridurre i rischi e tutelare la competitività.

Affidarsi a partner specializzati

Interpretare i segnali e trasformarli in strategia non è un esercizio da improvvisare. Affidarsi a un consulente esperto come Naxa significa dotarsi di una bussola per leggere la nuova mappa della visibilità digitale e trasformare l’incertezza in vantaggio competitivo. Contattaci oggi stesso per un confronto con i nostri consulenti.