Negli ultimi anni si è verificata una trasformazione strutturale nel modo in cui le persone accedono alle informazioni online. Le analisi condotte dagli osservatori internazionali sul comportamento in ricerca mostrano che una quota crescente di interrogazioni termina senza che l’utente visiti alcun sito esterno. Se le piattaforme trattengono l’utente all’interno della risposta conversazionale, quale spazio economico e informativo resta per chi produce i contenuti che alimentano l’ecosistema del web?
La fine del click
L’integrazione delle interfacce conversazionali nei motori di ricerca, in particolare Google Search Generative Experience e il nuovo Bing potenziato da modelli linguistici, hanno introdotto un cambiamento radicale nella fruizione dell’informazione online. I sistemi generano risposte complete all’interno della pagina di ricerca, riducendo il bisogno di visitare i siti esterni. Studi precedenti all’adozione massiva dell’AI avevano già mostrato la tendenza: nel 2022 il 57% delle ricerche su Google terminava senza alcun click verso pagine terze, un valore rilevato da SparkToro e SimilarWeb. L’estensione dell’AI generativa a livello di interfaccia amplifica questa dinamica, perché il contenuto necessario viene presentato direttamente nel motore di ricerca.
Le analisi pubblicate da Gartner e Forrester tra il 2023 e il 2024 confermano che i modelli conversazionali riducono l’intermediazione dei siti web perché spesso l’utente preferisce un’unica sintesi, senza necessità di approfondire con link aggiuntivi. Parallelamente, cresce il volume di dati utilizzati per addestrare i modelli generativi, mentre diminuisce la visibilità delle fonti originarie citate o collegate all’interno dei risultati.

Dati su traffico, editoria e ricerca online
Una parte consistente dell’economia dei media dipenda dal flusso proveniente dai motori di ricerca e circa il 40% del traffico dei principali siti d’informazione arriva da Google. Dopo i primi test con le AI Overview, diversi siti hanno registrato una perdita media di circa il 50% dei clic, con una riduzione particolarmente evidente nelle ricerche informative.
Si segnalano cali stimati tra il 70 e l’80% dei clic verso gli articoli originali, soprattutto nei casi in cui le sintesi generate risultano già “complete” secondo il lettore.
Un’inchiesta di Wired Italia conferma la tendenza. Nelle simulazioni condotte su query informative, culturali e scientifiche, l’AI integrata nella ricerca ha ridotto fra il 20 e il 40% il traffico verso alcune delle principali testate italiane e internazionali. I siti verticali risultano particolarmente colpiti, perché competono direttamente con risposte sintetiche che concentrano l’attenzione dell’utente nella pagina dei risultati.
Tech4Future, in un’analisi sul funzionamento di Google AI Mode, riporta scenari ancora più estremi nelle situazioni in cui l’utente utilizza in modo intensivo l’interfaccia conversazionale. In questi casi, fino al 90% delle ricerche può concludersi senza alcun clic esterno. Il motore di ricerca diventa così un ambiente “chiuso”, in cui contenuto, sintetizzazione e consumo avvengono senza rimandare a fonti terze.

La guerra per i dati
La trasformazione imposta dalle AI conversazionali non riguarda solo il traffico web, ma sta ridisegnando l’intero equilibrio dell’economia digitale. La progressiva integrazione delle risposte generate nei motori di ricerca sta inaugurando una fase di “centralizzazione totale dell’accesso informativo”, in cui pochi operatori controllano non solo l’infrastruttura tecnologica, ma anche il flusso cognitivo che guida la scelta degli utenti.
La struttura stessa della ricerca online sta diventando opaca. L’utente non vede più la provenienza delle informazioni, non valuta alternative, non distingue tra fonti primarie e contenuti generati. Il motore di ricerca assume il ruolo di intermediario assoluto e non trasparente, capace di selezionare, riscrivere e sintetizzare l’informazione senza rendere chiaro il processo.

Il rischio di black box cognitiva
Di fatto nasce una “black box cognitiva”, in cui il motore non si limita a suggerire informazioni, ma le ricostruisce autonomamente, trasformandosi in un autore invisibile che riorganizza la conoscenza pubblica. L’utente non ha più modo di verificare se la sintesi proposta rifletta il consenso scientifico o un semplice assemblaggio statistico di testi. Le risposte AI possono enfatizzare contenuti presenti nei dataset di addestramento anche se non aggiornati, non contestualizzati o privi di rigore metodologico.
Inoltre, la centralizzazione della ricerca nelle interfacce conversazionali riduce drasticamente la pluralità delle interpretazioni disponibili. Se il web aperto offriva dieci, cento o mille prospettive, l’AI tende a restituire un’unica risposta sintetica, percepita come “definitiva”. Questo processo non solo appiattisce la complessità, ma crea un ambiente in cui la manipolazione, intenzionale o accidentale, può avvenire su larga scala senza che l’utente se ne accorga.
Il problema delle “allucinazioni” IA
I modelli integrati nei motori di ricerca non forniscono l’elenco completo dei documenti impiegati per generare una risposta, né indicano il peso attribuito a ciascuna fonte. In assenza di trasparenza, l’utente non può stabilire se la sintesi restituita rifletta effettivamente la letteratura più aggiornata o se derivi da frammenti prelevati da dataset parziali o datati. Non essendoci citazioni puntuali, non è possibile distinguere tra un’informazione consolidata e un contenuto estratto da fonti marginali, blog personali, testi senza peer review o materiali che riflettono bias del dataset di addestramento.
La situazione è aggravata dal fatto che le AI non si limitano a recuperare informazioni esistenti, ma le riformulano. Questo significa che anche quando la fonte è autorevole, la risposta finale può risultare deformata dal processo di sintesi, con perdita di sfumature, omissioni di contesto o semplificazioni eccessive. In alcuni casi, l’utente può ricevere una risposta plausibile ma non aderente al consenso scientifico o ai contenuti realmente pubblicati dalle fonti originarie.
Ricircolo informativo e uniformità dei contenuti
Un ulteriore elemento problematico riguarda la sovrapposizione crescente tra contenuti generati e contenuti originali. Con la diffusione massiva dell’AI Mode, i motori potrebbero attingere a testi che sono già il risultato di un’elaborazione algoritmica, generando un effetto di “ricircolo informativo” dove le stesse informazioni, anche se imprecise, vengono replicate e amplificate senza possibilità di tracciarne la provenienza iniziale.
Se questo modello dovesse diventare preminente nei prossimi anni, la verifica delle fonti, pilastro del metodo scientifico e del giornalismo, rischierebbe di essere sostituita da un sistema di fiducia cieca nell’output dell’algoritmo. E se la ricerca diventa una conversazione gestita dall’AI, la struttura stessa del Web come spazio pluralistico rischia di essere compromessa. La diversità delle voci viene compressa in un unico output. La possibilità di accedere a fonti alternative diventa residuale, sostituita da un’interfaccia che privilegia la sintesi rispetto alla complessità. Senza pluralismo nella ricerca, la qualità del dibattito pubblico e della cultura digitale si indebolisce.
Se questo processo dovesse consolidarsi, i motori di ricerca potrebbero cessare di essere piattaforme di accesso universale alla conoscenza, diventando invece generatori di sintesi unificate, fortemente mediate e potenzialmente orientate.