Come un prompt può ridurre la disinformazione sui social

Studi sperimentali condotti su Meta/Facebook e X mostrano come semplici sollecitazioni cognitive possano ridurre la diffusione della disinformazione sui social media. Spostando l’attenzione dal contenuto al comportamento degli utenti, gli accuracy prompts si rivelano interventi efficaci, scalabili e rispettosi della privacy, aprendo nuove prospettive per affiancare le strategie tradizionali di contrasto alla disinformazione.

  • Cultura e società
  • Social Media
prompt_disinformazione06
16 Dicembre, 2025

La disinformazione sui social media non prolifera soltanto per la presenza di contenuti falsi, ma per il modo in cui l’attenzione degli utenti viene continuamente sollecitata, frammentata, accelerata. Le strategie oggi più diffuse per contrastarla si basano su interventi diretti sui contenuti, come il fact-checking o la penalizzazione algoritmica dei post segnalati. Approcci che la ricerca considera efficaci, ma strutturalmente fragili. Il volume di contenuti pubblicati ogni minuto rende impraticabile un controllo capillare, mentre piattaforme che adottano crittografia end-to-end o stringenti vincoli sulla privacy limitano ulteriormente ogni forma di moderazione mirata. A questo si sommano crescenti timori di bias, censura e sovra-intervento, ormai approdati anche ai livelli più alti del dibattito giuridico internazionale.

È in questo contesto che, tra il 2021 e il 2023, una serie di studi sperimentali condotti da ricercatori universitari e team di ricerca industriale ha iniziato a spostare il fuoco dell’analisi: non più cosa viene condiviso, ma come le persone decidono di condividere. I dati citati in questo articolo derivano da esperimenti randomizzati su larga scala condotti direttamente all’interno di Meta/Facebook e della piattaforma X, con utenti ignari di partecipare a uno studio, e sono stati sintetizzati in un research brief del MIT Initiative on the Digital Economy.

Limiti nella moderazione dei contenuti

Le strategie tradizionali di contrasto alla disinformazione sui social media si fondano su interventi content-specific: segnalazione dei contenuti, fact-checking, riduzione della visibilità algoritmica dei post considerati falsi o fuorvianti. La letteratura recente ne conferma l’efficacia, ma il problema non è più la validità del metodo, bensì la sua sostenibilità strutturale.

Nel 2022, sulle piattaforme Meta/Facebook venivano pubblicati circa 1,7 milioni di contenuti ogni minuto, un volume che rende impraticabile qualsiasi forma di verifica sistematica e tempestiva. In un simile contesto, anche i sistemi automatizzati faticano a mantenere standard coerenti di accuratezza e intervento.

A questa criticità quantitativa si sommano limiti di natura tecnologica e normativa. Le piattaforme che adottano protocolli di crittografia end-to-end impediscono per definizione l’analisi dei contenuti condivisi, rendendo impossibili interventi mirati senza compromettere la privacy degli utenti. Parallelamente, una parte significativa dell’opinione pubblica statunitense ha espresso preoccupazioni legate a bias, arbitrarietà e over-enforcement nella moderazione dei contenuti, timori che hanno contribuito a portare il tema della responsabilità delle piattaforme e degli Stati davanti alla Corte Suprema degli Stati Uniti.

In questo scenario, il contrasto alla disinformazione smette di essere solo una questione tecnica e diventa un problema di legittimità, fiducia e proporzionalità dell’intervento. È proprio l’accumularsi di questi limiti che apre lo spazio per approcci alternativi, non basati sull’analisi dei contenuti, ma sul comportamento degli utenti.

Prevenzione comportamentale

Le difficoltà operative, tecnologiche e politiche degli interventi content-specific hanno alimentato un crescente interesse verso strategie content-neutral, progettate per ridurre la disinformazione prima che questa venga condivisa, senza valutare o etichettare i singoli contenuti. Questo approccio si fonda sul presupposto empirico che la diffusione di informazioni false non dipenda esclusivamente dalle convinzioni profonde degli utenti, ma anche da momentanee deviazioni dell’attenzione rispetto al criterio di accuratezza.

Un ampio corpus di esperimenti ha mostrato che interventi neutrali rispetto ai contenuti possono ridurre in modo significativo la propensione a condividere notizie false. Studi precedenti hanno dimostrato che semplici sollecitazioni cognitive, capaci di riportare l’attenzione sull’accuratezza dell’informazione, migliorano la qualità dei contenuti che gli utenti dichiarano di voler condividere. Una meta-analisi di 20 esperimenti ha rilevato una riduzione del 10% nelle intenzioni di condivisione di titoli falsi quando l’attenzione veniva orientata preventivamente.

Tuttavia, questi risultati presentavano un limite cruciale: i partecipanti erano consapevoli di prendere parte a un esperimento. Di conseguenza, mancavano prove concrete sull’efficacia di tali interventi in condizioni reali, su piattaforme operative e su utenti ignari di essere osservati. È proprio questo vuoto empirico che ha reso necessario il passaggio dagli studi dichiarativi alle sperimentazioni sul campo.

Gli accuracy prompts come intervento sperimentale su larga scala

Per verificare se gli interventi content-neutral potessero funzionare “in the wild”, sono stati condotti due esperimenti randomizzati su larga scala direttamente all’interno di piattaforme social operative. Al centro di entrambi gli studi vi è l’utilizzo degli accuracy prompts, annunci digitali progettati per ricordare agli utenti, in modo generico e non prescrittivo, l’importanza dell’accuratezza delle informazioni prima della condivisione. Questi messaggi non contengono riferimenti a post specifici né indicazioni su cosa sia vero o falso e si limitano a sollecitare un criterio cognitivo generale.

Il primo studio sperimentale ha coinvolto 33 milioni di utenti Meta/Facebook, selezionati tramite campionamento casuale. All’interno di questo insieme era presente un sottogruppo di utenti che, prima dell’esperimento, avevano ripetutamente condiviso contenuti etichettati come disinformazione dai fact-checker. Gli utenti sono stati assegnati in modo randomizzato a un gruppo di trattamento e a un gruppo di controllo.

Il gruppo di trattamento è stato esposto a tre accuracy prompts distribuiti nell’arco di tre settimane, mostrati in sostituzione delle normali inserzioni pubblicitarie. Il gruppo di controllo, invece, ha visualizzato esclusivamente annunci standard della piattaforma. All’interno del gruppo di trattamento, gli utenti sono stati ulteriormente suddivisi in base al formato dell’intervento: immagini statiche, video di nove secondi, oppure messaggi differenziati che includevano un’immagine sul pensiero critico, un annuncio in forma di sondaggio o un messaggio che sottolineava l’importanza dell’accuratezza delle notizie.

L’effetto dell’intervento è stato misurato in una finestra temporale di 60 minuti successiva alla visualizzazione del primo accuracy prompt, confrontando la probabilità di condivisione di contenuti contenenti disinformazione tra i due gruppi. I risultati mostrano una riduzione dell’1,8% nel numero di utenti che hanno condiviso disinformazione nel gruppo di trattamento rispetto al gruppo di controllo. L’effetto si è rivelato coerente tra tutti i formati di accuracy prompt utilizzati.

Replicabilità su “X” e riduzione della condivisione di contenuti a bassa qualità

Il secondo studio è stato condotto sulla piattaforma X tra la fine del 2021 e l’inizio del 2022, con l’obiettivo di verificare se i risultati osservati su Meta/Facebook fossero replicabili e generalizzabili in un contesto diverso per architettura, pubblico e dinamiche di fruizione. Anche in questo caso, gli utenti sono stati suddivisi in modo randomizzato in gruppi di trattamento e di controllo, senza essere informati di partecipare a un esperimento.

Gli utenti nel gruppo di trattamento sono stati esposti a circa tre accuracy prompt video al giorno per otto giorni consecutivi. Per evitare l’assuefazione e mantenere l’attenzione, la campagna ha utilizzato 50 diversi video. Il gruppo di controllo non ha visualizzato alcun annuncio sperimentale. A differenza del primo studio, questo esperimento ha incluso quattro sotto studi distinti, tre dei quali mirati a utenti altamente attivi che avevano recentemente condiviso link a siti di bassa qualità informativa o contenuti discutibili. Due di questi sotto studi hanno preso di mira utenti statunitensi che avevano condiviso contenuti legati a teorie del “deep state”, mentre il terzo ha coinvolto utenti canadesi che avevano utilizzato hashtag associati a proteste anti-vaccinazione. Il quarto sotto studio ha invece coinvolto utenti che non avevano condiviso recentemente contenuti problematici, ma lo avevano fatto in passato.

Il comportamento di condivisione è stato misurato prima e durante la campagna pubblicitaria. I risultati indicano che gli utenti esposti agli accuracy prompts hanno condiviso il 3,7% in meno di contenuti a bassa qualità rispetto al gruppo di controllo. Tuttavia, a causa delle impostazioni di privacy della piattaforma, gli annunci sono stati mostrati solo al 60% degli utenti del gruppo di trattamento. Sulla base di questa limitazione, i ricercatori stimano che, se tutti gli utenti del gruppo di trattamento fossero stati effettivamente esposti agli annunci, la riduzione della condivisione di disinformazione avrebbe raggiunto il 6,3%.

Perché gli accuracy prompts funzionano

I risultati dei due esperimenti convergono in quattro conclusioni principali, che definiscono con precisione l’ambito di efficacia degli accuracy prompts come strumento di contrasto alla disinformazione. In primo luogo, gli studi dimostrano che semplici sollecitazioni all’accuratezza sono in grado di ridurre la condivisione di disinformazione su piattaforme social diverse. Questo tipo di intervento non richiede alcuna informazione sui contenuti specifici condivisi dagli utenti, superando così sia i limiti di scala sia le problematiche legate alla privacy.

In secondo luogo, gli accuracy prompts non si pongono come alternativa esclusiva agli interventi tradizionali, ma come strumento complementare alle pratiche content-specific, quali il fact-checking e l’identificazione algoritmica dei contenuti problematici. Le riduzioni osservate, comprese tra l’1,8% e il 6,3%, risultano coerenti con quanto previsto sulla base della letteratura precedente e assumono rilievo proprio perché ottenute tramite interventi minimi, non intrusivi e facilmente scalabili.

La terza conclusione riguarda la robustezza dei risultati. Nonostante le profonde differenze tra Meta/Facebook e X in termini di pubblico, interfaccia, formati pubblicitari e durata delle campagne, le risposte comportamentali degli utenti risultano simili, rafforzando l’affidabilità delle evidenze empiriche.

Infine, lo studio evidenzia che l’efficacia degli accuracy prompts dipende da frequenza, varietà e targeting. Gli interventi devono essere ripetuti nel tempo e presentati in formati diversificati per evitare l’assuefazione. Soprattutto, risultano più efficaci quando indirizzati a utenti che hanno condiviso disinformazione in passato. Al contrario, intervenire su utenti non a rischio non è solo inefficiente, ma può generare effetti controproducenti.

More from Nooo