{"id":12570,"date":"2025-12-16T11:35:30","date_gmt":"2025-12-16T10:35:30","guid":{"rendered":"https:\/\/www.noooagency.com\/?post_type=noooborders&#038;p=12570"},"modified":"2026-01-03T20:36:19","modified_gmt":"2026-01-03T19:36:19","slug":"come-un-prompt-puo-ridurre-la-disinformazione-sui-social","status":"publish","type":"noooborders","link":"https:\/\/www.noooagency.com\/noooborders\/come-un-prompt-puo-ridurre-la-disinformazione-sui-social\/","title":{"rendered":"Come un prompt pu\u00f2 ridurre la disinformazione sui social"},"content":{"rendered":"\n<p>La disinformazione sui social media non prolifera soltanto per la presenza di contenuti falsi, ma per il modo in cui l\u2019attenzione degli utenti viene continuamente sollecitata, frammentata, accelerata. Le strategie oggi pi\u00f9 diffuse per contrastarla si basano su interventi diretti sui contenuti, come il <strong>fact-checking<\/strong> o la penalizzazione algoritmica dei post segnalati. Approcci che la ricerca considera efficaci, ma strutturalmente <strong>fragili.<\/strong> Il volume di contenuti pubblicati ogni minuto rende impraticabile un controllo capillare, mentre piattaforme che adottano crittografia end-to-end o stringenti vincoli sulla privacy limitano ulteriormente ogni forma di moderazione mirata. A questo si sommano crescenti timori di bias, censura e sovra-intervento, ormai approdati anche ai livelli pi\u00f9 alti del dibattito giuridico internazionale.<\/p>\n\n\n\n<p>\u00c8 in questo contesto che, tra il 2021 e il 2023, una serie di studi sperimentali condotti da ricercatori universitari e team di ricerca industriale ha iniziato a spostare il fuoco dell\u2019analisi: non pi\u00f9 cosa viene condiviso, ma <strong>come le persone decidono di condividere.<\/strong> I dati citati in questo articolo derivano da esperimenti randomizzati su larga scala condotti direttamente all\u2019interno di Meta\/Facebook e della piattaforma X, con utenti ignari di partecipare a uno studio, e sono stati sintetizzati in un research brief del <strong>MIT Initiative on the Digital Economy.<\/strong><\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Limiti nella moderazione dei contenuti<\/strong><\/h4>\n\n\n\n<p>Le strategie tradizionali di contrasto alla disinformazione sui social media si fondano su interventi <strong>content-specific<\/strong>: segnalazione dei contenuti, fact-checking, riduzione della visibilit\u00e0 algoritmica dei post considerati falsi o fuorvianti. La letteratura recente ne conferma l\u2019efficacia, ma il problema non \u00e8 pi\u00f9 la validit\u00e0 del metodo, bens\u00ec la sua sostenibilit\u00e0 strutturale. <br><br><strong>Nel 2022, sulle piattaforme Meta\/Facebook venivano pubblicati circa 1,7 milioni di contenuti ogni minuto<\/strong>, un volume che rende impraticabile qualsiasi forma di verifica sistematica e tempestiva. In un simile contesto, anche i sistemi automatizzati faticano a mantenere standard coerenti di accuratezza e intervento.<\/p>\n\n\n\n<p>A questa criticit\u00e0 quantitativa si sommano limiti di natura tecnologica e normativa. Le piattaforme che adottano protocolli di crittografia end-to-end impediscono per definizione l\u2019analisi dei contenuti condivisi, rendendo impossibili interventi mirati senza compromettere la <strong>privacy<\/strong> degli utenti. Parallelamente, una parte significativa dell\u2019opinione pubblica statunitense ha espresso preoccupazioni legate a bias, arbitrariet\u00e0 e over-enforcement nella moderazione dei contenuti, timori che hanno contribuito a portare il tema della responsabilit\u00e0 delle piattaforme e degli Stati davanti alla Corte Suprema degli Stati Uniti.<\/p>\n\n\n\n<p>In questo scenario, il contrasto alla disinformazione smette di essere solo una questione tecnica e diventa un problema di legittimit\u00e0, fiducia e proporzionalit\u00e0 dell\u2019intervento. \u00c8 proprio l\u2019accumularsi di questi limiti che apre lo spazio per approcci alternativi, non basati sull\u2019analisi dei contenuti, ma sul comportamento degli utenti.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1344\" height=\"768\" src=\"https:\/\/www.noooagency.com\/wp-content\/uploads\/2026\/01\/prompt_disinformazione01.png\" alt=\"\" class=\"wp-image-12573\"\/><\/figure>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Prevenzione comportamentale<\/strong><\/h4>\n\n\n\n<p>Le difficolt\u00e0 operative, tecnologiche e politiche degli interventi <strong>content-specific<\/strong> hanno alimentato un crescente interesse verso strategie <strong>content-neutral<\/strong>, progettate per <strong>ridurre la disinformazione prima che questa venga condivisa<\/strong>, senza valutare o etichettare i singoli contenuti. Questo approccio si fonda sul presupposto empirico che la diffusione di informazioni false non dipenda esclusivamente dalle convinzioni profonde degli utenti, ma anche da <strong>momentanee deviazioni dell\u2019attenzione<\/strong> rispetto al criterio di accuratezza.<\/p>\n\n\n\n<p>Un ampio corpus di esperimenti ha mostrato che <strong>interventi neutrali rispetto ai contenuti possono ridurre in modo significativo la propensione a condividere notizie false.<\/strong> Studi precedenti hanno dimostrato che semplici sollecitazioni cognitive, capaci di riportare l\u2019attenzione sull\u2019accuratezza dell\u2019informazione, migliorano la qualit\u00e0 dei contenuti che gli utenti dichiarano di voler condividere. <strong>Una meta-analisi di 20 esperimenti ha rilevato una riduzione del 10% nelle intenzioni di condivisione di titoli falsi quando l\u2019attenzione veniva orientata preventivamente.<\/strong><\/p>\n\n\n\n<p>Tuttavia, questi risultati presentavano un limite cruciale: i partecipanti erano consapevoli di prendere parte a un esperimento. Di conseguenza, mancavano prove concrete sull\u2019efficacia di tali interventi in condizioni reali, su piattaforme operative e su utenti ignari di essere osservati. \u00c8 proprio questo vuoto empirico che ha reso necessario il passaggio dagli studi dichiarativi alle sperimentazioni sul campo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Gli accuracy prompts come intervento sperimentale su larga scala<\/strong><\/h4>\n\n\n\n<p>Per verificare se gli interventi content-neutral potessero funzionare <strong>\u201cin the wild\u201d,<\/strong> sono stati condotti due esperimenti randomizzati su larga scala direttamente all\u2019interno di piattaforme social operative. Al centro di entrambi gli studi vi \u00e8 l\u2019utilizzo degli <strong>accuracy prompts<\/strong>, annunci digitali progettati per ricordare agli utenti, in modo generico e non prescrittivo, l\u2019importanza dell\u2019accuratezza delle informazioni prima della condivisione. Questi messaggi non contengono riferimenti a post specifici n\u00e9 indicazioni su cosa sia vero o falso e si limitano a sollecitare un <strong>criterio cognitivo generale<\/strong>.<\/p>\n\n\n\n<p>Il primo studio sperimentale ha coinvolto <strong>33 milioni di utenti Meta\/Faceboo<\/strong>k, selezionati tramite campionamento casuale. All\u2019interno di questo insieme era presente un sottogruppo di utenti che, prima dell\u2019esperimento, avevano ripetutamente condiviso contenuti etichettati come disinformazione dai fact-checker. Gli utenti sono stati assegnati in modo randomizzato a un gruppo di trattamento e a un gruppo di controllo.<\/p>\n\n\n\n<p>Il gruppo di trattamento \u00e8 stato esposto a tre accuracy prompts distribuiti nell\u2019arco di tre settimane, mostrati in sostituzione delle normali <strong>inserzioni pubblicitarie.<\/strong> Il gruppo di controllo, invece, ha visualizzato esclusivamente annunci standard della piattaforma. All\u2019interno del gruppo di trattamento, gli utenti sono stati ulteriormente suddivisi in base al formato dell\u2019intervento: immagini statiche, video di nove secondi, oppure messaggi differenziati che includevano un\u2019immagine sul pensiero critico, un annuncio in forma di sondaggio o un messaggio che sottolineava l\u2019importanza dell\u2019accuratezza delle notizie.<\/p>\n\n\n\n<p>L\u2019effetto dell\u2019intervento \u00e8 stato misurato in una finestra temporale di 60 minuti successiva alla visualizzazione del primo accuracy prompt, confrontando la probabilit\u00e0 di condivisione di contenuti contenenti disinformazione tra i due gruppi. <strong>I risultati mostrano una riduzione dell\u20191,8% nel numero di utenti che hanno condiviso disinformazione<\/strong> nel gruppo di trattamento rispetto al gruppo di controllo. L\u2019effetto si \u00e8 rivelato coerente tra tutti i formati di accuracy prompt utilizzati.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1344\" height=\"768\" src=\"https:\/\/www.noooagency.com\/wp-content\/uploads\/2026\/01\/prompt_disinformazione04.png\" alt=\"\" class=\"wp-image-12575\"\/><\/figure>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Replicabilit\u00e0 su \u201cX\u201d e riduzione della condivisione di contenuti a bassa qualit\u00e0<\/strong><\/h4>\n\n\n\n<p>Il secondo studio \u00e8 stato condotto sulla piattaforma X tra la fine del 2021 e l\u2019inizio del 2022, con l\u2019obiettivo di verificare se i risultati osservati su Meta\/Facebook fossero replicabili e generalizzabili in un contesto diverso per architettura, pubblico e dinamiche di fruizione. Anche in questo caso, gli utenti sono stati suddivisi in modo randomizzato in gruppi di trattamento e di controllo, senza essere informati di partecipare a un esperimento.<\/p>\n\n\n\n<p>Gli utenti nel gruppo di trattamento sono stati esposti a circa tre accuracy prompt video al giorno per otto giorni consecutivi. Per evitare l\u2019assuefazione e mantenere l\u2019attenzione, la campagna ha utilizzato <strong>50 diversi video<\/strong>. Il gruppo di controllo non ha visualizzato alcun annuncio sperimentale. A differenza del primo studio, questo esperimento ha incluso quattro sotto studi distinti, tre dei quali mirati a utenti altamente attivi che avevano recentemente condiviso link a siti di bassa qualit\u00e0 informativa o contenuti discutibili. Due di questi sotto studi hanno preso di mira utenti statunitensi che avevano condiviso contenuti legati a teorie del \u201cdeep state\u201d, mentre il terzo ha coinvolto utenti canadesi che avevano utilizzato hashtag associati a proteste anti-vaccinazione. Il quarto sotto studio ha invece coinvolto utenti che non avevano condiviso recentemente contenuti problematici, ma lo avevano fatto in passato.<\/p>\n\n\n\n<p>Il comportamento di condivisione \u00e8 stato misurato prima e durante la campagna pubblicitaria. I risultati indicano che gli utenti esposti agli accuracy prompts hanno condiviso il <strong>3,7% in meno di contenuti a bassa qualit\u00e0<\/strong> rispetto al gruppo di controllo. Tuttavia, a causa delle impostazioni di privacy della piattaforma, gli annunci sono stati mostrati solo al 60% degli utenti del gruppo di trattamento. Sulla base di questa limitazione, i ricercatori stimano che, se tutti gli utenti del gruppo di trattamento fossero stati effettivamente esposti agli annunci, la riduzione della condivisione di disinformazione avrebbe raggiunto il<strong> 6,3%.<\/strong><\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Perch\u00e9 gli accuracy prompts funzionano<\/strong><\/h4>\n\n\n\n<p>I risultati dei due esperimenti convergono in quattro conclusioni principali, che definiscono con precisione l\u2019ambito di efficacia degli <strong>accuracy prompts<\/strong> come <strong>strumento di contrasto alla disinformazione<\/strong>. In primo luogo, gli studi dimostrano che semplici sollecitazioni all\u2019accuratezza sono in grado di ridurre la condivisione di disinformazione su piattaforme social diverse. Questo tipo di intervento non richiede alcuna informazione sui contenuti specifici condivisi dagli utenti, superando cos\u00ec sia i limiti di scala sia le problematiche legate alla privacy.<\/p>\n\n\n\n<p>In secondo luogo, gli accuracy prompts non si pongono come alternativa esclusiva agli interventi tradizionali, ma come strumento complementare alle pratiche content-specific, quali il fact-checking e l\u2019identificazione algoritmica dei contenuti problematici. Le riduzioni osservate, comprese tra l\u20191,8% e il 6,3%, risultano coerenti con quanto previsto sulla base della letteratura precedente e assumono rilievo proprio perch\u00e9 ottenute tramite interventi minimi, non intrusivi e facilmente scalabili.<\/p>\n\n\n\n<p>La terza conclusione riguarda la robustezza dei risultati. Nonostante le profonde differenze tra Meta\/Facebook e X in termini di pubblico, interfaccia, formati pubblicitari e durata delle campagne, le risposte comportamentali degli utenti risultano simili, rafforzando l\u2019affidabilit\u00e0 delle evidenze empiriche.<\/p>\n\n\n\n<p>Infine, lo studio evidenzia che l\u2019efficacia degli accuracy prompts dipende da frequenza, variet\u00e0 e targeting. Gli interventi devono essere ripetuti nel tempo e presentati in formati diversificati per evitare l\u2019assuefazione. Soprattutto, risultano pi\u00f9 efficaci quando indirizzati a utenti che hanno condiviso disinformazione in passato. Al contrario, intervenire su utenti non a rischio non \u00e8 solo inefficiente, ma pu\u00f2 generare effetti controproducenti.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1344\" height=\"768\" src=\"https:\/\/www.noooagency.com\/wp-content\/uploads\/2026\/01\/prompt_disinformazione02.png\" alt=\"\" class=\"wp-image-12577\"\/><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>Studi sperimentali condotti su Meta\/Facebook e X mostrano come semplici sollecitazioni cognitive possano ridurre la diffusione della disinformazione sui social media. Spostando l\u2019attenzione dal contenuto al comportamento degli utenti, gli accuracy prompts si rivelano interventi efficaci, scalabili e rispettosi della privacy, aprendo nuove prospettive per affiancare le strategie tradizionali di contrasto alla disinformazione.<\/p>\n","protected":false},"featured_media":12571,"template":"","tags":[],"cat_borders":[270],"class_list":["post-12570","noooborders","type-noooborders","status-publish","has-post-thumbnail","hentry","cat_borders-cultura-e-societa"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.noooagency.com\/en\/wp-json\/wp\/v2\/noooborders\/12570","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.noooagency.com\/en\/wp-json\/wp\/v2\/noooborders"}],"about":[{"href":"https:\/\/www.noooagency.com\/en\/wp-json\/wp\/v2\/types\/noooborders"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.noooagency.com\/en\/wp-json\/wp\/v2\/media\/12571"}],"wp:attachment":[{"href":"https:\/\/www.noooagency.com\/en\/wp-json\/wp\/v2\/media?parent=12570"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.noooagency.com\/en\/wp-json\/wp\/v2\/tags?post=12570"},{"taxonomy":"cat_borders","embeddable":true,"href":"https:\/\/www.noooagency.com\/en\/wp-json\/wp\/v2\/cat_borders?post=12570"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}