Un anno di Intelligenza Artificiale secondo il rapporto 2025 di Aspen Institute Italia

Il 2025 viene descritto come un anno di maturazione, in cui convergono competizione geopolitica, avanzamento tecnico, investimenti massicci e prime evidenze sui limiti economici reali dell’IA.

  • Cultura e società
  • Tecnologia e Innovazione
ReportAI_cover
15 Gennaio, 2026

L’Intelligenza Artificiale non è più descritta ormai come una promessa futura o come una semplice estensione dei processi di automazione. Il Rapporto Intelligenza Artificiale 2025 dell’Osservatorio Permanente sull’Adozione e l’Integrazione dell’IA (IA2), curato da Aspen Institute Italia, la inquadra esplicitamente come una infrastruttura strategica capace di incidere sulle dinamiche economiche, industriali, sociali e geopolitiche globali.

Il documento si fonda su un’analisi multidisciplinare che integra dati economici, valutazioni tecnologiche, contributi accademici, casi settoriali e risultati di un questionario rivolto alle imprese. Le informazioni raccolte riflettono lo stato dell’arte dell’adozione dell’IA fino al 3 giugno 2025, con l’obiettivo dichiarato di superare tanto l’entusiasmo acritico quanto il catastrofismo. Il Rapporto nasce dalla consapevolezza che l’adozione dell’IA non rappresenta più un’opzione sperimentale, ma una necessità strategica per governi, istituzioni e imprese, e che la sua integrazione produce effetti che vanno oltre l’efficienza operativa. In questo senso, il 2025 viene descritto come un anno di maturazione, in cui convergono competizione geopolitica, avanzamento tecnico, investimenti massicci e prime evidenze sui limiti economici reali dell’IA.

Cina e USA in testa. Ma l’Europa è più attenta alla sostenibilità sociale

Il Rapporto Intelligenza Artificiale 2025 descrive l’adozione dell’IA come un processo ormai strutturale ma fortemente disomogeneo, sia a livello geografico sia settoriale. L’analisi evidenzia come Stati Uniti e Cina continuino a rappresentare i poli principali dello sviluppo e dell’implementazione dell’intelligenza artificiale, grazie a un ecosistema caratterizzato da ingenti investimenti privati, ampia disponibilità di dati, capacità computazionale e presenza di grandi attori tecnologici verticalmente integrati.

L’Europa si colloca in una posizione differente. Il Rapporto sottolinea come il continente presenti un ritmo di adozione più graduale, condizionato da una maggiore attenzione agli aspetti regolatori, alla tutela dei diritti fondamentali e alla sostenibilità sociale delle tecnologie. Questo approccio, pur comportando tempi più lunghi di implementazione, viene descritto come coerente con un modello di sviluppo che mira a integrare l’IA nei processi produttivi senza rinunciare a principi di responsabilità e trasparenza.

I settori con maggiore implementazione di tecnologie AI

Dal punto di vista settoriale, il documento rileva una maggiore diffusione dell’IA nei comparti ad alta intensità di dati e capitale tecnologico, come l’industria manifatturiera, la finanza, la logistica, l’energia e i servizi digitali. Parallelamente, il Rapporto segnala come l’adozione nelle piccole e medie imprese risulti ancora frammentata, spesso limitata a sperimentazioni puntuali o a soluzioni acquistate saltuariamente da fornitori esterni, piuttosto che a integrazioni profonde nei processi organizzativi.

L’insieme di questi elementi restituisce l’immagine di un’adozione non lineare, in cui la diffusione dell’intelligenza artificiale procede per accelerazioni asimmetriche, riflettendo differenze di contesto economico, capacità industriale e strategie politiche.

Investimenti, mercato e concentrazione: la struttura economica dell’intelligenza artificiale

Il mercato dell’intelligenza artificiale viene descritto come un ecosistema in forte espansione, caratterizzato da investimenti crescenti e da una struttura sempre più concentrata lungo l’intera catena del valore. Gli Stati Uniti accelerano attraverso consorzi privati e grandi piattaforme tecnologiche, mentre la Cina punta su un modello più centralizzato e su politiche di autosufficienza tecnologica con orizzonte 2030. L’Unione Europea, invece, si colloca in una posizione intermedia, orientata alla regolazione e al sostegno industriale, con l’iniziativa InvestAI, che prevede la mobilitazione di 200 miliardi di euro, di cui 20 miliardi destinati alle AI Giga Factories per le infrastrutture industriali.

La concentrazione economica emerge con particolare evidenza analizzando la struttura a cinque layer dell’ecosistema dell’IA: hardware, cloud computing, dati, foundation models e applicazioni.

Il mercato dei chip per l’IA, cruciale per l’addestramento e l’inferenza dei modelli, è altamente concentrato e soggetto a tensioni geopolitiche; allo stesso modo, il cloud computing è controllato da un numero ristretto di operatori tra cui AWS, Microsoft Azure, Google Cloud e Alibaba Cloud che determinano di fatto chi può operare su larga scala con modelli avanzati. Questa configurazione rafforza modelli di integrazione verticale, in cui pochi soggetti presidiano simultaneamente infrastrutture, dati e modelli pre-addestrati come GPT, LLaMA, Claude e Gemini.

Sul piano degli investimenti aziendali, i dati raccolti attraverso il questionario mostrano una distribuzione eterogenea ma indicativa di una fase di maturazione. Il 21,4% delle imprese dichiara investimenti compresi tra 50.000 e 250.000 euro, un ulteriore 21,4% ha superato il milione di euro, mentre il 16,7% si colloca nella fascia tra 250.000 e 1 milione di euro. Permane una quota di aziende con investimenti ancora limitati di cui il 19% sotto i 50.000 euro e una percentuale non trascurabile che non dispone di una stima precisa degli importi investiti.

Nel prossimo triennio, oltre il 70% delle imprese prevede un aumento degli investimenti in IA: il 43% in modo significativo e il 31% in modo moderato; solo il 2% esclude nuovi investimenti.

Il finanziamento dell’IA avviene prevalentemente tramite risorse interne. Il 71% delle aziende utilizza fondi propri, mentre solo l’8,3% ricorre a finanziamenti pubblici o venture capital. Le partnership con centri di ricerca coinvolgono il 12,5% delle imprese, segnalando un modello collaborativo ancora minoritario. Questo assetto contribuisce a rafforzare una tensione strutturale tra accessibilità e dipendenza: se da un lato l’IA viene sempre più offerta come servizio, dall’altro l’accesso alle tecnologie più avanzate resta mediato da barriere economiche, infrastrutturali e strategiche che ridisegnano i rapporti di forza tra imprese, settori e aree geografiche.

Lavoro, competenze e organizzazione: come l’AI sta ridisegnando le professioni

L’integrazione dell’intelligenza artificiale nei contesti produttivi produce effetti diretti e misurabili sull’organizzazione del lavoro, sulle competenze richieste e sulla struttura delle professioni. L’analisi mostra come l’IA non venga percepita prevalentemente come tecnologia sostitutiva, ma come strumento di supporto ai processi decisionali, operativi e creativi, con impatti differenziati a seconda dei settori e delle funzioni aziendali coinvolte.

I dati raccolti indicano che l’adozione dell’IA interessa in modo prioritario le aree legate all’analisi dei dati, all’automazione dei processi ripetitivi, alla gestione delle informazioni e al supporto alle decisioni strategiche. Le funzioni più coinvolte risultano essere IT, operations, marketing, customer care e controllo di gestione. In questo contesto, la maggioranza delle imprese dichiara che l’IA non ha ancora comportato riduzioni significative dell’occupazione, mentre emergono segnali chiari di trasformazione delle mansioni e di riallocazione delle attività a maggior valore aggiunto.

Sul piano delle competenze, il Rapporto evidenzia un divario strutturale tra velocità di adozione tecnologica e capacità di aggiornamento del capitale umano. Una quota rilevante delle imprese segnala difficoltà nel reperire profili adeguatamente formati. Le competenze più richieste riguardano data analysis, machine learning, cybersecurity, gestione dei sistemi di IA e capacità di integrazione tra competenze tecniche e conoscenza dei processi aziendali. Accanto alle competenze specialistiche, cresce l’importanza delle competenze trasversali, in particolare la capacità di interpretare i risultati prodotti dai sistemi di IA e di assumerne la responsabilità decisionale.

Dal punto di vista organizzativo, l’adozione dell’IA procede prevalentemente attraverso strutture ibride, in cui team tecnici e funzioni di business collaborano senza una piena integrazione dei modelli operativi. Solo una parte delle imprese dichiara di aver avviato percorsi strutturati di formazione interna, mentre la formazione esterna e le partnership con università e centri di ricerca restano limitate. Questo elemento contribuisce a rafforzare il rischio di una diffusione disomogenea delle competenze, con effetti potenzialmente amplificativi delle disuguaglianze tra imprese grandi e piccole.

Nel complesso, l’impatto dell’intelligenza artificiale sul lavoro viene descritto come evolutivo più che distruttivo, ma fortemente dipendente dalle scelte organizzative e dagli investimenti in formazione.

Contenuti creativi e AI generativa

L’uso dell’intelligenza artificiale generativa emerge come uno degli ambiti di applicazione più rapidi e trasversali, con un impatto diretto sui processi di produzione creativa, comunicazione e gestione dei contenuti. L’analisi mostra come l’AI venga impiegata prevalentemente come strumento di supporto alla creazione, più che come sostituto dell’autorialità umana, intervenendo nelle fasi di ideazione, prototipazione, editing e personalizzazione dei contenuti.

I principali ambiti di utilizzo riguardano la generazione di testi, immagini, video e contenuti multimediali, con applicazioni diffuse nel marketing, nella comunicazione aziendale, nei media digitali e nelle industrie culturali. L’adozione dell’IA generativa consente una riduzione significativa dei tempi di produzione e un aumento della scalabilità dei contenuti, soprattutto nei contesti in cui è richiesta un’elevata personalizzazione o una produzione continua. Tuttavia, il Rapporto segnala come l’effettiva integrazione nei flussi di lavoro resti spesso parziale, limitata a singole funzioni o a strumenti stand-alone.

Sul piano organizzativo, l’IA generativa viene utilizzata principalmente da team di comunicazione, marketing e design, spesso senza una governance centralizzata o linee guida condivise. Questo approccio incrementale favorisce la sperimentazione, ma espone le organizzazioni a rischi legati alla qualità dei contenuti, alla coerenza del brand e alla gestione dei diritti. In particolare, il tema del copyright emerge come uno dei nodi più rilevanti. L’assenza di un quadro normativo consolidato sulla titolarità delle opere generate o co-generate dall’IA genera incertezza sia per le imprese sia per i professionisti creativi.

Il Rapporto evidenzia inoltre una tensione crescente tra accessibilità tecnologica e valorizzazione economica della creatività. Se da un lato l’IA abbassa le barriere di ingresso alla produzione di contenuti, dall’altro rischia di comprimere il valore economico delle competenze creative, soprattutto in assenza di modelli chiari di remunerazione e riconoscimento del contributo umano.


In questo contesto, la creatività viene ridefinita come capacità di direzione, selezione e interpretazione, piuttosto di una mera esecuzione tecnica.

Nel complesso, l’IA generativa viene descritta come un fattore di trasformazione profonda delle filiere creative, capace di ampliare le possibilità espressive e produttive, ma anche di accentuare criticità già presenti nei mercati culturali.

Governance e regolazione dell’intelligenza artificiale: modelli, livelli e criticità applicative

La governance dell’intelligenza artificiale viene affrontata come una questione strutturale, che accompagna l’adozione tecnologica lungo tutta la filiera economica e sociale. L’analisi mette in evidenza come l’evoluzione dell’IA stia imponendo un ripensamento dei modelli regolatori tradizionali, chiamati a confrontarsi con tecnologie general-purpose caratterizzate da rapida diffusione, opacità dei processi decisionali e impatti trasversali su settori diversi.

Nel contesto europeo, il riferimento centrale è l’AI Act, descritto come il primo tentativo organico di regolazione dell’intelligenza artificiale su larga scala. Il Rapporto ricostruisce l’impianto basato su un approccio risk-based, che distingue le applicazioni in funzione del livello di rischio, introducendo obblighi crescenti di trasparenza, tracciabilità e controllo per i sistemi considerati ad alto rischio. Questo modello mira a bilanciare tutela dei diritti fondamentali, sicurezza e innovazione, ma presenta criticità applicative legate alla complessità dei requisiti, ai costi di compliance e alla capacità delle imprese di adeguarsi ai nuovi obblighi.

Accanto al modello europeo, vengono analizzati gli approcci adottati da Stati Uniti e Cina, che si collocano su traiettorie differenti. Negli Stati Uniti prevale una strategia frammentata, basata su linee guida settoriali, interventi delle agenzie federali e autoregolazione, con un forte ruolo del mercato e degli attori privati. La Cina, invece, adotta un modello più centralizzato, in cui la regolazione dell’IA è strettamente integrata con obiettivi di sicurezza nazionale, controllo dei dati e sviluppo industriale, attraverso norme specifiche su algoritmi, contenuti e utilizzo dei dati.

Il Rapporto sottolinea come, a fronte di questa pluralità di modelli, emerga la necessità di una governance multilivello, capace di coordinare interventi sovranazionali, nazionali e settoriali. In particolare, viene evidenziato il ruolo delle istituzioni pubbliche nel promuovere standard condivisi, sostenere la diffusione delle competenze regolatorie e accompagnare le imprese nei processi di adeguamento normativo. Senza un supporto strutturato, il rischio è che la regolazione diventi un fattore di freno all’adozione, anziché essere strumento di abilitazione.

Impatti sociali e responsabilità nell’uso dell’AI

L’analisi degli impatti sociali ed etici dell’intelligenza artificiale si concentra sui rischi sistemici che accompagnano una diffusione rapida e spesso non omogenea delle tecnologie. Il Rapporto evidenzia come tali rischi non derivino esclusivamente da malfunzionamenti tecnici, ma da modalità di progettazione, addestramento e utilizzo che riflettono asimmetrie di potere, disponibilità dei dati e scelte organizzative.

Tra i principali ambiti critici viene segnalata la presenza di bias algoritmici, riconducibili alla qualità e alla rappresentatività dei dati utilizzati per l’addestramento dei modelli. Questi bias possono tradursi in effetti discriminatori nei contesti di selezione del personale, valutazione del credito, accesso ai servizi e produzione di contenuti informativi. Il Rapporto sottolinea come tali distorsioni non siano un’anomalia marginale, ma un rischio strutturale che richiede interventi sistematici di monitoraggio, audit e correzione.

Un ulteriore nodo riguarda la trasparenza dei sistemi di IA, in particolare di quelli basati su modelli complessi e opachi. La difficoltà di ricostruire i processi decisionali limita la possibilità di attribuire responsabilità, soprattutto nei casi in cui l’AI supporti o influenzi decisioni ad alto impatto sociale. Questo elemento assume particolare rilevanza nei settori regolati e nei servizi pubblici, dove la tracciabilità delle decisioni è un requisito essenziale.

Il Rapporto affronta anche il tema della disinformazione, evidenziando come l’AI generativa possa amplificare la produzione e la diffusione di contenuti falsi o manipolativi, abbassando i costi di creazione e aumentando la velocità di circolazione delle informazioni. Questo fenomeno viene descritto come una sfida non solo tecnologica, ma culturale e istituzionale, che richiede interventi coordinati su educazione digitale, responsabilità delle piattaforme e strumenti di verifica.

Dal punto di vista della sicurezza, emergono preoccupazioni legate all’uso improprio dei sistemi di IA, alla vulnerabilità delle infrastrutture e alla possibilità di utilizzi malevoli. Il Rapporto sottolinea la necessità di integrare la gestione del rischio fin dalle fasi di progettazione, adottando approcci di risk management continui piuttosto che interventi correttivi ex post.

Nel complesso, l’etica dell’intelligenza artificiale viene trattata come una dimensione operativa e non astratta, strettamente connessa alle pratiche di sviluppo, alle scelte di governance e ai modelli di responsabilità adottati dalle organizzazioni. La capacità di riconoscere e gestire questi rischi emerge come un fattore determinante per un’integrazione dell’AI compatibile con obiettivi di equità, affidabilità e sostenibilità sociale.

More from Nooo