Artificial intelligence has the capacity to reshape economic systems, decision-making processes, markets, and public functions. Its accelerated development raises concerns regarding institutional ability to regulate such transformation while safeguarding fundamental rights, ensuring security, and supporting innovation. Within this context, the European Union has adopted a risk-based regulatory framework through the AI Act, which imposes varying obligations depending on the potential impact of AI systems. This precautionary approach differs markedly from both the United States’ model – characterized by free-market dynamics and public investment – and China’s state-driven model of direct control. The EU seeks to balance digital market integration with the protection of constitutional values, but its framework risks excessive rigidity, potentially discouraging investment and technological deployment. In the Italian context, the proposed Law No. 1146/2024 aims to promote national technological development yet reveals tensions with the EU legal framework and the limited industrial capacity of the domestic market. The invocation of “digital sovereignty” sometimes translates into regulatory burdens that may hinder AI adoption in the public sector and impede innovation. Overall, the analysis underscores a structural inconsistency between the risk-averse orientation of the AI Act and the European Union’s recent shift toward more flexible state aid policies supporting research and technological advancement. Without a coherent alignment between regulation and economic planning, Europe may struggle to assert leadership in the global race to develop and govern frontier technologies such as artificial intelligence.

L’intelligenza artificiale ha già dimostrato di essere una tecnologia che ha il potenziale di riconfigurare strutturalmente sistemi economici, processi decisionali, mercati e funzioni pubbliche. Il suo rapido sviluppo solleva interrogativi sulla capacità delle istituzioni di regolarne l’evoluzione in modo da conciliare la tutela dei diritti fondamentali cona la sicurezza e la promozione dell’innovazione. In tale prospettiva, l’Unione Europea ha adottato un approccio fondato sulla classificazione del rischio, formalizzato nell’AI Act, che introduce obblighi differenziati a seconda dell’impatto potenziale dei sistemi di IA. Questo modello regolatorio, di tipo prudenziale, si distingue sia dalla strategia statunitense, basata su libertà d’impresa e incentivi pubblici, sia da quella cinese, incentrata su un controllo diretto da parte dello Stato. L’approccio europeo mira a un equilibrio tra integrazione del mercato digitale e salvaguardia dei valori costituzionali, ma presenta limiti in termini di rigidità normativa e impatto sull’attrattività del mercato interno. Nel contesto italiano, l’iniziativa legislativa rappresentata dal Disegno di Legge 1146/2024 riflette l’intento di rafforzare lo sviluppo tecnologico nazionale, pur evidenziando tensioni con il quadro regolatorio europeo e con la capacità industriale interna. Il riferimento alla “sovranità digitale” si traduce, in alcuni casi, in vincoli che rischiano di ostacolare l’adozione dell’IA nei settori pubblici, compromettendo la competitività e la sperimentazione. Il quadro complessivo mette in luce una contraddizione tra l’impianto prudenziale dell’AI Act e le recenti politiche europee volte a flessibilizzare gli aiuti di Stato per promuovere la ricerca e lo sviluppo tecnologico. L’assenza di un coordinamento efficace tra regolazione e programmazione economica potrebbe limitare la capacità dell’Europa di consolidare una posizione di leadership nella competizione globale per il controllo e l’applicazione delle tecnologie di intelligenza artificiale.

Intelligenza artificiale, mercati e intervento pubblico nell’economia: la regolazione della complessità e la prospettiva (incerta) della sovranità digitale

Lorenzo Rodio Nico
2025-01-01

Abstract

Artificial intelligence has the capacity to reshape economic systems, decision-making processes, markets, and public functions. Its accelerated development raises concerns regarding institutional ability to regulate such transformation while safeguarding fundamental rights, ensuring security, and supporting innovation. Within this context, the European Union has adopted a risk-based regulatory framework through the AI Act, which imposes varying obligations depending on the potential impact of AI systems. This precautionary approach differs markedly from both the United States’ model – characterized by free-market dynamics and public investment – and China’s state-driven model of direct control. The EU seeks to balance digital market integration with the protection of constitutional values, but its framework risks excessive rigidity, potentially discouraging investment and technological deployment. In the Italian context, the proposed Law No. 1146/2024 aims to promote national technological development yet reveals tensions with the EU legal framework and the limited industrial capacity of the domestic market. The invocation of “digital sovereignty” sometimes translates into regulatory burdens that may hinder AI adoption in the public sector and impede innovation. Overall, the analysis underscores a structural inconsistency between the risk-averse orientation of the AI Act and the European Union’s recent shift toward more flexible state aid policies supporting research and technological advancement. Without a coherent alignment between regulation and economic planning, Europe may struggle to assert leadership in the global race to develop and govern frontier technologies such as artificial intelligence.
2025
L’intelligenza artificiale ha già dimostrato di essere una tecnologia che ha il potenziale di riconfigurare strutturalmente sistemi economici, processi decisionali, mercati e funzioni pubbliche. Il suo rapido sviluppo solleva interrogativi sulla capacità delle istituzioni di regolarne l’evoluzione in modo da conciliare la tutela dei diritti fondamentali cona la sicurezza e la promozione dell’innovazione. In tale prospettiva, l’Unione Europea ha adottato un approccio fondato sulla classificazione del rischio, formalizzato nell’AI Act, che introduce obblighi differenziati a seconda dell’impatto potenziale dei sistemi di IA. Questo modello regolatorio, di tipo prudenziale, si distingue sia dalla strategia statunitense, basata su libertà d’impresa e incentivi pubblici, sia da quella cinese, incentrata su un controllo diretto da parte dello Stato. L’approccio europeo mira a un equilibrio tra integrazione del mercato digitale e salvaguardia dei valori costituzionali, ma presenta limiti in termini di rigidità normativa e impatto sull’attrattività del mercato interno. Nel contesto italiano, l’iniziativa legislativa rappresentata dal Disegno di Legge 1146/2024 riflette l’intento di rafforzare lo sviluppo tecnologico nazionale, pur evidenziando tensioni con il quadro regolatorio europeo e con la capacità industriale interna. Il riferimento alla “sovranità digitale” si traduce, in alcuni casi, in vincoli che rischiano di ostacolare l’adozione dell’IA nei settori pubblici, compromettendo la competitività e la sperimentazione. Il quadro complessivo mette in luce una contraddizione tra l’impianto prudenziale dell’AI Act e le recenti politiche europee volte a flessibilizzare gli aiuti di Stato per promuovere la ricerca e lo sviluppo tecnologico. L’assenza di un coordinamento efficace tra regolazione e programmazione economica potrebbe limitare la capacità dell’Europa di consolidare una posizione di leadership nella competizione globale per il controllo e l’applicazione delle tecnologie di intelligenza artificiale.
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11586/547961
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact