Ultime novità: il Codice della Cybersicurezza è stato pubblicato, visita la pagina dedicata.

AI Act Regolamento 2024/1689: obblighi di conformità per le imprese e sanzioni applicabili

HomeAI Act Regolamento 2024/1689: obblighi di conformità per le imprese e sanzioni applicabili

AI Act Regolamento 2024/1689: obblighi di conformità per le imprese e sanzioni applicabili

da | Mar 5, 2026 | Diritto d'Impresa

Il Regolamento (UE) 2024/1689, comunemente denominato AI Act, ha introdotto nell’ordinamento dell’Unione europea un quadro giuridico unitario e direttamente applicabile volto a disciplinare l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale.

L’AI Act si colloca nel solco delle recenti politiche europee di regolazione del digitale, ma si caratterizza per un’impostazione specificamente orientata a presidiare i rischi che l’impiego dell’IA può determinare per la salute, la sicurezza e i diritti fondamentali tutelati dalla Carta dell’Unione, nonché, in senso più ampio, per la protezione dell’ambiente e per la salvaguardia di valori sistemici quali la democrazia e lo Stato di diritto.

Il presente contributo ha dunque l’obiettivo di offrire una sintesi ragionata dei principali adempimenti che l’AI Act impone ai principali soggetti della filiera dell’intelligenza artificiale, con particolare riguardo alle imprese che producono, importano, distribuiscono o utilizzano sistemi di IA nel mercato europeo. L’analisi sarà concentrata sugli obblighi gravanti sugli operatori economici, secondo le definizioni e le categorie introdotte dal Regolamento, e sul correlato regime sanzionatorio, al fine di delineare una cornice di riferimento utile per impostare percorsi di compliance d’impresa. Rinviamo invece a un nostro precedente contributo per quanto riguarda la normativa nazionale sull’Intelligenza Artificiale (Legge 132/2025).

AI Act: quali imprese sono obbligate?

L’AI Act definisce anzitutto l’ambito soggettivo degli obblighi di conformità, individuando i principali attori della filiera dell’intelligenza artificiale e attribuendo a ciascuno di essi specifiche responsabilità giuridiche.

L’articolo 2 stabilisce che il Regolamento si applica, tra gli altri, ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA o modelli di IA per finalità generali nell’Unione, ai soggetti che utilizzano tali sistemi sotto la propria autorità, nonché agli importatori e ai distributori.

In tale quadro, la nozione di fornitore è definita dall’articolo 3, punto 3, come la persona fisica o giuridica che sviluppa o fa sviluppare un sistema di IA e lo immette sul mercato o lo mette in servizio con il proprio nome o marchio; mentre il deployer, ai sensi dell’articolo 3, punto 4, è il soggetto che utilizza un sistema di IA nell’ambito di un’attività professionale, pubblica o privata, restando escluso l’uso meramente personale non professionale (art. 2, par. 10).

La disciplina include inoltre figure tipiche del diritto della sicurezza dei prodotti, quali importatori e distributori (art. 3, punti 6 e 7), cui sono attribuiti obblighi di verifica e cooperazione funzionali a prevenire l’immissione sul mercato di sistemi non conformi.

Sotto il profilo operativo, la responsabilità non discende soltanto dalla “titolarità” tecnologica del sistema, ma dal ruolo concretamente svolto nel ciclo di vita del prodotto. Rilevano, in particolare, le nozioni di immissione sul mercato e messa in servizio (art. 3, punti 9 e 11), che segnano il momento in cui un sistema entra nella disponibilità del mercato o viene reso disponibile per il primo uso nell’Unione e, conseguentemente, si attivano gli obblighi di conformità e le correlate responsabilità.

L’AI Act adotta inoltre un criterio di applicazione sostanzialmente extraterritoriale, poiché si applica anche a fornitori e deployer stabiliti in paesi terzi quando l’output del sistema è utilizzato nell’Unione (art. 2, par. 1, lett. c), imponendo così alle imprese non europee che operano sul mercato UE un adeguamento alle regole dell’AI Act mediante presidi organizzativi e contrattuali idonei.

AI Act e risk-based compliance

L’architettura dell’AI Act è costruita attorno a un criterio di regolazione “a intensità variabile”, fondato sulla valutazione del rischio che un determinato sistema di intelligenza artificiale può determinare per la salute, la sicurezza e i diritti fondamentali.

Nel modello delineato dal Regolamento, il livello più elevato di presidio riguarda le pratiche vietate, disciplinate dall’articolo 5, che il legislatore reputa incompatibili con i valori dell’Unione e pertanto sottratte a qualsiasi bilanciamento in termini di mero “risk management”.

Accanto a tali divieti, l’AI Act individua la categoria dei sistemi di IA ad alto rischio, la cui qualificazione discende dall’articolo 6 e, in particolare, dall’elencazione dei casi d’uso contenuta nell’Allegato III, nonché dalle ipotesi in cui l’IA costituisce componente di sicurezza di prodotti soggetti a valutazione di conformità secondo la normativa armonizzata dell’Unione. È proprio questa qualificazione a rendere applicabile il nucleo più impegnativo degli obblighi tecnici e documentali del Regolamento.

In termini pratici, l’AI Act disciplina anche il tema, delicatissimo, delle aree “di confine”, prevedendo che taluni sistemi elencati nell’Allegato III possano non essere considerati ad alto rischio quando non presentino un rischio significativo, purché tale valutazione sia documentata dal fornitore, con conseguente obbligo di registrazione nei casi previsti (art. 6, parr. 3 e 4).

Obblighi del fornitore nell’AI Act e sistemi di IA ad alto rischio

Nel sistema dell’AI Act, sul fornitore del sistema di intelligenza artificiale si concentra il nucleo primario degli obblighi di conformità, tanto sotto il profilo tecnico quanto sotto quello organizzativo e documentale.

L’articolo 16 del Regolamento 20254/1689 elenca in modo puntuale gli adempimenti che qualificano la responsabilità del fornitore lungo l’intero ciclo di vita del sistema, imponendo, tra l’altro, di garantire la conformità ai requisiti del Capo III, sezione 2, di istituire un sistema di gestione della qualità, di conservare la documentazione e di assicurare che il sistema sia sottoposto alla procedura di valutazione della conformità prima dell’immissione sul mercato o della messa in servizio.

Il contenuto sostanziale di tale conformità è definito dagli articoli 8–15, che stabiliscono i requisiti applicabili ai sistemi di IA ad alto rischio. In primo luogo, il fornitore deve istituire e mantenere un sistema di gestione dei rischi quale processo iterativo e continuo, destinato a identificare i rischi prevedibili, valutarne la probabilità e gravità e adottare misure di mitigazione adeguate, includendo attività di prova e convalida prima dell’immissione sul mercato (articolo 9).

Sul piano della qualità informativa e della non discriminazione, assume rilievo decisivo la disciplina sulla governance dei dati: i dataset di addestramento, convalida e prova devono essere pertinenti, rappresentativi e, per quanto possibile, esenti da errori e distorsioni, con presidi specifici volti a individuare e attenuare bias suscettibili di incidere su salute, sicurezza e diritti fondamentali (articolo 10).

A ciò si aggiungono gli obblighi di predisporre una documentazione tecnica idonea a dimostrare la conformità del sistema (articolo 11), di garantire la registrazione automatica degli eventi (log) per assicurare tracciabilità e supporto al monitoraggio (articolo 12), nonché di fornire ai deployer informazioni chiare e istruzioni d’uso che consentano un impiego appropriato e una corretta interpretazione degli output (articolo 13).

L’AI Act richiede inoltre che il sistema sia progettato per consentire una sorveglianza umana effettiva e proporzionata ai rischi, includendo la possibilità di annullare o interrompere l’output del sistema in situazioni critiche (articolo 14), e impone requisiti specifici di accuratezza, robustezza e cibersicurezza, con riferimento anche alle vulnerabilità tipiche dei sistemi di IA, quali attacchi di data poisoning o adversarial examples (articolo 15).

Obblighi del deployer nell’AI Act

Se il fornitore è chiamato a garantire la conformità “a monte” del sistema, l’AI Act attribuisce al deployer – ossia al soggetto che utilizza il sistema di IA sotto la propria autorità – un insieme di obblighi funzionali a governare correttamente l’impiego “a valle” della tecnologia, prevenendo rischi che possono emergere nel contesto d’uso concreto.

Tali obblighi sono disciplinati principalmente dall’articolo 26, che impone ai deployer di adottare misure tecniche e organizzative idonee a garantire l’utilizzo dei sistemi di IA ad alto rischio in conformità alle istruzioni per l’uso fornite dal produttore, preservando così la coerenza tra finalità prevista, condizioni operative e presidi di sicurezza.

Elemento qualificante della disciplina è la sorveglianza umana, che il deployer deve affidare a persone fisiche dotate di competenza, formazione e autorità adeguate, assicurando che l’organizzazione disponga delle risorse necessarie per monitorare l’operatività del sistema, individuare eventuali anomalie e, se del caso, intervenire per ignorare o ribaltare gli output quando ciò sia necessario per prevenire effetti dannosi.

Inoltre, nella misura in cui eserciti il controllo sui dati di input, il deployer è tenuto a garantire che essi siano pertinenti e sufficientemente rappresentativi rispetto alla finalità prevista del sistema, poiché la qualità dei dati utilizzati in esercizio può incidere in modo significativo sulle prestazioni, sui bias e, in definitiva, sulla conformità sostanziale del sistema nel contesto applicativo.

Il Regolamento impone poi un obbligo di monitoraggio del funzionamento e di cooperazione informativa: quando il deployer abbia motivo di ritenere che l’uso del sistema, anche se conforme alle istruzioni, possa comportare la configurazione di un rischio rilevante, esso deve informare senza indebito ritardo il fornitore o il distributore e la competente autorità di vigilanza del mercato, sospendendo l’uso del sistema; in presenza di un incidente grave, deve informare immediatamente il fornitore e, successivamente, gli altri operatori rilevanti e le autorità competenti.

Il quadro si completa, in alcuni casi, con obblighi informativi in ambito lavoristico, qualora il sistema sia utilizzato sul luogo di lavoro, e con il possibile raccordo con le valutazioni d’impatto in materia di protezione dei dati, quando l’uso del sistema lo richieda.

Importatori, distributori e responsabilità nella supply chain

Nel disegno dell’AI Act, la conformità dei sistemi intelligenti non è affidata esclusivamente al fornitore e al deployer, ma viene presidiata anche dai soggetti che operano nella catena di approvvigionamento e che rendono concretamente possibile la circolazione dei sistemi sul mercato dell’Unione.

In tale prospettiva, gli importatori e i distributori assumono un ruolo di controllo ex ante, funzionale a prevenire che sistemi di IA ad alto rischio non conformi siano immessi o messi a disposizione nel mercato interno.

L’articolo 23 stabilisce che, prima di immettere sul mercato un sistema di IA ad alto rischio, l’importatore deve verificare che il fornitore abbia eseguito la procedura di valutazione della conformità prevista dall’articolo 43, che sia stata predisposta la documentazione tecnica ai sensi dell’articolo 11, che il sistema rechi la marcatura CE e sia accompagnato dalla dichiarazione UE di conformità di cui all’articolo 47, nonché dalle istruzioni per l’uso.

L’importatore deve inoltre accertare, ove applicabile, che sia stato nominato un rappresentante autorizzato conformemente all’articolo 22, elemento che assume particolare rilievo nei casi in cui il fornitore sia stabilito in un paese terzo.

La disciplina impone all’importatore anche un dovere di diligenza rafforzata nella fase pre-commerciale: qualora esso abbia motivo sufficiente di ritenere che il sistema non sia conforme, ovvero sia falsificato o accompagnato da documentazione non autentica, non può procedere all’immissione sul mercato fino a quando la non conformità non sia sanata; e, se il sistema presenti un rischio, deve informare il fornitore, il rappresentante autorizzato e le autorità di vigilanza del mercato.

A ciò si aggiungono obblighi di tracciabilità e cooperazione, tra cui l’indicazione dei propri dati identificativi sul sistema o sulla documentazione di accompagnamento, la garanzia che condizioni di stoccaggio e trasporto non compromettano la conformità, nonché la conservazione, per un periodo prolungato, della documentazione essenziale e la collaborazione con le autorità competenti su richiesta motivata.

Analogamente, il distributore è tenuto, prima di mettere a disposizione sul mercato un sistema di IA ad alto rischio, a verificare la presenza della marcatura CE, della dichiarazione UE di conformità e delle istruzioni per l’uso, nonché il rispetto, da parte del fornitore e dell’importatore, degli obblighi identificativi e del sistema di gestione della qualità ove richiesto.

Qualora ritenga, sulla base delle informazioni disponibili, che il sistema non sia conforme ai requisiti del Capo III, sezione 2, non può metterlo a disposizione e deve informare tempestivamente i soggetti rilevanti, adottando misure correttive o cooperando affinché esse siano adottate; in presenza di un rischio, sorge anche un obbligo di informazione alle autorità competenti.

Rebranding e modifiche sostanziali. Le prospettive dell’AI Act

Uno dei profili più rilevanti, e spesso sottovalutati nella prassi commerciale, concerne l’ipotesi in cui un soggetto che, in origine, non è qualificabile come fornitore ai sensi dell’AI Act finisca per assumere, per effetto di determinate condotte, la piena responsabilità del provider e, conseguentemente, l’intero fascio di obblighi di conformità.

L’articolo 25 del Regolamento (UE) 2024/1689 disciplina espressamente tali fattispecie, stabilendo che distributori, importatori, deployer o altri terzi sono considerati fornitori di un sistema di IA ad alto rischio e sono dunque soggetti agli obblighi del fornitore di cui all’articolo 16 quando appongono il proprio nome o marchio su un sistema già immesso sul mercato o messo in servizio, quando apportano una modifica sostanziale al sistema, oppure quando mutano la finalità prevista di un sistema precedentemente non qualificato come ad alto rischio in modo tale da farlo rientrare nella categoria dei sistemi ad alto rischio ai sensi dell’articolo 6.

Per le imprese, la portata applicativa di tale previsione è particolarmente incisiva perché trasforma operazioni frequenti – quali il rebranding di soluzioni “white label”, l’integrazione di componenti di IA in prodotti esistenti, l’adattamento funzionale del sistema per nuovi casi d’uso – in scelte potenzialmente idonee a far scattare l’assunzione di responsabilità tipiche del fornitore.

In termini di AI Act compliance, ciò implica che l’operatore che “diventa” fornitore deve presidiare la documentazione tecnica (art. 11), le procedure di valutazione della conformità (art. 43) e l’intero apparato di requisiti del Capo III, sezione 2, oltre alle correlate attività correttive e di cooperazione con le autorità, secondo la logica complessiva dell’articolo 16.

Il legislatore europeo, consapevole delle asimmetrie informative lungo la filiera, prevede inoltre che, in tali ipotesi, il fornitore originario non sia più considerato fornitore “di quel determinato sistema” e debba cooperare strettamente con il nuovo fornitore, mettendo a disposizione le informazioni necessarie e un accesso tecnico ragionevolmente atteso per consentire l’adempimento degli obblighi di conformità.

In parallelo, l’AI Act valorizza la dimensione contrattuale della catena del valore, imponendo che i rapporti tra fornitore del sistema ad alto rischio e terzi che forniscono componenti o servizi integrati siano regolati da un accordo scritto idoneo a disciplinare informazioni, capacità e accesso tecnico necessari alla compliance (art. 25, par. 4).

Valutazione della conformità, dichiarazione UE, marcatura CE e registrazioni nell’AI Act

La compliance prevista dall’AI Act assume una dimensione eminentemente documentale e procedurale. Il perno del sistema è rappresentato dalla valutazione della conformità disciplinata dall’articolo 43, che individua le procedure applicabili in funzione della tipologia del sistema e del quadro tecnico-normativo di riferimento.

Il Regolamento prevede, in taluni casi, un controllo interno del fornitore secondo le modalità dell’allegato VI, mentre in altri richiede il coinvolgimento di un organismo notificato (allegato VII), soprattutto quando non siano disponibili norme armonizzate o specifiche comuni, ovvero quando il fornitore non le abbia applicate integralmente.

La logica sottesa è quella di un presidio ex ante che, analogamente alla disciplina della sicurezza dei prodotti, condiziona l’accesso al mercato dell’Unione al superamento di un percorso di verifica coerente con i rischi del sistema.

La procedura di conformità si completa, sul piano degli atti formali, con l’obbligo per il fornitore di redigere una dichiarazione UE di conformità ai sensi dell’articolo 47, documento nel quale il fornitore attesta che il sistema di IA ad alto rischio soddisfa i requisiti applicabili dell’AI Act e che deve essere conservato e reso disponibile alle autorità competenti per un periodo esteso.

La dichiarazione costituisce, per così dire, l’assunzione esplicita di responsabilità del fornitore rispetto alla conformità del sistema, e rileva anche nei rapporti contrattuali e nelle attività di due diligence, poiché consente a importatori, distributori e deployer di verificare l’esistenza del presupposto formale della legittima commercializzazione.

A valle della dichiarazione, l’articolo 48 disciplina la marcatura CE, imponendone l’apposizione in modo visibile e leggibile, anche in formato digitale quando il sistema sia fornito digitalmente, e prevedendo l’indicazione del numero identificativo dell’organismo notificato quando quest’ultimo sia intervenuto nella procedura.

Accanto a tali presidi, il Regolamento introduce, in determinati casi, obblighi di registrazione nella banca dati dell’Unione, disciplinati dall’articolo 49, che impongono al fornitore, o al rappresentante autorizzato ove applicabile, di registrarsi e registrare il sistema prima dell’immissione sul mercato o della messa in servizio, e al deployer pubblico di registrare l’uso quando previsto.

Le sanzioni previste dall’AI Act. Cosa rischiano le imprese?

L’articolo 99 del Regolamento (UE) 2024/1689 demanda agli Stati membri la definizione delle norme interne in materia di sanzioni e misure di esecuzione, chiarendo tuttavia che tali misure devono essere effettive, proporzionate e dissuasive, e in linea con le soglie previste dal Regolamento.

La soglia più elevata è riservata alla violazione dei divieti relativi alle pratiche di IA vietate, di cui all’articolo 5, per le quali l’articolo 99, paragrafo 3, prevede sanzioni amministrative pecuniarie fino a 35.000.000 di euro o, se l’autore è un’impresa, fino al 7% del fatturato mondiale annuo complessivo dell’esercizio precedente, se superiore.

Un secondo livello sanzionatorio, previsto dall’articolo 99, paragrafo 4, riguarda la non conformità a una serie di obblighi strutturali dell’AI Act, tra cui quelli dei fornitori (art. 16), dei rappresentanti autorizzati (art. 22), degli importatori (art. 23), dei distributori (art. 24), dei deployer (art. 26), nonché gli obblighi di trasparenza ex articolo 50, con sanzioni fino a 15.000.000 di euro o fino al 3% del fatturato mondiale annuo.

Un terzo livello, infine, colpisce la fornitura di informazioni inesatte, incomplete o fuorvianti alle autorità competenti o agli organismi notificati, con sanzioni fino a 7.500.000 di euro o fino all’1% del fatturato mondiale annuo (art. 99, par. 5), ferma la regola di mitigazione per PMI e start-up.

Ai fini della quantificazione della sanzione, l’AI Act impone una valutazione caso per caso che tenga conto, tra l’altro, della natura, gravità e durata della violazione, del numero di persone interessate, del grado di cooperazione dell’operatore, delle misure tecniche e organizzative adottate e dell’eventuale carattere doloso o colposo della condotta, nel rispetto delle garanzie procedurali e del diritto a un ricorso effettivo.

Consulenza legale in materia di Intelligenza Artificiale. Rivolgiti a noi

La conformità all’AI Act richiede un sapiente approccio che coniughi conoscenza della normativa, governance organizzativa e conoscenza della tecnologia. Il nostro Studio supporta le imprese e le start-up nella delicata attività di compliance e nella predisposizione della documentazione e delle procedure richieste dal Regolamento (UE) 2024/1689, nonché nella gestione dei profili di rischio connessi a trasparenza, cybersecurity e responsabilità.

Contattaci per un confronto!

 

Ai sensi dell’art. 70-quater della Legge 633/1941, ai fini della tutela del diritto d’autore, si dichiara che il presente contenuto è riservato, e ne è vietata la riproduzione o l’estrazione di testo, anche mediante sistemi di intelligenza artificiale.