Il tema del risarcimento del danno causato dall’Intelligenza Artificiale si colloca al crocevia tra innovazione e responsabilità civile, imponendo all’interprete di verificare se e in quale misura gli strumenti tradizionali dell’ordinamento siano già idonei a offrire una risposta effettiva alle nuove forme di lesione che possono derivare dall’utilizzo di applicativi algoritmici.
Il problema, a ben vedere, non riguarda la configurabilità di una responsabilità “della macchina” in senso proprio, prospettiva estranea ai principi del nostro sistema, bensì la possibilità di imputare il fatto dannoso ai soggetti che progettano, sviluppano, distribuiscono, integrano o utilizzano sistemi di IA in violazione dei doveri di diligenza, prudenza, controllo e prevenzione.
In questa prospettiva, il presente contributo si propone di offrire una ricostruzione delle principali forme di tutela civilistica oggi invocabili per ottenere il risarcimento dei danni causati dall’impiego di sistemi di Intelligenza Artificiale.
Il quadro normativo tra diritto interno e diritto dell’Unione Europea
Il tema del risarcimento dei danni cagionati dall’impiego di sistemi di Intelligenza Artificiale si inserisce in un contesto normativo in progressiva evoluzione.
Proprio questa stratificazione impone di distinguere con chiarezza tra la disciplina che mira a regolare, in chiave preventiva, la progettazione, l’immissione sul mercato e l’utilizzo dei sistemi di IA, e quella che, invece, viene in rilievo quando il danno si sia già verificato e occorra individuare il titolo giuridico idoneo a fondare il risarcimento.
Sotto il primo profilo, il Regolamento europeo sull’Intelligenza Artificiale si colloca principalmente sul terreno della conformità, della gestione del rischio, della trasparenza, della sorveglianza e degli obblighi imposti ai diversi operatori della filiera tecnologica. Si tratta, tuttavia, di una disciplina che, pur incidendo indirettamente anche sulla futura valutazione della colpa e della diligenza, non esaurisce affatto il problema del risarcimento civilistico del danno.
Sul versante propriamente risarcitorio, occorre dunque guardare anzitutto alle categorie generali del diritto civile italiano, che continuano a rappresentare il fondamento principale della tutela del danneggiato. In tale quadro, assumono rilievo tanto la clausola generale dell’illecito aquiliano quanto le ipotesi speciali di responsabilità previste dal codice civile e dalla legislazione complementare.
A ciò si aggiunge il progressivo rafforzamento del diritto europeo in materia di responsabilità da prodotto difettoso, oggi destinato a incidere anche sulle tecnologie digitali e sui software.
Risarcimento del danno da Intelligenza Artificiale e illecito aquiliano: l’art. 2043 c.c.
In mancanza di una disciplina organica dedicata al risarcimento dei danni causati dall’impiego di sistemi di IA, il primo riferimento normativo resta la clausola generale dell’illecito aquiliano di cui all’art. 2043 c.c., secondo cui qualunque fatto doloso o colposo che cagioni ad altri un danno ingiusto obbliga colui che lo ha commesso al risarcimento.
Tale disposizione conserva una funzione centrale anche nel contesto tecnologico contemporaneo, poiché consente di ricondurre entro lo schema della responsabilità extracontrattuale una pluralità di condotte lesive poste in essere mediante l’utilizzo di applicativi di IA, senza che sia necessario postulare l’esistenza di una autonoma soggettività giuridica della macchina o del sistema algoritmico.
Anche quando il pregiudizio sia materialmente prodotto attraverso un output generato da un sistema automatizzato, l’ordinamento continua infatti a interrogarsi sulla condotta umana che sta a monte del fatto dannoso, ossia sulla condotta di chi abbia progettato, addestrato, configurato, distribuito o impiegato la tecnologia in modo negligente, imprudente, imperito o abusivo.
La riconduzione dei danni da IA all’art. 2043 c.c. impone, tuttavia, di confrontarsi con la struttura ordinaria dell’illecito civile, che richiede la prova del fatto, del danno ingiusto, del nesso causale e dell’elemento soggettivo del dolo o della colpa.
Ed è proprio su questo terreno che il tema del risarcimento da Intelligenza Artificiale manifesta le sue maggiori criticità. La complessità tecnica dei sistemi, la loro opacità decisionale, la pluralità dei soggetti coinvolti nella filiera tecnologica e la difficoltà di ricostruire in modo lineare il processo causale possono rendere particolarmente gravoso per il danneggiato dimostrare la colpa del soggetto convenuto.
Quali danni sono risarcibili?
Il danno risarcibile può derivare anche da un uso formalmente corretto dell’applicativo e tuttavia sostanzialmente illecito, abusivo o negligente da parte dell’operatore umano che lo impiega. In termini generali, l’IA può cagionare un pregiudizio risarcibile quando l’output prodotto o la decisione assistita dall’algoritmo determini una lesione ingiusta del patrimonio, della reputazione, dell’identità personale, della riservatezza, dell’immagine, dei dati personali o dei diritti di proprietà intellettuale del soggetto inciso.
Particolarmente rilevanti, anche per la crescente diffusione degli strumenti generativi, sono le ipotesi in cui l’IA interferisce con il settore delle opere dell’ingegno e della loro veicolazione pubblica. Il danno può manifestarsi, ad esempio, quando un’opera venga modificata, elaborata o trasformata senza il consenso del titolare dei diritti, ovvero quando un soggetto, avvalendosi di strumenti di IA, si sostituisca abusivamente al titolare stesso nell’esercizio dei diritti di sfruttamento economico.
Analogamente, un pregiudizio suscettibile di risarcimento può derivare dalla creazione di contenuti nuovi ma strutturalmente dipendenti da opere anteriori, qualora vengano indebitamente ripresi personaggi, ambientazioni, trame, elementi narrativi o altri tratti creativi distintivi.
Sul versante dei diritti morali, poi, la lesione può consistere nell’usurpazione della paternità dell’opera, nella falsa attribuzione, nella manipolazione deformante del contenuto originario o nella compromissione della sua identità intellettuale. A ciò si aggiungono le ipotesi, sempre più frequenti, di contenuti sintetici lesivi della reputazione, di deepfake incidenti sull’identità personale, dati sanitari o trattamenti automatizzati suscettibili di produrre effetti discriminatori o gravemente pregiudizievoli.
I soggetti obbligati al risarcimento: produttore, sviluppatore, utilizzatore
Avuto riguardo al risarcimento dei danni causati dall’Intelligenza Artificiale, uno dei profili più delicati riguarda l’individuazione dei soggetti sui quali debba ricadere l’obbligo risarcitorio. Il nostro ordinamento, coerentemente con i principi generali della responsabilità civile, non attribuisce alcuna autonoma soggettività giuridica al sistema di IA, né concepisce la macchina come centro di imputazione del fatto illecito.
Ne consegue che il risarcimento deve essere ricondotto, di volta in volta, alle persone fisiche o giuridiche che intervengono nella progettazione, nello sviluppo, nella messa a disposizione, nell’integrazione o nell’utilizzo concreto dell’applicativo, secondo un accertamento che tenga conto del ruolo effettivamente svolto nella genesi del danno e del titolo di responsabilità di volta in volta configurabile.
In tale prospettiva, può anzitutto venire in rilievo la posizione del produttore o del fornitore del sistema, quando il danno trovi causa in un difetto originario di progettazione, in carenze di sicurezza, in insufficienze strutturali del modello o nella mancata predisposizione di adeguati presidi tecnici e informativi.
Accanto a questa figura si colloca quella dello sviluppatore o dell’integratore, il quale può essere chiamato a rispondere qualora il pregiudizio sia riconducibile alle modalità con cui il sistema sia stato addestrato, configurato, personalizzato o inserito in uno specifico contesto operativo.
Non meno rilevante è, tuttavia, la responsabilità dell’utilizzatore professionale o imprenditoriale, specie quando il danno derivi da un impiego dell’IA privo delle necessarie verifiche, da un affidamento acritico negli output generati, dalla omissione di controlli umani o dall’adozione di modalità d’uso non conformi ai doveri di diligenza e prudenza.
In molti casi, del resto, il risarcimento potrà dipendere da una pluralità di condotte concorrenti, con la conseguenza che l’accertamento della responsabilità richiederà una ricostruzione analitica della filiera tecnica e organizzativa entro la quale il sistema di Intelligenza Artificiale è stato sviluppato e impiegato.
Risarcimento ex art. 2050 c.c.: attività pericolose e Intelligenza Artificiale
Nel quadro delle possibili forme di risarcimento dei danni causati dall’Intelligenza Artificiale, particolare attenzione merita l’art. 2050 c.c., che disciplina la responsabilità per l’esercizio di attività pericolose. La norma prevede che chiunque cagioni danno ad altri nello svolgimento di un’attività pericolosa, per sua natura o per la natura dei mezzi adoperati, sia tenuto al risarcimento se non prova di aver adottato tutte le misure idonee a evitare il danno.
Si tratta di una disposizione di notevole rilievo sistematico, poiché introduce un modello di responsabilità aggravata che, pur non eliminando il nesso tra fatto e danno, sposta sul danneggiante l’onere di dimostrare la completezza delle cautele adottate. Proprio per questa ragione, una parte della riflessione giuridica più recente ha iniziato a interrogarsi sulla possibilità di sussumere, in determinate circostanze, anche l’impiego di sistemi di IA entro l’ambito applicativo dell’art. 2050 c.c., soprattutto quando tali sistemi vengano utilizzati in contesti caratterizzati da elevata capacità offensiva o da rischi particolarmente intensi per i diritti altrui.
L’argomento non può essere risolto in termini astratti e generalizzati, poiché non ogni utilizzo dell’Intelligenza Artificiale è, di per sé, qualificabile come attività pericolosa. Tuttavia, ove si consideri la nozione di pericolosità elaborata dalla giurisprudenza, emerge come essa possa derivare non soltanto dalla natura intrinseca dell’attività, ma anche dalla natura dei mezzi impiegati e dalle modalità concrete del loro utilizzo.
In tale prospettiva, l’uso di sistemi di IA capaci di incidere su diritti fondamentali della persona, su processi decisionali sensibili, sulla reputazione, sulla circolazione di opere dell’ingegno o sulla produzione di contenuti sintetici altamente lesivi può presentare, in concreto, quel grado di potenzialità nociva che giustifica il ricorso all’art. 2050 c.c. Ne consegue che, in presenza di applicazioni particolarmente invasive o prive di adeguati presidi tecnici, organizzativi e umani, l’azione fondata su tale norma può rappresentare uno strumento di risarcimento particolarmente efficace e coerente con l’esigenza di assicurare una tutela realmente effettiva al soggetto danneggiato.
Invero, qualora l’attività svolta mediante IA sia qualificabile come pericolosa per natura o per la natura dei mezzi adoperati, il danneggiante, per andare esente da responsabilità, deve provare di avere adottato tutte le misure idonee a evitare il danno. Si tratta di un criterio che rafforza sensibilmente la posizione processuale del danneggiato, poiché trasferisce sul soggetto che esercita l’attività il peso di dimostrare la completezza delle cautele tecniche, organizzative e gestionali predisposte.
Il risarcimento del danno da prodotto difettoso e la disciplina speciale
Accanto alla responsabilità aquiliana generale e alla possibile applicazione dell’art. 2050 c.c., va considerato anche il distinto paradigma della responsabilità da prodotto difettoso, che nell’ordinamento italiano trova la propria disciplina positiva negli artt. 114-127 del Codice del consumo di cui al d.lgs. 6 settembre 2005, n. 206.
Tali disposizioni regolano la responsabilità del produttore per i danni cagionati da un prodotto che non offra la sicurezza che ci si può legittimamente attendere, secondo una logica che si differenzia dall’ordinario accertamento della colpa e che assume particolare rilievo quando il pregiudizio derivi da difetti di progettazione, carenze di sicurezza, vulnerabilità o insufficienze funzionali incorporate in sistemi tecnologici complessi. Il dato normativo interno, pertanto, già consente di collocare entro una disciplina speciale il risarcimento dei danni provocati da prodotti o componenti digitali difettosi, anche quando l’evento lesivo sia connesso al funzionamento di software o applicativi avanzati.
In questo quadro si inserisce, inoltre, la recente direttiva (UE) 2024/2853 del Parlamento europeo e del Consiglio del 23 ottobre 2024, che ha aggiornato la disciplina europea della responsabilità per danno da prodotti difettosi, abrogando la precedente direttiva 85/374/CEE e ampliando espressamente l’attenzione verso software, prodotti digitali e tecnologie emergenti.
Si dovrà pertanto verificare in concreto, caso per caso, se il pregiudizio trovi causa nella messa in circolazione di un prodotto difettoso, nell’accezione evolutiva oggi accolta dal legislatore europeo, ovvero sia meglio fondare la richiesta sulle categorie codicistiche fondamentali.
Risarcimento del danno non patrimoniale, diritti della persona e opere dell’ingegno
L’evoluzione delle tecnologie generative ha moltiplicato le ipotesi in cui l’uso di sistemi di IA può incidere su diritti fondamentali quali l’immagine, la reputazione, la voce, il nome, l’identità personale, la riservatezza e la protezione dei dati personali, dando luogo a pregiudizi che, pur non traducendosi immediatamente in una perdita economica, risultano nondimeno suscettibili di risarcimento ai sensi dei principi generali dell’ordinamento.
Si pensi, ad esempio, alla diffusione di contenuti sintetici falsamente attribuiti a un individuo, alla creazione di deepfake idonei a comprometterne l’onore o la credibilità professionale, ovvero all’elaborazione automatizzata di contenuti che deformino in modo grave e riconoscibile l’identità personale del soggetto rappresentato. In tutte queste ipotesi, il risarcimento del danno non patrimoniale si pone come presidio essenziale per la tutela della persona contro gli effetti lesivi di un uso tecnologico non governato da adeguati limiti giuridici.
Analogo rilievo assume il settore delle opere dell’ingegno, nel quale l’IA può produrre interferenze particolarmente incisive tanto sui diritti patrimoniali quanto sui diritti morali dell’autore. Il pregiudizio risarcibile può derivare dalla elaborazione non autorizzata dell’opera, dalla sua trasformazione abusiva, dalla usurpazione della paternità, dalla falsa attribuzione, nonché dalla creazione di opere derivate ottenute mediante ripresa non consentita di personaggi, ambientazioni, tratti narrativi o altri elementi creativi individualizzanti.
IA, risarcimento del danno e tutela civile. Assistenza legale qualificata
Alla luce delle considerazioni svolte, possiamo affermare che il nostro ordinamento già conosce strumenti idonei a fondare il risarcimento dei danni causati dall’impiego di sistemi di Intelligenza Artificiale, pur in assenza di una disciplina unitaria e compiutamente specializzata dedicata, in via esclusiva, alla responsabilità civile da IA.
L’art. 2043 c.c. continua a rappresentare il presidio generale del risarcimento del danno ingiusto, mentre l’art. 2050 c.c., nei casi in cui l’attività esercitata mediante IA presenti caratteri di concreta pericolosità, può offrire una tutela più incisiva, soprattutto per effetto della diversa distribuzione dell’onere probatorio. A tali rimedi si affianca la disciplina speciale della responsabilità da prodotto difettoso, che assume un rilievo crescente quando il danno sia riconducibile a difetti di sicurezza del prodotto o del software.
La tutela civilistica dei danni da Intelligenza Artificiale richiede un approccio capace di coniugare diritto civile e diritto delle nuove tecnologie. Il nostro Studio assiste privati, professionisti e imprese nelle questioni relative all’impiego di sistemi intelligenti, offrendo supporto sia nella fase preventiva di analisi del rischio sia nella successiva fase di tutela stragiudiziale o contenziosa.
Ai sensi dell’art. 70-quater della Legge 633/1941, ai fini della tutela del diritto d’autore, si dichiara che il presente contenuto è riservato, e ne è vietata la riproduzione o l’estrazione di testo, anche mediante sistemi di intelligenza artificiale.


