La diffusione di Chatbot AI è un segno evidente dell’evoluzione dei sistemi di intelligenza artificiale conversazionale, i quali vengono impiegati oggi in una pluralità di contesti, dal supporto agli utenti di siti web fino all’assistenza in ambito sanitario, medico, finanziario e giuridico.
Tale fenomeno pone inevitabilmente interrogativi circa i profili giuridici e i rischi legali connessi all’utilizzo di strumenti che, pur offrendo indubbi vantaggi in termini di rapidità ed efficienza, presentano intrinseci limiti strutturali, in particolare la possibilità di generare risposte inesatte o fuorvianti, le cosiddette “allucinazioni”.
L’articolo che segue si propone di esaminare il recente procedimento istruttorio avviato dall’Autorità Garante della Concorrenza e del Mercato nei confronti della società ScaleUp, gestore della piattaforma NOVA AI Chatbox, con l’obiettivo di chiarire le contestazioni formulate dall’Autorità in ordine alla violazione delle norme del Codice del Consumo e di analizzare le possibili ricadute giuridiche per gli operatori economici che offrono servizi basati su Chatbot AI.
L’intento è, pertanto, quello di fornire una ricostruzione organica del quadro normativo di riferimento, approfondendo le disposizioni relative alle pratiche commerciali scorrette e riflettendo sull’esigenza di garantire un elevato livello di trasparenza informativa a tutela degli utenti e della correttezza del mercato digitale.
Chatbot AI e procedimento AGCM: il caso ScaleUp
Il procedimento avviato dall’Autorità Garante della Concorrenza e del Mercato trae origine dall’offerta al pubblico, da parte della società ScaleUp, del servizio denominato NOVA Chatbox AI, accessibile agli utenti italiani sia mediante sito web sia attraverso applicazione mobile.
Secondo quanto emerge dal Bollettino AGCM n. 38 del 29 settembre 2025, il servizio veniva presentato come un assistente virtuale innovativo, fondato sull’integrazione di diversi modelli di intelligenza artificiale, tra cui GPT-4, Gemini, Claude e DeepSeek, con la promessa di garantire risposte versatili e simili al linguaggio umano. L’Autorità ha tuttavia rilevato profili di criticità nella fase informativa, contestando a ScaleUp l’omessa indicazione chiara e intellegibile dei limiti intrinseci dei modelli impiegati, in particolare la possibilità che il sistema generi contenuti errati, fuorvianti o completamente inventati, fenomeno comunemente qualificato come “allucinazione”.
L’assenza di qualsiasi avvertenza in merito, sia nelle finestre di dialogo, sia nelle condizioni generali di contratto, sia nelle descrizioni presenti negli store digitali, ha indotto l’AGCM a ipotizzare una violazione degli artt. 20, 21 e 22 del Codice del Consumo.
Accanto a ciò, è stata rilevata la mancanza di trasparenza in ordine al reale valore aggiunto di NOVA rispetto alle piattaforme sottostanti, con conseguente rischio di indurre i consumatori a sottoscrivere abbonamenti a pagamento sulla base di informazioni parziali o fuorvianti.
Le contestazioni sulle “allucinazioni” dell’IA e i rischi legali per i consumatori
Uno degli aspetti centrali dell’istruttoria avviata dall’AGCM concerne la mancata informativa circa il rischio che i Chatbot AI possano generare, in talune circostanze, contenuti non corrispondenti alla realtà, privi di fondamento o addirittura fuorvianti, fenomeno che in letteratura e nella prassi tecnica viene definito come “allucinazione”.
La rilevanza giuridica di tale omissione risiede nel fatto che la scelta di utilizzare un determinato servizio digitale integra una “decisione commerciale” ai sensi dell’art. 18, comma 1, lett. m), del Codice del Consumo, a prescindere dalla gratuità o dall’onerosità del servizio stesso.
In assenza di adeguate avvertenze, il consumatore potrebbe infatti ritenere, in modo erroneo, che le risposte fornite da un Chatbot AI siano sempre affidabili, assumendo decisioni ulteriori sulla base di contenuti imprecisi, con conseguenze potenzialmente gravi in settori particolarmente delicati, quali la salute, la finanza o l’assistenza legale.
L’omessa indicazione del rischio di allucinazioni non potrebbe essere considerata – secondo l’AGCM – un mero deficit informativo, ma rappresenta una vera e propria omissione ingannevole, idonea a incidere sulla libertà di scelta e sulla corretta formazione della volontà contrattuale del consumatore. In questo senso, il procedimento in corso apre una riflessione più ampia sull’esigenza di disciplinare i limiti intrinseci dei sistemi di intelligenza artificiale, riconoscendo che l’affidabilità tecnica si traduce direttamente in un profilo di responsabilità giuridica e di possibili sanzioni per violazioni delle regole poste a tutela degli utenti.
Le pratiche commerciali scorrette nel Codice del Consumo
La vicenda in esame – relativa al Chatbot AI Nova – non può essere adeguatamente compresa senza richiamare la disciplina generale delle pratiche commerciali scorrette contenuta nel Codice del Consumo.
L’art. 20 stabilisce un divieto generale, disponendo che “le pratiche commerciali scorrette sono vietate”. La norma definisce una pratica commerciale scorretta come quella condotta che, essendo contraria alla diligenza professionale, è falsa o idonea a falsare in misura apprezzabile il comportamento economico del consumatore medio, ossia tale da condizionare le sue decisioni di natura commerciale.
Si tratta, in altri termini, di un comportamento del professionista che altera la libertà di scelta del consumatore, inducendolo ad assumere una determinata decisione che, in condizioni di piena e corretta informazione, non avrebbe altrimenti adottato.
All’interno della categoria generale delle pratiche scorrette, il legislatore distingue le pratiche ingannevoli e quelle aggressive. Le prime sono oggetto di disciplina specifica negli artt. 21 e 22, che assumono rilievo centrale nel procedimento avviato dall’AGCM. Ai sensi dell’art. 21, è qualificata come pratica commerciale ingannevole quella che contiene informazioni non rispondenti al vero oppure, pur fornendo dati di fatto corretti, è presentata in modo tale da indurre in errore il consumatore medio in merito a caratteristiche essenziali del prodotto, come i suoi vantaggi, i rischi, l’idoneità all’uso o i risultati che ci si può attendere dalla sua fruizione.
La conseguenza giuridica di tale condotta è l’induzione del consumatore a compiere una decisione di natura commerciale che non avrebbe altrimenti preso. L’inganno, quindi, può derivare tanto da una falsità oggettiva quanto da una rappresentazione ambigua o fuorviante di dati corretti, quando tale rappresentazione incide sulla formazione della volontà negoziale del destinatario.
Accanto a questa figura, l’art. 22 disciplina l’omissione ingannevole, che ricorre quando il professionista non fornisce informazioni rilevanti, necessarie affinché il consumatore possa adottare una decisione consapevole. L’omissione si configura anche quando le informazioni siano presentate in modo oscuro, incomprensibile o ambiguo, ovvero comunicate in un momento tale da non consentire al consumatore di valutarle prima di assumere la sua decisione.
Si tratta dunque di un concetto ampio, che non si limita al silenzio assoluto del professionista, ma comprende ogni condotta che ostacoli l’accesso dell’utente a informazioni determinanti.
Trasponendo tali definizioni al caso dei Chatbot AI, secondo l’Autorità la mancata indicazione della possibilità di generare “allucinazioni” rappresenterebbe un’omissione ingannevole ai sensi dell’art. 22, in quanto priva il consumatore di una informazione essenziale per valutare l’affidabilità del servizio.
Parimenti, la presentazione del servizio NOVA come piattaforma innovativa e “rivoluzionaria”, senza chiarire i limiti intrinseci dei modelli di intelligenza artificiale impiegati e senza specificare in modo trasparente le effettive differenze tra la versione gratuita e quella a pagamento, integra una potenziale azione ingannevole ai sensi dell’art. 21, poiché induce l’utente a credere che l’abbonamento comporti vantaggi non corrispondenti alla realtà o comunque non chiaramente individuabili.
Chatbot AI, trasparenza e scelta del modello
La trasparenza informativa costituisce il presupposto della libertà contrattuale e della corretta formazione della volontà negoziale. Nel contesto dei Chatbot AI, essa si traduce nella necessità di specificare chiaramente non soltanto le potenzialità dello strumento, ma anche i suoi limiti strutturali, inclusa la possibilità di incorrere in “allucinazioni”.
Parimenti, deve essere reso noto quale modello di intelligenza artificiale venga effettivamente impiegato (ad esempio GPT, Gemini o Claude), giacché ciascuno di essi presenta peculiarità e gradi di affidabilità diversi. Un’informativa incompleta o confusoria priverebbe l’utente della possibilità di operare una scelta consapevole e, conseguentemente, integra un rischio legale rilevante per l’operatore economico che offra tali servizi sul mercato.
È evidente, dunque, che l’adempimento degli obblighi informativi non si limita alla redazione di condizioni generali di contratto formalmente corrette, ma implica un dovere sostanziale di chiarezza e intelligibilità.
In assenza di tali garanzie, il professionista si espone a contestazioni per pratiche commerciali scorrette e alle conseguenti sanzioni. Nel settore dei Chatbot AI, la trasparenza assume dunque il valore di parametro giuridico imprescindibile per la liceità dell’offerta commerciale.
Algorithm auditing e responsabilità degli operatori di Chatbot AI
La questione affrontata dall’AGCM per il Chatbox AI di Nova offre lo spunto per riflettere su un profilo di carattere generale: l’esigenza di un controllo preventivo e sistematico sul funzionamento degli algoritmi che costituiscono la base operativa dei Chatbot AI.
In dottrina e nella prassi regolatoria internazionale, tale attività viene indicata con l’espressione algorithm auditing, ossia il processo di verifica, monitoraggio e valutazione dei modelli di intelligenza artificiale al fine di individuare eventuali distorsioni, bias o rischi di generazione di contenuti inesatti.
In assenza di un’attività di auditing, il professionista si limita a proporre il servizio senza disporre di strumenti idonei a garantire trasparenza e correttezza, ponendosi in una condizione di vulnerabilità rispetto alle contestazioni delle Autorità di vigilanza.
Il caso dei Chatbot AI appare emblematico: l’affidabilità delle risposte generate rappresenta un elemento essenziale nella percezione del valore del servizio. Qualora non siano adottate procedure di verifica degli algoritmi, il rischio di “allucinazioni” non viene correttamente gestito né comunicato, con la conseguenza che il consumatore assume decisioni economiche in condizioni di disinformazione.
Da ciò deriva non soltanto una violazione degli obblighi informativi sanciti dal Codice del Consumo, ma anche un ampliamento della responsabilità contrattuale ed extracontrattuale dell’operatore, il quale potrebbe essere chiamato a rispondere dei danni derivanti dall’utilizzo di informazioni erronee prodotte dal sistema.
In caso di accertata responsabilità, l’Autorità Garante della Concorrenza e del Mercato è legittimata a irrogare sanzioni amministrative pecuniarie di rilevante entità, la cui misura viene determinata tenendo conto della gravità e della durata della pratica scorretta, nonché della capacità economica del professionista. A ciò si aggiunge la possibilità di adottare misure correttive volte a inibire la prosecuzione della condotta illecita e a imporre modifiche sostanziali alle informative, alle condizioni contrattuali e alle comunicazioni commerciali.
La rilevanza delle violazioni appare accresciuta dalla natura stessa dei servizi di intelligenza artificiale, i quali trovano applicazione in contesti nei quali l’affidabilità delle risposte generate può incidere direttamente su decisioni di notevole impatto economico o personale.
Il quadro sanzionatorio è dunque ampio e conferma che la corretta informazione costituisce un presupposto irrinunciabile per l’offerta di servizi basati sull’intelligenza artificiale. L’inosservanza degli obblighi di trasparenza si traduce in violazioni suscettibili di determinare conseguenze economiche e reputazionali.
Chatbot AI e sistemi di Intelligenza Artificiale affidabili. Rivolgiti al nostro Studio per un consulto.
Il procedimento avviato dall’AGCM per il Chatbox AI di Nova mette in luce come le IA generative possano esporre l’azienda a rilevanti responsabilità giuridiche, specie in presenza di omissioni informative.
L’analisi svolta ha mostrato come le norme del Codice del Consumo, originariamente concepite per regolare le pratiche di mercato tradizionali, trovino oggi applicazione anche nei confronti dei servizi digitali basati sull’intelligenza artificiale, con conseguenze in termini di possibili violazioni e sanzioni.
Il nostro Studio Legale si occupa da anni di sicurezza informatica e diritto delle nuove tecnologie, con competenze specifiche nella consulenza su profili di compliance, offrendo un affiancamento qualificato per imprese e pubbliche amministrazioni.
Contattaci per un confronto!!!



