La crescente integrazione dei sistemi di intelligenza artificiale (IA) nella vita quotidiana ha sollevato complessi interrogativi in ambito giuridico, in particolare per quanto riguarda la responsabilità per danni cagionati dai sistemi di IA. Le norme nazionali vigenti nei diversi Paesi dell’Unione europea in materia si sono rivelate inadeguate a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA. In particolare, le caratteristiche specifiche dell’IA, tra cui la complessità, l’autonomia e l’opacità, rendono spesso difficile o eccessivamente costoso, per i danneggiati, identificare la persona responsabile e assolvere gli oneri probatori in merito alla sussistenza dei presupposti per la risarcibilità del danno. La recente proposta di direttiva europea sull’adeguamento delle norme sulla responsabilità civile extracontrattuale all’intelligenza artificiale (AILD) mira a creare un quadro normativo armonizzato che affronti le specificità dell’IA, con l’obiettivo di garantire una tutela adeguata alle vittime di un illecito aquiliano, senza ostacolare l’innovazione tecnologica. Essa si inserisce in un pacchetto più ampio di misure volte a promuovere l’utilizzazione e lo sviluppo di sistemi di IA affidabili, in cui campeggiano, da ultimo, la legge sull’IA (Regolamento UE, 2024/1689), volta ad armonizzare le norme sull’intelligenza artificiale con un approccio «basato sul rischio», e la direttiva sulla responsabilità dei prodotti (PLD), che abroga la precedente direttiva n. 85/374/CEE, innovando la disciplina alla luce degli sviluppi legati alle nuove tecnologie. L’articolo si prefigge di esaminare criticamente, alla luce del quadro normativo europeo già in vigore, i singoli punti della proposta di direttiva, tra cui in particolare il profilo della ripartizione di responsabilità fra il fornitore/produttore e l’utente, i criteri per la determinazione della responsabilità in relazione al grado di autonomia e prevedibilità del sistema IA, l’onere della prova e le presunzioni relative in tema di non conformità ad un pertinente obbligo di diligenza ed in tema di nesso di causalità, le ipotesi di responsabilità oggettiva per attività ad alto rischio.
Intelligenza artificiale e responsabilità civile: verso un quadro normativo europeo
FRANCESCA NADDEO
2025
Abstract
La crescente integrazione dei sistemi di intelligenza artificiale (IA) nella vita quotidiana ha sollevato complessi interrogativi in ambito giuridico, in particolare per quanto riguarda la responsabilità per danni cagionati dai sistemi di IA. Le norme nazionali vigenti nei diversi Paesi dell’Unione europea in materia si sono rivelate inadeguate a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA. In particolare, le caratteristiche specifiche dell’IA, tra cui la complessità, l’autonomia e l’opacità, rendono spesso difficile o eccessivamente costoso, per i danneggiati, identificare la persona responsabile e assolvere gli oneri probatori in merito alla sussistenza dei presupposti per la risarcibilità del danno. La recente proposta di direttiva europea sull’adeguamento delle norme sulla responsabilità civile extracontrattuale all’intelligenza artificiale (AILD) mira a creare un quadro normativo armonizzato che affronti le specificità dell’IA, con l’obiettivo di garantire una tutela adeguata alle vittime di un illecito aquiliano, senza ostacolare l’innovazione tecnologica. Essa si inserisce in un pacchetto più ampio di misure volte a promuovere l’utilizzazione e lo sviluppo di sistemi di IA affidabili, in cui campeggiano, da ultimo, la legge sull’IA (Regolamento UE, 2024/1689), volta ad armonizzare le norme sull’intelligenza artificiale con un approccio «basato sul rischio», e la direttiva sulla responsabilità dei prodotti (PLD), che abroga la precedente direttiva n. 85/374/CEE, innovando la disciplina alla luce degli sviluppi legati alle nuove tecnologie. L’articolo si prefigge di esaminare criticamente, alla luce del quadro normativo europeo già in vigore, i singoli punti della proposta di direttiva, tra cui in particolare il profilo della ripartizione di responsabilità fra il fornitore/produttore e l’utente, i criteri per la determinazione della responsabilità in relazione al grado di autonomia e prevedibilità del sistema IA, l’onere della prova e le presunzioni relative in tema di non conformità ad un pertinente obbligo di diligenza ed in tema di nesso di causalità, le ipotesi di responsabilità oggettiva per attività ad alto rischio.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


