Il rapido avanzare dell’intelligenza artificiale (IA) solleva interrogativi inediti sullo status giuridico degli agenti autonomi e sulla distribuzione delle responsabilità per i danni da essi causati. Il presente lavoro esamina il dibattito relativo alla “personalità giuridica elettronica” dell’IA e ne analizza l’evoluzione alla luce del recente AI Act europeo. Vengono confrontati gli approcci normativi di Unione Europea, Stati Uniti e Cina in materia di responsabilità civile e soggettività artificiale, evidenziando come nei tre ordinamenti prevalga – seppur con differenze di metodo – la scelta di non riconoscere all’IA uno status di soggetto di diritto, mantenendo invece gli esseri umani e le persone giuridiche tradizionali al centro dell’apparato di responsabilità. Nei paragrafi centrali si discutono casi emblematici a livello globale: dal robot Sophia (cittadinanza saudita) alle controversie su DABUS (IA inventrice nei brevetti), fino a decisioni giurisprudenziali quali l’uso di algoritmi predittivi in ambito penale (State v. Loomis negli USA) o civile (es. funzione Autocomplete di Google) e provvedimenti regolatori recenti (l’intervento del Garante Privacy italiano su ChatGPT, e il caso dell’auto a guida autonoma Uber a Tempe). L’analisi comparata evidenzia come, pur senza attribuire personalità giuridica alle macchine intelligenti, i sistemi giuridici stiano adattando principi e regole per affrontare le sfide poste dall’IA, tra esigenze di innovazione, tutela dei diritti e garanzia di rimedi effettivi. In conclusione, si propongono riflessioni critiche sul tema della responsabilità e sui limiti concettuali e pratici di un’eventuale soggettività giuridica artificiale, sottolineando la necessità di soluzioni normative bilanciate e di una cooperazione globale in materia.
Personalità giuridica ed elettronica alla luce dell’AI Act: responsabilità, soggettività artificiale e giurisprudenza globale.
D'Elia, Paola
2026
Abstract
Il rapido avanzare dell’intelligenza artificiale (IA) solleva interrogativi inediti sullo status giuridico degli agenti autonomi e sulla distribuzione delle responsabilità per i danni da essi causati. Il presente lavoro esamina il dibattito relativo alla “personalità giuridica elettronica” dell’IA e ne analizza l’evoluzione alla luce del recente AI Act europeo. Vengono confrontati gli approcci normativi di Unione Europea, Stati Uniti e Cina in materia di responsabilità civile e soggettività artificiale, evidenziando come nei tre ordinamenti prevalga – seppur con differenze di metodo – la scelta di non riconoscere all’IA uno status di soggetto di diritto, mantenendo invece gli esseri umani e le persone giuridiche tradizionali al centro dell’apparato di responsabilità. Nei paragrafi centrali si discutono casi emblematici a livello globale: dal robot Sophia (cittadinanza saudita) alle controversie su DABUS (IA inventrice nei brevetti), fino a decisioni giurisprudenziali quali l’uso di algoritmi predittivi in ambito penale (State v. Loomis negli USA) o civile (es. funzione Autocomplete di Google) e provvedimenti regolatori recenti (l’intervento del Garante Privacy italiano su ChatGPT, e il caso dell’auto a guida autonoma Uber a Tempe). L’analisi comparata evidenzia come, pur senza attribuire personalità giuridica alle macchine intelligenti, i sistemi giuridici stiano adattando principi e regole per affrontare le sfide poste dall’IA, tra esigenze di innovazione, tutela dei diritti e garanzia di rimedi effettivi. In conclusione, si propongono riflessioni critiche sul tema della responsabilità e sui limiti concettuali e pratici di un’eventuale soggettività giuridica artificiale, sottolineando la necessità di soluzioni normative bilanciate e di una cooperazione globale in materia.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


