La ricerca è orientata a valutare la compatibilità dell’attuale sistema normativo e codicistico rispetto alle implicazioni della decisione assunta dall’intelligenza artificiale (specie allorché essa sia imprevedibile ed intellegibile) e ciò tanto nell’ambito del diritto contrattuale quanto nel sistema aquiliano. Il lavoro approfondisce il tema della decisione algoritmica rispetto all’elemento volitivo su cui riposa il sistema contrattuale delineato dal Codificatore del 1942, nonché, laddove tale procedimento decisionale dell’I.A. sia svolto in campo extracontrattuale, in che modo il sistema della responsabilità sia suscettibile di applicazione dinanzi alle nuove sfide derivanti dall’impiego di simili tecnologie. L’obiettivo, pertanto, è mettere in luce come la decisione autonoma dell’intelligenza artificiale, seppure nelle sue diverse “epifanie”, possa essere osservata sia come manifestazione di volontà, quasi a far ritenere che l’I.A. possa in qualche modo essere qualificata come parte contraente nell’ambito dell’operazione contrattuale, sia come comportamento atto a provocare un danno, tanto all’utilizzatore quanto ai terzi. L’analisi, dunque, è rivolta alla menzionata componente volitiva dell’intelligenza artificiale ed ai conseguenti criteri di imputazione della decisione. Il Capitolo I muove da alcune preliminari note introduttive relative alla storia dell’intelligenza artificiale ed agli sviluppi che si possono attendere nei prossimi anni, al framework normativo che sta sviluppandosi in ambito eurounitario e, con precipuo riferimento alla disciplina multilivello in materia di protezione dei dati personali (con particolare riguardo al Regolamento europeo 679/2016), alla tematica della discriminazione connessa alla decisione algoritmica e alla correlata problematica della c.d. black box tipica dei sistemi in esame, ponendo l’accento sul divieto di decisioni automatizzate sancito dall’art. 22 GDPR. Il Capitolo II declina il problema della decisione dell’I.A. in ambito contrattuale: le considerazioni muovono invero dalla preliminare distinzione tra “smart contracts” ed “algorithmic contracts”, per poi approfondire il rapporto con gli istituti dell’arbitraggio e della rappresentanza e sostenere, in ultima analisi, che colui che beneficia delle funzionalità delle nuove tecnologie debba considerarsi al tempo stesso onerato di sopportare i rischi derivanti dall’assunzione di una decisione non voluta, non potendosi trincerare dietro lo schermo dell’autonomia decisionale del software. La questione dell’imputazione degli effetti del comportamento dell’I.A. emerge altresì nel Capitolo III, che si apre con l’analisi del tema della soggettivizzazione dell’intelligenza artificiale, che, invero, si pone in linea con le recenti tendenze dirette a riconoscere la personalità ad animali ed altre entità non umane. In realtà, anche dall’esame dei provvedimenti recentemente assunti in sede eurounitaria, il modello di responsabilità per i danni cagionati dall’I.A. sembra essere fondato sul (ed orientato verso il) criterio del rischio, che caratterizza la società industriale ma – si può affermare – ancor di più quella digitale. Tuttavia, a differenza di quanto emerge dal framework europeo, in cui siffatto sistema di allocazione è destinato ai soli operatori, il lavoro, anche in ottica di una responsabilizzazione dell’utenza, tende a mettere in rilievo come il modello di responsabilità oggettiva appaia altresì declinabile per talune ipotesi dannose, imputabili a chi beneficia dell’attività di uno smart product, anche se nelle vesti di consumatore. In definitiva, fintantoché non svilupperà una propria coscienza, l’intelligenza artificiale non è in grado di mettere in crisi le categorie tradizionali del diritto civile, atteso che l’attenzione dell’interprete deve essere rivolta non tanto al grado di intelligenza detenuto dal sistema di I.A., quanto alla strumentalità della sua attività rispetto ai bisogni dell’uomo. [a cura dell'autore]

Volontà e autonomia dell’intelligenza artificiale. Il nodo dell’imputazione della decisione algoritmica / Benedetta Maria Sabatino , 2022 May 30., Anno Accademico 2020 - 2021. [10.14273/unisa-5461].

Volontà e autonomia dell’intelligenza artificiale. Il nodo dell’imputazione della decisione algoritmica

Sabatino, Benedetta Maria
2022

Abstract

La ricerca è orientata a valutare la compatibilità dell’attuale sistema normativo e codicistico rispetto alle implicazioni della decisione assunta dall’intelligenza artificiale (specie allorché essa sia imprevedibile ed intellegibile) e ciò tanto nell’ambito del diritto contrattuale quanto nel sistema aquiliano. Il lavoro approfondisce il tema della decisione algoritmica rispetto all’elemento volitivo su cui riposa il sistema contrattuale delineato dal Codificatore del 1942, nonché, laddove tale procedimento decisionale dell’I.A. sia svolto in campo extracontrattuale, in che modo il sistema della responsabilità sia suscettibile di applicazione dinanzi alle nuove sfide derivanti dall’impiego di simili tecnologie. L’obiettivo, pertanto, è mettere in luce come la decisione autonoma dell’intelligenza artificiale, seppure nelle sue diverse “epifanie”, possa essere osservata sia come manifestazione di volontà, quasi a far ritenere che l’I.A. possa in qualche modo essere qualificata come parte contraente nell’ambito dell’operazione contrattuale, sia come comportamento atto a provocare un danno, tanto all’utilizzatore quanto ai terzi. L’analisi, dunque, è rivolta alla menzionata componente volitiva dell’intelligenza artificiale ed ai conseguenti criteri di imputazione della decisione. Il Capitolo I muove da alcune preliminari note introduttive relative alla storia dell’intelligenza artificiale ed agli sviluppi che si possono attendere nei prossimi anni, al framework normativo che sta sviluppandosi in ambito eurounitario e, con precipuo riferimento alla disciplina multilivello in materia di protezione dei dati personali (con particolare riguardo al Regolamento europeo 679/2016), alla tematica della discriminazione connessa alla decisione algoritmica e alla correlata problematica della c.d. black box tipica dei sistemi in esame, ponendo l’accento sul divieto di decisioni automatizzate sancito dall’art. 22 GDPR. Il Capitolo II declina il problema della decisione dell’I.A. in ambito contrattuale: le considerazioni muovono invero dalla preliminare distinzione tra “smart contracts” ed “algorithmic contracts”, per poi approfondire il rapporto con gli istituti dell’arbitraggio e della rappresentanza e sostenere, in ultima analisi, che colui che beneficia delle funzionalità delle nuove tecnologie debba considerarsi al tempo stesso onerato di sopportare i rischi derivanti dall’assunzione di una decisione non voluta, non potendosi trincerare dietro lo schermo dell’autonomia decisionale del software. La questione dell’imputazione degli effetti del comportamento dell’I.A. emerge altresì nel Capitolo III, che si apre con l’analisi del tema della soggettivizzazione dell’intelligenza artificiale, che, invero, si pone in linea con le recenti tendenze dirette a riconoscere la personalità ad animali ed altre entità non umane. In realtà, anche dall’esame dei provvedimenti recentemente assunti in sede eurounitaria, il modello di responsabilità per i danni cagionati dall’I.A. sembra essere fondato sul (ed orientato verso il) criterio del rischio, che caratterizza la società industriale ma – si può affermare – ancor di più quella digitale. Tuttavia, a differenza di quanto emerge dal framework europeo, in cui siffatto sistema di allocazione è destinato ai soli operatori, il lavoro, anche in ottica di una responsabilizzazione dell’utenza, tende a mettere in rilievo come il modello di responsabilità oggettiva appaia altresì declinabile per talune ipotesi dannose, imputabili a chi beneficia dell’attività di uno smart product, anche se nelle vesti di consumatore. In definitiva, fintantoché non svilupperà una propria coscienza, l’intelligenza artificiale non è in grado di mettere in crisi le categorie tradizionali del diritto civile, atteso che l’attenzione dell’interprete deve essere rivolta non tanto al grado di intelligenza detenuto dal sistema di I.A., quanto alla strumentalità della sua attività rispetto ai bisogni dell’uomo. [a cura dell'autore]
30-mag-2022
Scienze giuridiche
Responsabilità civile
Intelligenza artificiale
Contratto
Preterossi, Geminello
Sica, Salvatore
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11386/4924781
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact