Con l’evoluzione della responsabilità da reato degli enti si sono estesi i confini della colpa penalmente rilevante, mettendo in discussione, nell’ambito delle organizzazioni complesse, il tradizionale concetto di ‘posizione di garanzia’ individuale a favore di una ‘cautela relazionale’. Questo studio – focalizzandosi in particolare sull’ipotesi di crimini commessi da sistemi di intelligenza artificiale – analizza come l’implementazione degli standards tecnici e organizzativi richiesti possa rappresentare una risposta efficace al rischio. Con l’AI Act, che propone nuovi scenari di c.d. rischio normativo ‘consentito’, emerge, peraltro, la necessità di una corporate liability adeguata. L’articolo esplora, pertanto, diversi possibili modelli di attuazione della responsabilità da reato degli enti nel contesto dell’IA, suggerendo come una responsabilità autonoma dell’ente possa colmare il responsibility gap dell’agente umano. Infine, in un’ottica de iure condendo volta a superare i limiti dell’attuale modello ex d.lgs. 231/2001, lo studio valorizza, in prospettiva futura, l’autonomia della ‘colpa di organizzazione’ rispetto alla commissione del reato presupposto da parte dell’agente umano, proponendo un tendenziale progressivo allontanamento – nel contesto del ‘rischio da intelligenza artificiale’ – da una responsabilità di natura ‘penale’.
La responsabilità da reato degli enti di fronte al ‘rischio da intelligenza artificiale’: responsibility gap e ‘rinnovata’ corporate liability
Maria Carla Canato
2025
Abstract
Con l’evoluzione della responsabilità da reato degli enti si sono estesi i confini della colpa penalmente rilevante, mettendo in discussione, nell’ambito delle organizzazioni complesse, il tradizionale concetto di ‘posizione di garanzia’ individuale a favore di una ‘cautela relazionale’. Questo studio – focalizzandosi in particolare sull’ipotesi di crimini commessi da sistemi di intelligenza artificiale – analizza come l’implementazione degli standards tecnici e organizzativi richiesti possa rappresentare una risposta efficace al rischio. Con l’AI Act, che propone nuovi scenari di c.d. rischio normativo ‘consentito’, emerge, peraltro, la necessità di una corporate liability adeguata. L’articolo esplora, pertanto, diversi possibili modelli di attuazione della responsabilità da reato degli enti nel contesto dell’IA, suggerendo come una responsabilità autonoma dell’ente possa colmare il responsibility gap dell’agente umano. Infine, in un’ottica de iure condendo volta a superare i limiti dell’attuale modello ex d.lgs. 231/2001, lo studio valorizza, in prospettiva futura, l’autonomia della ‘colpa di organizzazione’ rispetto alla commissione del reato presupposto da parte dell’agente umano, proponendo un tendenziale progressivo allontanamento – nel contesto del ‘rischio da intelligenza artificiale’ – da una responsabilità di natura ‘penale’.Pubblicazioni consigliate
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.




