Con l’evoluzione della responsabilità da reato degli enti si sono estesi i confini della colpa penalmente rilevante, mettendo in discussione, nell’ambito delle organizzazioni complesse, il tradizionale concetto di ‘posizione di garanzia’ individuale a favore di una ‘cautela relazionale’. Questo studio – focalizzandosi in particolare sull’ipotesi di crimini commessi da sistemi di intelligenza artificiale – analizza come l’implementazione degli standards tecnici e organizzativi richiesti possa rappresentare una risposta efficace al rischio. Con l’AI Act, che propone nuovi scenari di c.d. rischio normativo ‘consentito’, emerge, peraltro, la necessità di una corporate liability adeguata. L’articolo esplora, pertanto, diversi possibili modelli di attuazione della responsabilità da reato degli enti nel contesto dell’IA, suggerendo come una responsabilità autonoma dell’ente possa colmare il responsibility gap dell’agente umano. Infine, in un’ottica de iure condendo volta a superare i limiti dell’attuale modello ex d.lgs. 231/2001, lo studio valorizza, in prospettiva futura, l’autonomia della ‘colpa di organizzazione’ rispetto alla commissione del reato presupposto da parte dell’agente umano, proponendo un tendenziale progressivo allontanamento – nel contesto del ‘rischio da intelligenza artificiale’ – da una responsabilità di natura ‘penale’.

La responsabilità da reato degli enti di fronte al ‘rischio da intelligenza artificiale’: responsibility gap e ‘rinnovata’ corporate liability

Maria Carla Canato
2025

Abstract

Con l’evoluzione della responsabilità da reato degli enti si sono estesi i confini della colpa penalmente rilevante, mettendo in discussione, nell’ambito delle organizzazioni complesse, il tradizionale concetto di ‘posizione di garanzia’ individuale a favore di una ‘cautela relazionale’. Questo studio – focalizzandosi in particolare sull’ipotesi di crimini commessi da sistemi di intelligenza artificiale – analizza come l’implementazione degli standards tecnici e organizzativi richiesti possa rappresentare una risposta efficace al rischio. Con l’AI Act, che propone nuovi scenari di c.d. rischio normativo ‘consentito’, emerge, peraltro, la necessità di una corporate liability adeguata. L’articolo esplora, pertanto, diversi possibili modelli di attuazione della responsabilità da reato degli enti nel contesto dell’IA, suggerendo come una responsabilità autonoma dell’ente possa colmare il responsibility gap dell’agente umano. Infine, in un’ottica de iure condendo volta a superare i limiti dell’attuale modello ex d.lgs. 231/2001, lo studio valorizza, in prospettiva futura, l’autonomia della ‘colpa di organizzazione’ rispetto alla commissione del reato presupposto da parte dell’agente umano, proponendo un tendenziale progressivo allontanamento – nel contesto del ‘rischio da intelligenza artificiale’ – da una responsabilità di natura ‘penale’.
2025
Quaderni del dottorato in giurisprudenza dell'Università di Padova 2024
9791256003655
File in questo prodotto:
Non ci sono file associati a questo prodotto.
Pubblicazioni consigliate

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11577/3569219
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
  • OpenAlex ND
social impact