Il legislatore europeo, con l’adozione dell’AI Act, ha assunto un ruolo centrale nella definizione di un nuovo “nucleo di valori costituzionali” per la tutela dei diritti nel contesto dell’intelligenza artificiale. Questo assetto regolatorio, pur limitato e auspicabilmente rivedibile, pone l’interprete e il penalista di fronte a un nuovo metodo di indagine sulla responsabilità “indiretta” dell’uomo rispetto ai danni causati dalle macchine autonome, orientato specificamente a una valutazione del rischio di tipo normativo. L’AI Act dimostra che le sfide poste dall’intelligenza artificiale devono considerare un rapporto tra rischi e benefici collettivi, dove è l’uomo – e non la macchina – a effettuare il giudizio di bilanciamento tra i valori in gioco. Da un lato, si ribadisce la centralità del controllo umano e l’inutilità teorica di ricorrere a meccanismi di responsabilità diretta del sistema di IA; dall’altro, si evidenzia l’opportunità di individuare aree di “rischio consentito”, in una logica rispettosa della responsabilità personale ai sensi dell’art. 27 della Costituzione. In questa prospettiva, la tutela giuridica nell’intelligenza artificiale, in linea con la giurisprudenza sovranazionale, riaffermerebbe il ruolo di extrema ratio del diritto penale.

Verso il superamento del “legal risk” europeo: intelligenza artificiale e approccio proporzionale al rischio

Canato
2024

Abstract

Il legislatore europeo, con l’adozione dell’AI Act, ha assunto un ruolo centrale nella definizione di un nuovo “nucleo di valori costituzionali” per la tutela dei diritti nel contesto dell’intelligenza artificiale. Questo assetto regolatorio, pur limitato e auspicabilmente rivedibile, pone l’interprete e il penalista di fronte a un nuovo metodo di indagine sulla responsabilità “indiretta” dell’uomo rispetto ai danni causati dalle macchine autonome, orientato specificamente a una valutazione del rischio di tipo normativo. L’AI Act dimostra che le sfide poste dall’intelligenza artificiale devono considerare un rapporto tra rischi e benefici collettivi, dove è l’uomo – e non la macchina – a effettuare il giudizio di bilanciamento tra i valori in gioco. Da un lato, si ribadisce la centralità del controllo umano e l’inutilità teorica di ricorrere a meccanismi di responsabilità diretta del sistema di IA; dall’altro, si evidenzia l’opportunità di individuare aree di “rischio consentito”, in una logica rispettosa della responsabilità personale ai sensi dell’art. 27 della Costituzione. In questa prospettiva, la tutela giuridica nell’intelligenza artificiale, in linea con la giurisprudenza sovranazionale, riaffermerebbe il ruolo di extrema ratio del diritto penale.
2024
File in questo prodotto:
Non ci sono file associati a questo prodotto.
Pubblicazioni consigliate

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11577/3569221
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
  • OpenAlex ND
social impact