Il disallineamento tra diritto e innovazione tecnologica e il concetto di "salvataggio giuridico" a posteriori

Riprendo un estratto particolarmente illuminante di un ottimo articolo di Daniela Tafani comparso il 7 novembre sul Bollettino telematico di filosofia politica e intitolato “Automaticamente illegali”. Una proposta per i sistemi di intelligenza artificiale (vedi originale), dedicato appunto alla regolamentazione dei sistemi di intelligenza artificiale.

le grandi compagnie tecnologiche hanno fondato infatti il loro modello di business sull’appropriazione e la commercializzazione dei dati personali, in violazione di diritti giuridicamente tutelati, scommettendo su un successivo “salvataggio giuridico”, in nome dell’inarrestabilità dell’innovazione tecnologica.

È particolarmente illuminante perché ci fa capire quale sia il disallineamento temporale tra il mondo del diritto (che hai i suoi tempi, cioè quelli necessari a comprendere un fenomeno e a redigere le norme per regolamentarlo) e il mondo dell'innovazione tecnologica (che va a una velocità indubbiamente più incalzante).

Successivamente, entrando nel merito del tema della regolamentazione dell'intelligenza artificiale, offre visibilità a una provocatoria proposta degli studiosi Frank Pasquale e Gianclaudio Malgieri, secondo cui bisognerebbe

disciplinare i modelli di IA ad alto rischio incorporati oggi in prodotti e servizi attraverso una presunzione di illegalità, ossia entro un sistema di “illegalità di default”: fino a prova contraria, tali sistemi dovrebbero essere considerati illegali, e l’onere della prova contraria dovrebbe incombere alle aziende.

Per ulteriori approfondimenti su questo approccio rimando anche al documento Brussels Privacy Hub Working Paper ‘From Transparency to Justification: Toward Ex Ante Accountability for AI’ proprio a firma di Gianclaudio Malgieri and Frank Pasquale, scaricabile qui.

Commenti