Di chi è l'intelligenza artificiale? Workshop online organizzato dall'Università Bicocca

L'amico Andrea Rossetti (professore di Filosofia del diritto e di Informatica giuridica presso l'Università di Milano-Bicocca) mi ha coinvolto in un interessante workshop/dibattito online sul tema dell'intelligenza artificiale, intesa non tanto come software quanto come modello di calcolo e di profilazione. Io cercherò di approfondire l'aspetto della proprietà intellettuale sul modello e sui dati da esso generati.

Lo streaming si terrà mercoledì 20 gennaio dalle ore 10:30 alle ore 13:00 su piattaforma Webex. La partecipazione è gratuita ma è richiesta la registrazione attraverso questo link.

Di seguito riporto il programma completo, la locandina e una presentazione più approfondita degli argomenti trattati.

PROGRAMMA DELLA MATTINATA
  • 10.30 – 10.45 | Introduzione di Federico Cabitza e Andrea Rossetti
  • 10.45 – 11.20 | Silvia Stefanelli (avvocato, Studio Legale Stefanelli&Stefanelli - Bologna)
  • 11.20 – 12.00 | Simone Aliprandi (avvocato e dottore di ricerca, autore di "Software licensing & data governance", Apogeo/Feltrinelli, 2020)
  • 12,00 – 12.30 | Fernando H. Llano Alonso (Universidad de Sevilla, cattedratico di Filosofia del diritto)
  • 12.30 – 13.00 | Tavola rotonda e chiusura


LOCANDINA


PRESENTAZIONE

L’acronimo IA, per Intelligenza Artificiale, è ormai ampiamente diffuso e non passa giorno senza leggere, tanto sulla stampa generalista quanto in quella accademica specialistica, dei vantaggi o dei pericoli della diffusione dell’intelligenza artificiale in contesti sociali ed organizzativi. In questo incontro, però, non vogliamo concentrarci né su che cosa sia l’IA né su che cosa si possa fare con essa, né se farlo sia etico o responsabile; vorremmo bensì occuparci di un aspetto normativo che ci pare sia stato poco indagato finora, ossia determinare a chi appartenga l’intelligenza artificiale, intesa come insieme di relazioni inferenziali prodotte dalla elaborazione di grandi quantità di dati tramite tecniche di machine learning, o apprendimento automatico. In termini più precisi, la domanda che ci vogliamo porre è: poiché un modello di machine learning è un insieme di parametri di una funzione matematica complessa definita applicando una serie di procedure matematiche su un insieme di dati di input, che è ontologicamente “altro” da quei parametri, a chi appartiene il modello? E di chi è il suo output? Se i dati di addestramento, come si è soliti chiamare i dati usati per definire un modello di machine learning, sono proprietari, il loro proprietario può vantare qualche diritto sul modello? La stessa domanda posta in termini di GDPR: di chi è la profilazione che si ottiene a partire da dati proprietari? La domanda ci pare particolarmente rilevante se i dati di cui stiamo parlando sono dati sanitari. Ad esempio: ho Caio che vorrebbe usare un mio modello che io ho definito a partire dai dati sanitari, opportunamente anonimizzati, gestiti da un ospedale di Sempronio, e per i quali Sempronio ha ottenuto il consenso informato dei propri pazienti a scopi di ricerca. Sempronio può vantare dei diritti sulla mia IA e Caio può usarlo avendo me come unico interlocutore? Un problema collegato è quello della Intelligenza artificiale certificata come dispositivo medico. Tale sistema deve garantire prestazioni ripetibili in ambiti diversi (cf. EU MDR 2017/745): però una mia IA addestrata sui dati di Sempronio e validata presso la sua struttura potrebbe non essere altrettanto accurata presso la struttura di Caio, a meno che il modello non sia aggiornato e parzialmente riaddestrato, prendendo in input anche i dati di Caio: quella IA, però, non darebbe la stessa risposta relativamente ad uno stesso paziente, se questo andasse nell’ospedale di Caio oppure in quello di Sempronio.

Quindi: la mia IA è qualcosa che dipende dai tuoi dati (di addestramento), oppure è un mio processo, che può dare risultati diversi in luoghi e contesti diversi, in quanto diversa è anche l’eredità di dati che in quel contesto sono disponibili e a cui la IA deve adattarsi per dare un supporto più contestualizzato? E se il risultato finale, il modello, dipende tanto dai dati di addestramento, quanto dal caso, (come osservat recentemente) come si configura il rapporto tra IA e dati, e qual è la natura giuridica della prima? Deve essere intesa come prodotto, come servizio, o come un ibrido tra “cosa” e “processo” che è comunque soggetto a proprietà intellettuale?

Vogliamo indagare tutte queste domande e per farlo coinvolgeremo alcuni attenti osservatori della frontiera tecnologica e delle norme che cercano di governare la complessità insita nell’applicazione degli strumenti di IA ai problemi del mondo reale.

Commenti