Sul numero 4/2023 della rivista giuridica “Persona e mercato” (uscito pochi giorni fa) si trova "Diritto e nuove tecnologie", rubrica di aggiornamento dell’OGID Osservatorio Giuridico sulla Innovazione Digitale, costituito presso il Dipartimento di Diritto ed Economia delle Attività Produttive dell’Università di Roma “La Sapienza”, curata dal Prof. Salvatore Orlando e dal Dott. Mario Mauro. A questo link potete scaricare l'intero fascicolo.
Al suo interno alcuni interessanti articoli di approfondimento sulle più interessanti cause in tema di intelligenza artificiale e proprietà intellettuale che risultano attualmente in corso e che hanno già prodotto alcuni provvedimenti.
Il primo articolo che tengo a mettere in evidenza è quello della collega Deborah De Angelis intitolato "Il primo provvedimento in USA nel caso Stable Diffusion sulla richiesta di protezione del copyright contro i sistemi di IA generativa: fair use o non fair use?". L'autrice mette in luce i passaggi chiave dell'Order on Motion to Dismiss and Strike (Case No. 23-cv-00201-WHO) nella class action promossa da Sarah Anderson, Kelly McKernan, Karla Ortiz ed altri artisti contro Stability AI Ltd e Stability AI Inc., emesso dalla United States District Court, Northern District of California il 30 ottobre 2023.
Di seguito riporto alcuni passaggi essenziali della riflessione di De Angelis.
Innanzitutto, viene chiarito un concetto essenziale, che ho già più volte cercato di far passare tramite i miei video e i miei scritti (vedi ad esempio questo articolo).
i modelli di deep learning non archiviano una copia dei loro dati per l'addestramento, ma ne codificano una versione con punti dati simili ma più vicini tra loro. In un secondo momento questa rappresentazione viene decodificata per generare dati nuovi e originali con caratteristiche analoghe. La prova della responsabilità dei convenuti per le singole fattispecie di violazioni delle quali si richiede la condanna non è agevole da un punto di vista tecnico-giuridico.
Altra questione determinante in sede giudiziale è l'onere della prova, che cade indubbiamente su coloro che agiscono in causa sostenendo di aver subito una violazione dei diritti. E questo pare essere uno degli scogli più massicci da superare in tutte queste cause, dato che non vi è un legame di derivazione diretta tre le opere oggetto di addestramento e gli output forniti dall'AI.
La semplice indicazione di una pagina web (https://haveibeentrained.com), ove ricercare le opere oggetto di addestramento non è considerata utile e sufficiente a soddisfare l’onere di identificazione, in quanto non consente una pronta identificazione delle specifiche opere registrate ed utilizzate per l’addestramento, ma si basa sul risultato offerto dalla ricerca con il nome del singolo artista. È necessario dimostrare, dall’esame delle immagini di output fornite dalla ricerca, che le opere oggetto di addestramento, coinvolte nell’attività di scraping da parte di LAION, siano riconducibili ad un determinato artista.
[...]
per poter lamentare la responsabilità per violazione diretta del diritto d’autore, gli attori devono chiarire in che modo DreamUp generi immagini di output che possono considerarsi opere derivate dalle immagini di training e dimostrare che tali immagini di output siano sostanzialmente simili alle opere protette.
Un altro aspetto essenziale da indagare è quello relativo alle informazioni sul regime dei diritti (cioè il nome dell'autore, la data di creazione, eventuali licenze pubbliche applicate all'opera, etc.) che diventano difficili da fornire in sistemi chatbot come quelli a cui ormai ci stiamo abituando. La questione può diventare particolarmente delicata in quei paesi in cui esiste una tutela per i cosiddetti diritti morali d'autore. Scrive Deborah De Angelis:
vi è un’ulteriore lacuna dovuta alla mancanza di specifica indicazione da parte degli attori di quali fossero state le informazioni sul regime dei diritti indicate nelle opere disponibili on line, né sono stati portati all’attenzione fatti che dimostrino in modo plausibile che quando le immagini sono state oggetto di scraping e incluse nei dataset di apprendimento, le informazioni sul regime dei diritti siano state rimosse; né fatti che dimostrino in modo plausibile che ciascun convenuto fosse a conoscenza che le informazioni stesse fossero oggetto di scraping e che tale condotta avrebbe "indotto, consentito, facilitato o occultato una violazione". Qualora quest’ultima violazione fosse accertata, si porrebbero dei problemi di violazione del diritto morale d’autore nell’utilizzo delle opere da parte dei sistemi di IA generativi.
Il secondo articolo che tengo a mettere in evidenza è quello di Emanuela Burgio intitolato "La causa intentata dal NYT contro Open AI e Microsoft per la IA generativa". In questo testo, l'autrice ricostruisce la vicenda e prende le mosse dagli atti giudiziari delle parti in causa in questo importante processo iniziato il 27 dicembre 2023, di cui però al momento della scrittura dell'articolo non esistono ancora provvedimenti della corte. Questi sono i passaggi più significativi dell'articolo.
Il primo relativo al contesto di fatto che ha portato il noto giornale americano ad agire in giudizio. Il problema di fondo sta nell'integrazione tra le funzioni di sistema di AI generativa (ChatGPT) e di motore di ricerca (Bing) che permettono di produrre come output interi pezzi di articoli, riprodotti quasi pedissequamente.
A ulteriore conferma della presunta violazione, il New York Times ha prodotto dei documenti rappresentati la situazione in cui, utilizzando specifici input relativi ad importanti inchieste giornalistiche del Times, ChatGPT generava contenuti identici agli articoli stessi del Times bypassando di fatto le misure tecniche di protezione applicate al sito web dal titolare dei diritti (es. paywall).
Questa riproduzione non si limitava ai contenuti storici, ma, grazie all'interazione con il motore di ricerca Bing, era in grado di recuperare anche gli articoli di attualità più recenti pubblicati dal Times. In altre parole, mentre in passato i motori di ricerca erano in grado di mostrare solo snippets, spingendo l'utente ad accedere al sito del giornale per ottenere informazioni più dettagliate, nel contesto attuale il motore di ricerca poteva fornire una sintesi estesa all'utente, eliminando la necessità di accedere al sito originale.
OpenAI, dal canto suo, ha tentato di ricondurre la sua attività all’esenzione del "fair use" statunitense, invocando la natura “trasformativa” dell’utilizzo fatto delle opere protette.
Il secondo passaggio allarga il focus dalla causa del New York Time alle esperienze diverse di altri grandi player dell'editoria internazionale che hanno invece cercato di entrare nel gioco in modo più possibilista e propositivo.
Di contro, altri operatori del mercato hanno assecondato l’AI generativa, come ad esempio Axel Springer, l'editore tedesco e politico, il quale ha annunciato il 13 dicembre 2023 una partnership globale con OpenAI consentendo che ChatGPT fornisca agli utenti degli estratti di notizie pubblicate sulle testate del gruppo di sua proprietà.
O ancora, Associated Press, una delle più prestigiose agenzie di stampa statunitensi ha concesso a OpenAI l'accesso a parte del proprio archivio testuale. Come corrispettivo l'agenzia ha ottenuto l'accesso alla tecnologia di OpenAI.
Commenti