il-blocco-di-chatgpt?-la-tecnologia-non-si-ferma,-ma-si-puo-governare-–-marco-hugo-barsotti

Il blocco di ChatGPT? La tecnologia non si ferma, ma si può governare – Marco Hugo Barsotti

Con una controversa decisione, venerdì 31 marzo il Garante per la Privacy ha di fatto inibito a tutti gli Italiani l’accesso a ChatGPT. Caso unico al mondo e a nostro avviso ulteriore segno di uno Stato che ci ritiene sudditi incapaci di badare a noi stessi.

Anche se a ben leggere la delibera – e anche la prima risposta del nostro intervistato di oggi – si comprende come il blocco tout court del sito non fosse effettivamente necessario.

La nostra visione fortemente critica non è condivisa dall’avvocato Massimo Lualdi, il cui parere è rilevante in quanto forse uno dei più attivi in Italia proprio su questo versante, dove con il cappello di editore radiofonico ha recentemente lanciato un interessante progetto.

Abbiamo pertanto deciso di disturbarlo durante il week-end per una serie di domande con le quali speriamo di fare il punto non tanto sulla vicenda specifica, ma sul quadro generale dei pericoli e delle opportunità che questi LLMs (Large Language Models, i sistemi della famiglia di ChatGPT) stanno portando alla nostra società.

In calce all’articolo indichiamo alcuni modi per poter continuare ad esercitare il nostro diritto di accesso agli LLMs, senza andare contro la delibera dell’Authority.

Massimo Lualdi è avvocato esperto di diritto delle comunicazioni. Fondatore di Consultmedia, principale struttura italiana di competenze a più livelli in ambito mediatico, direttore del periodico di informazione tecnico giuridica Newslinet e cofounder della law firm MCL Avvocati Associati.

La decisione del Garante

MARCO HUGO BARSOTTI: Cominciamo da quanto avvenuto venerdì, il blocco di ChatGPT. Il Garante ha imposto “… la misura della limitazione provvisoria del trattamento dei dati personali degli interessati stabiliti nel territorio italiano“, ma il risultato è stato il blocco totale del sito. La misura è proporzionata? E in senso lato il Garante non ha leso la libertà di milioni di cittadini, saltando a piè pari ogni confronto democratico?

MASSIMO LUALDI: Il Garante non ha disposto il blocco totale, questa è stata una scelta cosiddetta “in autotutela” di Open AI. Personalmente ritengo che sia questione di giorni e che sia di tipo comunicativo, volta a dimostrare la buona volontà di Open AI ad adottare le misure di conformità verso temi sensibili, come la privacy ed i minori. Strategica iniziativa cautelare, peraltro, verso il possibile contagio di provvedimenti analoghi da parte di altre autorità straniere.

La questione del diritto d’autore

MB: Tra le motivazioni del Garante, “… l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT”. Intanto, perché a suo avviso parla solo di dati personali e non anche di “opere di ingegno umano”, visto che indubbiamente lo scraping è fatto anche su siti che riportano materiale teoricamente non riproducibile?

ML: Perché il Garante della Privacy si occupa appunto di privacy. La tutela del copyright esula dalle sue competenze.

MB: E in ogni caso, a suo avviso e secondo la legislazione corrente, “studiare” e “inglobare nella struttura di un LLM” (quello che il garante chiama “addestramento”) anche opere protette da copyright è lecito?

ML: Tema controverso e che sarà oggetto, prima che di interventi legislativi e regolamentari inevitabilmente di ordine sovranazionale, di pronunce giurisprudenziali, come già sta avvenendo negli Stati Uniti. Una considerazione esemplificativa su tutte: l’opera prodotta dall’IA di chi è? Di chi l’ha chiesta (licenziatario) o del produttore dell’IA (licenziante)?

L’aspetto penale

MB: Il direttore di Atlantico Quotidiano ha osservato come “sembri abbastanza allarmante il livello di inganno che si può generare con queste AI. Se si può riprodurre la voce delle persone si aprono voragini enormi per truffe di ogni tipo”. Le leggi attuali sono sufficienti per combattere questi pericoli potenziali? Esistono strumenti diversi dal blocco totale di questi sistemi che si possano applicare rapidamente?

ML: Occorre dividere gli aspetti civilistici da quelli penalistici. Non vedo particolari difficoltà ad individuare fattispecie di reato, come appunto la truffa, previste e punite dai codici esistenti. Più complesso l’aspetto civilistico, come appunto quello del copyright. Ad ogni modo esistono certamente provvedimenti cautelari di tipo inibitorio.

Il progetto “Patrizia”

MB: Con il progetto “Patrizia”, 70-80.it sta non solo sperimentando l’uso della IA per creare contenuti (qualcuno potrebbe dire: togliendo lavoro agli autori) ma anche esplicitamente trainando la IA a imitare, e in ultima analisi rimpiazzare una speaker professionista…

ML: Il progetto Patrizia toglie lavoro agli autori nella stessa misura in cui assegna lavoro agli addestratori della IA. La quale, di fatto è un bambino cui bisogna insegnare. Il bambino toglie lavoro all’insegnante perché una volta cresciuto diverrà a sua volta insegnante? Certo, ma è nelle cose della vita.

Il pc ha certamente tolto lavoro ai travet, ma ha creato schiere di nuove figure professionali come la macchina vapore, l’elettricità e internet. Il mondo evolve ed occorre adeguarsi. Si dice che la IA avrà un impatto da 7 trilioni di dollari sull’economia mondiale. L’aumento della produttività del lavoro legato all’adozione dell’Intelligenza Artificiale da qui ai prossimi dieci anni porterà a un aumento del Pil globale annuo del 7 per cento, pari approssimativamente a 7 trilioni di dollari.

La richiesta di moratoria

MB: In soli quattro mesi siamo passati da GPT 3 a GPT 4, sono comparsi sistemi alternativi forse anche più potenti (come Anthropic.ai) e hanno visto la luce decine di modelli che possono funzionare su un pc o un Mac senza bisogno dei soliti colossi. Una semplice estrapolazione ci porta a concludere che per la fine del 2023 le IA avranno superato gli umani in moltissimo campi e forse per questo Future File ha chiesto una moratoria di sei mesi. Qual è la sua opinione sia sull’idea in sé (il blocco di sei mesi) sia sulla sua applicabilità effettiva se gli organi competenti decidessero di imporre quello che per ora è un invito?

ML: È una mera boutade. Veramente qualcuno pensa che per sei mesi sperimentazioni e ricerca si fermerebbero? Su, siamo seri: la tecnologia non si ferma, al più si governa. È un po’ come l’energia nucleare: ormai non si può inibirla, ma controllarla si deve.

Sistemi alternativi

Come promesso e al fine di tutelare la libertà di tutti vi segnaliamo due LLM alternativi a GPT-4 (ChatGPT) che non sono stati oggetti di pronuncia da parte del Garante e pertanto sono liberamente utilizzabili.

Il primo è you.com: funziona di base come motore alternativo a Google, ma dopo la registrazione tramite la funzione chat si ha accesso ad un vero LLM paragonabile a ChatGPT.

Il secondo, forse più interessante, è Anthropic: creato da alcuni fuoriusciti da OpenAI e Google si propone di essere un modello che presta particolare attenzione all’allineamento. L’accesso è per ora ad inviti, ma chi fosse davvero interessato può inviare contattare chi scrive e cercheremo di aprirne l’accesso.

Related Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *