La doppia faccia dell'AI regulation
Aspetti più o meno evidenti su cui riflettere, nell'epoca della Generative AI
Original in Italian; automatic translation into English available here.
Intro
Sarà l’influenza di film o serie che, da Blade Runner fino a Black Mirror, ci prospettano da decenni un futuro distopico in cui la tecnologia e l’Intelligenza Artificiale metteranno in qualche modo in pericolo l’umanità.
O forse sarà l’impatto visivo di immagini fotorealistiche (ma ovviamente false) come il Papa griffato o Trump in arresto.
O ancora, sarà una reale percezione della rivoluzione che sta accadendo grazie all’AI: abbiamo oggi algoritmi che permettono a macchine di generare testo, immagini, video indistinguibili dalla realtà o da quanto potrebbe fare un essere umano, andando ben oltre il celebre Test di Turing.
Quale che sia il motivo, siamo tutti d’accordo: in qualche modo, non possiamo subire passivamente l’avvento della Generative AI.
Come spesso accade in tutto ciò che riguarda la tecnologia e i suoi impatti, sulle idee a più alto livello è possibile raggiungere un certo consenso: i problemi reali sono la strategia e l’implementazione, ossia come trasformiamo un’ideale condiviso in passi operativi, in questo caso orientati ad avere un maggior controllo e una maggiore tranquillità nell’uso dell’intelligenza artificiale.
Per capire realmente cosa sta succedendo, penso sia utile un breve “riassunto delle puntate precedenti” nel mondo dell’AI, in particolare quella generativa.
Gli ideali alla base di OpenAI
Dicembre 2015: Elon Musk e Sam Altman fondano OpenAI. Non parliamo di due individui qualunque. Il primo non necessita di introduzioni, il secondo era all’epoca il presidente di Y Combinator, uno dei più noti acceleratori americani di startup, grazie al cui sostegno aziende come Stripe, Airbnb e Dropbox hanno potuto prosperare.
Leggere oggi l’articolo di Wired dell’inizio del 2016 in cui si illustravano gli ideali alla base di OpenAI fa riflettere. Consiglio senza dubbio la lettura per esteso, ma questi sono gli obiettivi di OpenAI che vengono illustrati:
Creare un nuovo tipo di laboratorio di Intelligenza Artificiale, che lavori fuori dal controllo di Google o altre Big Tech, con l’obiettivo di rivoluzionare la più dirompente delle tecnologie moderne (appunto l’AI) e renderla libera1
Mettere assieme le menti più brillanti (e ce l’hanno fatta: da Ian Goodfelow ad Andrej Karpathy, per dirne due) non con l’obiettivo di mero profitto, ma di rendere l’AI migliore e combatterne possibili usi malevoli, grazie alla sua diffusione e apertura (nel senso di open-source)2
Evitare che l’AI e il suo futuro diventino monopolio di una o due aziende3
Sicuramente ideali nobili, anche se non facilmente compatibili con gli investimenti richiesti per far partire questa iniziativa, specialmente per retribuire i più brillanti ricercatori anche oltre 1 milione di dollari l’anno.
In realtà, a rileggere oggi quell’articolo, già si coglie qualche sfumatura diversa tra i vari co-founder. Anzi, qualcosa più di una sfumatura, ad esempio andando a leggere un paio di virgolettati di Greg Brockman, tuttora presidente di OpenAI.
We won't patent anything in the near term, but we're open to changing tactics in the long term, if we find it's the best thing for the world.
We will produce lot of open source code. But we will also have a lot of stuff that we are not quite ready to release.
Brevetti? Codice proprietario? Sono blasfemie alle orecchie di chiunque sostenga un mondo open.
Sono state profetiche le parole di Oren Etzioni, responsabile di un centro di ricerca di eccellenza, oggi un po’ oscurato da OpenAI, ossia l’Allen Institute for Artificial Intelligence.
This makes me wonder where they're really going.
Il resto è storia.
Nel 2018 Elon Musk esce da OpenAI, in palese dissenso con la visione del resto del top management. Nel 2019 OpenAI annuncia la creazione di un’entità for profit e stringe legami sempre più forti con Microsoft… ed Elon può proseguire nella sua auto-narrazione di eroe che si oppone a quelli che i complottisti italiani chiamano abitualmente poteri forti.
Anche grazie ai finanziamenti ricevuti e alla potenza di calcolo su Cloud messa a disposizione dal colosso di Redmond, a fine 2022 OpenAI rilascia ChatGPT, cambiando per sempre il corso dell’AI.
E non solo.
Cos’è successo dietro le quinte
Ad un utilizzatore casuale di ChatGPT può passare inosservato una grande differenza tra gli ultimi mesi e l’ultimo decennio, nel mondo dell’AI.
Se l’Intelligenza Artificiale ha avuto una crescita impressionante si deve in gran parte all’apertura, da parte delle Big Tech, di innovazioni che un tempo sarebbero state brevettate e protette a tutti i costi.
Si possono fare tanti esempi, mi limiterò ad un paio:
Il funzionamento di ChatGPT e di tutti i Large Language Models è riconducibile al cosiddetto meccanismo di attenzione, un’architettura di deep learning che si è rivelata straordinariamente efficace in molti compiti diversi, specialmente nel Natural Language Processing. Nato tra Google Brain e Google Research, questo meccanismo è stato subito reso pubblico.
PyTorch e Tensorflow sono sicuramente i framework più usati nel mondo del deep learning. Vengono rispettivamente da Facebook e Google e anche loro… sono completamente aperti e usabili da chiunque.
Parliamo di qualcosa di epocale: i più grandi colossi non solo del mondo tech, ma dell’economia in generale, che rendono liberamente disponibili elementi chiave delle proprie tecnologie.
Con ChatGPT siamo un po’ tornati indietro. Niente codice aperto, niente paper, niente trasparenza sui dati usati per addestrare i modelli.
È tutto chiuso, nascosto e protetto… il nome stesso di OpenAI sembra sempre più un ossimoro. E voglio essere chiaro: in sé e per sé, è una scelta perfettamente lecita.
Ma è un dato di fatto che l’evoluzione degli ultimi 10 anni dell’AI non sarebbe mai avvenuta (con questa velocità) se tecnologie e algoritmi sviluppati nelle Big Tech non fossero stati resi pubblici e open-source. Per essere più espliciti: oggi ChatGPT non esisterebbe.
Come sta evolvendo il mondo di LLM ed AI
Uno dei grandi pregi di OpenAI è stato quello di aver alzato clamorosamente l’asticella. Ha proprio cambiato lo sport del Natural Language Processing, un po’ come Fosbury nel salto in alto.
Ma come nello sport, anche nella tecnologia e nell’AI il vantaggio iniziale non dura per sempre. Difficile stimare i tempi, ma chiunque viva nel mondo del tech sa che le alternative a ChatGPT e altri modelli chiusi arriveranno.
Anzi, la rincorsa è già iniziata, e tanti modelli aperti sono sempre più vicini a quelli di OpenAI.
In questo senso, ha fatto scalpore un articolo trapelato da Google, dal titolo eloquente: “Non siamo protetti da un fossato, e non lo è nemmeno OpenAI”.
L’articolo spiega molto bene le moderne dinamiche di come nascono e si sviluppano tecnologie straordinarie, arrivando a questa conclusione.
Directly Competing With Open Source Is a Losing Proposition
Questo è il punto chiave: non c’è competizione diretta tra closed-source e open-source (il secondo ha già vinto da un pezzo).
È nel mondo della competizione indiretta che OpenAI, ma anche la stessa Google, hanno invece possibilità di spuntarla.
Partenza ad handicap
Sono tre i vantaggi indiscutibili di OpenAI (e Microsoft), piuttosto che di altre Big Tech che lavorano nel mondo della Generative AI.
Il primo è sicuramente la disponibilità di potenza di calcolo: i motori di AI più performanti richiedono milioni e milioni di dollari per essere addestrati, e questo non è sicuramente alla portata di tutti. D’altro canto, c’è una buona correlazione tra dimensione dei modelli e performance… ma non è il 100%, come visibile anche da alcuni benchmark delle attuali soluzioni open-source.
La capacità di attrarre talenti è un altro fronte su cui i budget miliardari delle grandi aziende tecnologiche hanno pochi eguali. Ma la storia recente dimostra che molti ricercatori e sviluppatori brillanti sono motivati non solo da generosi stipendi: dedicano spesso molto tempo personale a progetti in cui, semplicemente, credono.
Ultima, ma non ultima, la possibilità di integrazione di algoritmi di AI in ecosistemi ampi e complessi è a mio avviso il punto chiave che potrebbe portare modelli closed-source a imporsi. Ci troveremo a breve l’AI integrata un po’ ovunque, ed è già in parte così: basti pensare a Copilot o all’imminente integrazione di ChatGPT nella suite Office.
Tutte queste sono difficoltà, più o meno grandi, per una diffusione dell’AI che ricalchi gli ideali originari di OpenAI.
Difficoltà sì, ma non ostacoli insormontabili.
AI regulation: un colpo sotto la cintura?
Quando si parla di una regolamentazione dell’AI, non bisogna dimenticarsi dello scenario illustrato finora: miliardi di dollari di investimenti, risultati tangibili e strabilianti, ma un vantaggio competitivo messo a repentaglio da una miriade di outsider.
Parlando di normativa, è interessante sentire questa clip di un minuto su cosa ha proposto Sam Altman a maggio 2023.
Di base, la sua proposta è una regolamentazione da parte degli Stati Uniti che preveda licensing and testing - ossia l’adozione di un framework normativo che solo i più grandi player del settore possono permettersi di sostenere. Col risultato di mettere una pietra tombale sull’approccio aperto e collaborativo che tanto ha rappresentato per l’AI nell’ultimo decennio.
Il confine tra una sana ed auspicabile supervisione degli algoritmi dell’AI e un approccio anticompetitivo, volto a cementare il proprio vantaggio di first mover e soddisfare i propri investitori, si fa sempre più labile.
Conclusioni
Il mondo dell’AI è complesso.
A Marzo 2023, oltre 30.000 individui hanno firmato una lettera aperta per fermare per 6 mesi gli sviluppi nel mondo dell’AI. Grandi nomi (tra cui Elon Musk, Joshua Bengio, Steve Wozniak e Yuval Noah Harari) hanno aderito all’iniziativa.
E il motivo evidente è che gli sviluppi culminati con ChatGPT e altre soluzioni di OpenAI hanno una potenza che era inimmaginabile anche solo due anni fa. Da un grande potere derivano grandi responsabilità, come disse qualcuno, e quindi per molti è opportuno prendere una pausa. Qualcosa che mi ricorda in un certo qual modo il Trattato di Non Proliferazione Nucleare.
Già in occasione di questa lettera aperta, alla chiave di lettura di una nobile cautela da parte dei ricercatori dell’AI si è affiancata l’osservazione (meno nobile) del fatto che Musk e altri abbiano cercato un modo elegante per recuperare terreno mettendo un freno a chi, in questo momento, è in testa nella gara dell’AI.
Ora, le parole di Altman suonano quanto mai simili. È lungimirante e addirittura altruistico chiedere una regolamentazione sulla tecnologia (cosa molto insolita in una Silicon Valley tipicamente ostile ad intromissioni a livello legislativo), o si tratta di un modo furbo per difendere il proprio vantaggio competitivo e garantire agli investitori di una ex no-profit un adeguato ROI?
Difficile avere una risposta definitiva… che forse non esiste. L’importante è non confondere nobili intenti con implementazioni scaltre e a vantaggio di pochi.
Musk, Altman, and company aim to give away what may become the 21st century's most transformative technology - and give it away for free […] A new kind of AI lab, one that would operate outside the control not only of Google, but of anyone else
The brightest minds aren't driven by---or at least not only by---the next product cycle or profit margin. They want to make AI better, and making AI better doesn't happen when you keep your latest findings to yourself […] Musk and Altman also think that the best way to battle malicious AI is not to restrict access to artificial intelligence but expand it.
Altman, and Musk aim to push the notion of openness further still, saying they don't want one or two large corporations controlling the future of artificial intelligence.
Grazie, ho letto tante analisi in cui si diceva che il garante della privacy aveva sbagliato a chiudere Chat-GPT in Italia ma visto quello che sta succedendo fargli dei complimenti sarebbe il minimo visto che ha capito prima di tutti questa deriva.....