L’open source non funziona per l’intelligenza artificiale
Dobbiamo cambiare il modo di pensare all’open source. Come scriveva Tim O’Reilly nel 2006 riferendosi proprio all’open source, “una delle motivazioni per condividere (la necessità di fornire una copia del codice sorgente per consentire a qualcuno di eseguire il programma) è scomparsa. Non solo infatti non è più necessario, ma nel caso delle applicazioni più grandi non è più possibile”.
Questa impossibilità di condivisione ha sconvolto la definizione di open source negli ultimi dieci anni e ora sta influenzando il modo in cui pensiamo all’intelligenza artificiale (AI), come ha recentemente fatto notare Mike Loukides. Non c’è mai stato un momento più importante per collaborare sull’IA, ma al tempo stesso non c’è mai stato un momento in cui farlo è stato più difficile. Come scrive Loukides, “A causa della loro scala, i modelli linguistici di grandi dimensioni hanno un problema significativo con la riproducibilità”.
Proprio come con il cloud nel 2006, le aziende che svolgono il lavoro più interessante in ambito IA potrebbero avere difficoltà ad “aprire il codice” nei modi che tradizionalmente ci aspettavamo. Anche così, questo non significa che non possano essere ancora “aperte” in modi significativi.
Buona fortuna a far girare quel modello sul vostro laptop
Secondo Loukides, sebbene molte aziende possano affermare di essere coinvolte nell’IA, in realtà ci sono solo tre grandi società che spingono il settore in avanti: Facebook, OpenAI e Google. Cosa hanno in comune? La capacità di eseguire enormi modelli su larga scala. In altre parole, stanno creando intelligenza artificiale in un modo che nessun altro può fare. Non perché vogliano tenere tutto in segreto, ma perché semplicemente un’infrastruttura e una conoscenza di come eseguire quell’infrastruttura che solo loro possono vantare.
“Potete scaricare il codice sorgente per OPT-175B di Facebook”, riconosce Loukides, “ma non sarete in grado di addestrarlo da soli su nessun hardware a cui avete accesso. È troppo grande anche per le università e altri istituti di ricerca”. E questo accade nonostante il grande annuncio di Facebook che stava “condividendo Open Pretrained Transformer (OPT-175B) per consentire un maggiore coinvolgimento della comunità nella comprensione di questa nuova tecnologia fondamentale”.
Sembra tutto molto belle, ma, come insiste Loukides, OPT-175B “probabilmente non può nemmeno essere riprodotto da Google e OpenAI, anche se hanno risorse di calcolo sufficienti”. Come mai? “OPT-175B è troppo strettamente legato all’infrastruttura di Facebook (incluso l’hardware personalizzato) per essere riprodotto sull’infrastruttura di Google”. Ancora una volta, Facebook non sta cercando di nascondere ciò che sta facendo con OPT-175B. È davvero difficile costruire un’infrastruttura del genere, e anche quelli con i fondi e il know-how per farlo finiranno per costruire qualcosa di diverso.
Questo è esattamente il punto che Jeremy Zawodny di Yahoo! e Chris DiBona di Google affermavano nel 2006 all’OSCON. Certo, avrebbero potuto rendere open source tutto il loro codice, ma a cosa sarebbe servito dato che era stato costruito per funzionare su una scala e in un modo che letteralmente non sarebbe potuto essere riprodotto da nessun’altra parte?
Torniamo all’IA. È difficile fidarsi dell’IA se non comprendiamo la scienza all’interno delle macchine. Dobbiamo trovare il modo di aprire quell’infrastruttura. Loukides ha un’idea, anche se potrebbe non soddisfare i sostenitori più zelanti del software libero: “La risposta è fornire libero accesso a ricercatori esterni ed early adopter in modo che possano porre le proprie domande e vedere l’ampia gamma di risultati, non fornendo loro l’accesso ai data center di Facebook, Google o OpenAI, ma tramite API pubbliche”. È un’idea interessante che potrebbe funzionare, anche se non è open source nel modo in cui molti vorrebbero.
Pensare in modo diverso all’open source
Nel 2006, molti erano felici di infierire contro le mega macchine open source (Google e Yahoo!) per non essere più aperte, ma quell’accusa era ed è per lo più priva di significato. Dal 2006, ad esempio, Google ha creato e reso open source un’infrastruttura chiave per soddisfare le sue esigenze strategiche grazie a strumenti open source come TensorFlow e Kubernetes. Google non è stata (e non è oggi) la sola a muoversi in questa direzione, ma è semplicemente migliore in ambito open source rispetto alla maggior parte delle aziende. Poiché l’open source è intrinsecamente egoistico, le aziende e gli individui apriranno sempre il codice a vantaggio loro o dei propri clienti. È sempre stato così, e lo sarà sempre.
Tornando alla proposta si Loukides sui modi per aprire in modo significativo l’IA nonostante l’enorme divario fra i tre giganti dell’IA e tutti gli altri, la chiave di svolta della sua argomentazione è fornire un accesso sufficiente ai ricercatori per essere in grado di riprodurre i successi e gli insuccessi di come funziona un particolare modello di intelligenza artificiale. Ricercatori che, comunque, non hanno bisogno dell’accesso completo a tutto il codice e all’infrastruttura per eseguire quei modelli perché, come sostiene Loukides, sarebbe essenzialmente inutile. In un mondo in cui uno sviluppatore poteva eseguire un programma open source su un laptop e realizzare alcuni tipi di lavoro, aveva senso richiedere l’accesso completo a quel codice. Date però la portata e le complessità uniche del codice in esecuzione oggi su Google o Microsoft, questo non ha più senso, se mai lo ha avuto.