Superare i limiti dell’IA con l’intelligenza artificiale generale
Che ce ne rendiamo conto o meno, la maggior parte di noi ha a che fare con l’intelligenza artificiale (IA) ogni giorno. Ogni volta che eseguiamo una ricerca su Google o facciamo una domanda a Siri, stiamo utilizzando l’IA. Il problema, tuttavia, è che questo tipo di intelligenza non è davvero… intelligente. Questi strumenti infatti non pensano o non capiscono veramente come facciamo noi umani. Piuttosto, analizzano enormi set di dati, cercando modelli e correlazioni.
Questo non significa togliere nulla all’IA. Come dimostrano quotidianamente Google, Siri e centinaia di altri strumenti, l’IA attuale è incredibilmente utile, ma come già detto non c’è molta intelligenza coinvolta, o almeno non nel modo in cui noi pensiamo all’intelligenza umana. L’IA di oggi dà solo l’apparenza di intelligenza, ma di fatto manca di qualsiasi reale comprensione o coscienza.
Affinché l’IA di oggi superi i suoi limiti intrinseci ed evolva nella sua fase successiva, definita come intelligenza artificiale generale (AGI), deve essere in grado di apprendere qualsiasi compito intellettuale che un essere umano può capire. Ciò consentirà a questa intelligenza di crescere costantemente nello stesso modo in cui un bambino di tre anni cresce fino a possedere l’intelligenza di un bambino di quattro anni e così via fino all’età matura.
Il vero futuro dell’IA
L’AGI rappresenta il vero futuro della tecnologia IA, un fatto che non è sfuggito a numerose aziende, inclusi nomi come Google, Microsoft, Facebook, OpenAI di Elon Musk e Singularity.net. La ricerca condotta da tutte queste aziende dipende da un modello di intelligenza che possiede vari gradi di specificità e si basa sugli algoritmi di intelligenza artificiale di oggi. Sorprendentemente, tuttavia, nessuna di queste aziende si è concentrata sullo sviluppo di una tecnologia AGI di base che replichi la comprensione contestuale degli esseri umani.
Ma esattamente cosa ci vuole per arrivare a una vera AGI? E come forniremo ai computer una comprensione del tempo e dello spazio? L’attuale limite di base dell’intelligenza artificiale è che non riesce a comprendere che parole e immagini rappresentano cose fisiche che esistono e interagiscono in un universo fisico. L’IA di oggi non riesce insomma a comprendere il concetto di tempo e il fatto che le cause abbiano degli effetti.
Questi limiti basici devono ancora essere superati, forse perché è difficile ottenere finanziamenti importanti con lo scopo di risolvere problemi che qualsiasi bambino di tre anni potrebbe risolvere. Noi umani siamo bravi a unire le informazioni provenienti da più sensi. Un bambino di tre anni usa infatti tutti i suoi sensi per imparare e conoscere il tempo vivendolo, interagendo con i giocattoli e il mondo reale in cui vive.
Allo stesso modo, una AGI avrà bisogno di “capsule sensoriali” per imparare cose simili, almeno all’inizio. I computer non hanno bisogno di risiedere all’interno di queste capsule, ma possono connettersi in remoto perché i segnali elettronici sono molto più veloci di quelli del sistema nervoso umano.
Le capsule offrono l’opportunità di apprendere in prima persona come spostare oggetti, eseguire sequenze di azioni nel tempo e imparare dalle conseguenze di tali azioni. Con la vista, l’udito, il tatto e altri strumenti, l’AGI può imparare a comprendere in modi che sono semplicemente impossibili per un sistema puramente testuale o puramente basato su immagini. Una volta che l’AGI ha acquisito questa comprensione, le capsule sensoriali potrebbero non essere più necessarie.
I costi ei rischi dell’AGI
Attualmente non possiamo quantificare la quantità di dati che potrebbe essere necessaria per rappresentare la vera comprensione. Possiamo solo considerare il cervello umano e ipotizzare che una percentuale ragionevole di esso debba riguardare la comprensione. Noi umani interpretiamo tutto nel contesto di tutto ciò che abbiamo già imparato. Ciò significa che da adulti interpretiamo tutto nel contesto della vera comprensione che abbiamo acquisito nei primi anni di vita. Solo quando la comunità dell’IA riconoscerà questo fatto e conquisterà le basi fondamentali dell’intelligenza, l’AGI potrà emergere.
La comunità dell’IA deve anche considerare i potenziali rischi che potrebbero accompagnare il raggiungimento dell’AGI. Quelli dell’intelligenza artificiale generale sono sistemi diretti a obiettivi che, almeno inizialmente, possono essere fissati a beneficio dell’umanità. Se però i sistemi AGI vengono forniti di armamenti, diventeranno probabilmente molto efficienti anche in quel settore. La preoccupazione non riguarda tanto i singoli robot in stile Terminator, quanto un “cervello” AGI in grado di elaborare strategie ancora più distruttive per controllare l’umanità.
Bannare completamente lo studio sull’AGI trasferirebbe semplicemente lo sviluppo a paesi e organizzazioni che si rifiutano di riconoscere tale ban. In quanto tempo potrebbe succedere tutto questo? Anche se non c’è consenso tra gli esperti, l’AGI potrebbe arrivare molto presto.
Si consideri che una percentuale molto piccola del genoma umano (che ammonta a circa 750 MB di informazioni) definisce l’intera struttura del cervello. Ciò significa che lo sviluppo di un programma contenente meno di 75 MB di informazioni potrebbe rappresentare pienamente il cervello di un neonato con potenziale umano. Quando ci rendiamo conto che il progetto apparentemente complesso del genoma umano è stato completato molto prima di quanto chiunque si aspettasse realisticamente, l’emulazione del cervello nel software in un futuro non troppo lontano dovrebbe essere alla portata di un team di sviluppo.
Allo stesso modo, una svolta improvvisa nelle neuroscienze potrebbe portare alla mappatura del neuroma umano e, non a caso, c’è già un progetto in sviluppo sul neuroma umano. Se questo progetto avanza alla stessa velocità di quello sul genoma umano, è lecito concludere che l’AGI potrebbe emergere in un futuro molto prossimo.
Sebbene i tempi possano essere incerti, è abbastanza lecito ritenere che l’AGI possa emergere gradualmente. Ciò significa che Alexa, Siri o Google Assistant, che sono già tutti più bravi a rispondere alle domande rispetto al bambino medio di tre anni, alla fine saranno migliori di un bambino di 10 anni, poi di un adulto medio e infine di un genio. Con i vantaggi di ogni progressione che superano qualsiasi rischio percepito, potremmo non essere d’accordo sul punto in cui il sistema oltrepasserà la linea dell’equivalenza umana, ma continueremo ad apprezzare ogni livello di avanzamento.
L’enorme sforzo tecnologico messo in atto nell’AGI, combinato con i rapidi progressi nella potenza di calcolo e le continue scoperte nelle neuroscienze e nella mappatura del cervello, suggerisce che l’AGI emergerà entro il prossimo decennio. Ciò significa che nei decenni successivi saranno inevitabili sistemi con un potere mentale inimmaginabile, che siamo pronti o meno ad accettarlo. Ciò premesso, è necessaria una discussione obiettiva e senza allarmismi sull’AGI e sui risultati che vorremmo raggiungere per trarne il massimo vantaggio ed evitare ogni possibile rischio.