Intelligenza Artificiale
Intelligenza artificiale: evoluzione e possibili sviluppi
Intelligenza artificiale: storia, evoluzione attuale e possibili sviluppi
Attualmente l’intelligenza artificiale, spesso indicata semplicemente con AI (artificial intelligence), trova applicazioni in diversi campi, dal retail ai trasporti, dal settore medico al finance, dalle ricerche su Internet agli assistenti personali come Alexa e Siri.
Attorno ad essa scorrono fiumi di denaro, i big dell’IT fanno ricerche in questo settore e, se non hanno risorse interne, acquisiscono startup o piccole aziende specializzate. Storicamente, le prime aziende IT a investire nell’intelligenza artificiale sono state IBM e Microsoft, seguite da player del calibro di Apple, Facebook, Google e Amazon, solo per citare qualche nome.
Leggi anche: 10 applicazioni concrete dell’intelligenza artificiale
L’intelligenza artificiale comporta tuttavia una intrinseca complessità, legata alla difficoltà di definire cos’è l’intelligenza umana e a cosa si intende per “macchina intelligente”. Inoltre, nonostante siano disponibili numerose soluzioni basate sull’intelligenza artificiale, esiste ancora un gap tra i risultati raggiunti a livello teorico, le applicazioni pratiche e la distribuzione su larga scala dell’innovazione potenzialmente abilitata dall’AI.
L’intelligenza artificiale dalle origini a oggi
La nascita ufficiale dell’intelligenza artificiale viene datata al 1956, quando al Dartmouth College, nel New Hampshire, si tenne un convegno dedicato allo sviluppo di macchine intelligenti. L’iniziativa era proposta da un gruppo di ricercatori, guidato da John McCarthy, che si proponeva di creare in pochi mesi una macchina capace di simulare l’apprendimento e l’intelligenza umana.
La sfida fu accolta da personalità di spicco del mondo accademico e industriale, tra le quali Marvin Minsky e Claude Shannon del Dartmouth College, Arthur Samuel di IBM, Ray Solomonoff e Oliver Selfridge del MIT. Fu nell’ambito di questo convegno che McCarthy introdusse per la prima volta il termine “intelligenza artificiale” e ne sancì di fatto la nascita come disciplina autonoma.
L’obiettivo di creare una macchina capace di simulare ogni aspetto dell’apprendimento umano non è stato ancora raggiunto. Tuttavia le ricerche fatte in questa direzione hanno aperto la strada a nuovi campi di studio e a risultati che, nel tempo, hanno avvicinato sempre di più l’intelligenza artificiale al mondo dell’impresa. Tra le tappe miliari di questa evoluzione ci sono il LISP (1958), un linguaggio di programmazione specifico per problemi di intelligenza artificiale sviluppato dallo stesso McCarthy, e il programma ELIZA (1965), che simulava l’interazione tra un paziente e uno psicoterapeuta.
Il complesso problema di costruire macchine in grado di replicare l’intelligenza umana si è via via evoluto in un approccio più pragmatico, basato sulla scomposizione di un problema in sotto-problemi. A partire dagli anni ’70 sono stati sviluppati diversi sistemi esperti, ovvero programmi in grado di affrontare un problema specifico simulando le capacità di un esperto in quel particolare ambito. Una tappa importante in questo sviluppo è stato MYCIN (1976), un sistema esperto in grado di fare diagnosi per malattie ematiche.
È negli anni ’80 che l’intelligenza artificiale esce dall’ambito accademico ed entra nel mondo industriale. Un esempio di questo passaggio storico è R1, un sistema utilizzato dalla Digital Equipment che permetteva di configurare gli ordini per nuovi computer: introdotto nel 1982, R1 è il primo sistema esperto utilizzato in ambito commerciale.
Da allora ai giorni nostri le applicazioni basate sull’intelligenza artificiale si sono moltiplicate. La svolta è dovuta all’evolversi delle capacità computazionali e allo sviluppo di una serie di tecnologie abilitanti, tra le quali Big Data e cloud storage..
In questo sviluppo, l’intelligenza artificiale viene intesa come una disciplina che risolve problemi specifici in ambiti ben definiti, e – invece di essere programmata con istruzioni specifiche da parte degli sviluppatori – viene “addestrata” esponendola a enormi quantità di dati in cui ricercare relazioni, gruppi e tendenze. È il cosiddetto machine learning, apprendimento automatico, ed è alla base dei modelli utilizzati per raggruppare o discriminare dati (trovare dati simili o identificare quelli difformi), individuare schemi nascosti o fare previsioni (dall’andamento del titolo di un’azione in borsa al momento in cui un macchinario si romperà, la cosiddetta manutenzione predittiva).
Leggi anche: Il machine learning, spiegato bene: cos’è, come funziona e quali strumenti si usano
L’approccio seguito in questo caso è quello dell’AI debole, secondo cui le macchine possono comportarsi come se fossero intelligenti. Un approccio di ampio respiro che mantiene l’aspirazione a un grande obiettivo, ma si focalizza sulla soluzione di problemi specifici. Questa concezione si contrappone a quella dell’AI forte, secondo cui le macchine possono effettivamente essere intelligenti.
L’evoluzione successiva al machine learning chiamata deep learning, in cui la rete neurale è stratificata su diversi livelli. Questi modelli sono alla base di alcune applicazioni usate ormai quotidianamente per riconoscere oggetti all’interno di immagini, analizzare onde sonore per convertire il parlato in testo o elaborare il linguaggio e tradurlo in altre lingue o formati.
Leggi anche: I migliori strumenti di machine learning per data scientist e sviluppatori
Le applicazioni della IA disponibili oggi
Negli ultimi due decenni sono stati sviluppati strumenti e tecnologie che promettono alle imprese un salto di qualità nella gestione del proprio business. Alcune soluzioni sono consolidate e hanno raggiunto una maturità di mercato, altre sono ancora in fase di sviluppo e non è possibile prevedere se il loro potenziale si trasformerà in un impatto reale per le aziende.
Elaborazione del linguaggio naturale (NLP, Natural language processing): questo insieme di tecnologie abilita un’interazione fluida con il linguaggio umano per offrire informazioni, insight e interazioni attraverso frasi o testi lunghi. Vengono utilizzate anche per produrre testi leggibili da un essere umano, tipicamente a partire da un corpo di risposte o da componenti testuali. Questi strumenti possono essere usati per comprendere emozioni, sentimenti e, entro certi limiti, prevedere le intenzioni dell’utente.
Swarm intelligence: le tecnologie di swarm intelligence (letteralmente intelligenza dello sciame) sono sistemi decentralizzati ai quali contribuiscono diversi attori, sia umani che software, ognuno dei quali offre una parte della soluzione di un problema. In questo modo si costruisce una intelligenza superiore che riunisce e aumenta le specifiche conoscenze dei singoli. Queste tecnologie utilizzano il comportamento di insetti sociali (come le api) e sono applicate per modellare algoritmi che rispondono a obiettivi di business, come gestire una flotta di mezzi per le consegne, oppure danno risposte a domande specifiche, come le previsioni di risultati sportivi.
Biometrica: le tecnologie biometriche abilitano un’interazione più naturale tra l’uomo e le macchine. Queste tecnologie rilevano caratteristiche fisiche del corpo umano e includono il riconoscimento di immagini, voce, linguaggio del corpo.
Analisi di immagini e video: si tratta di strumenti e tecnologie che analizzano immagini e video per rilevare oggetti e/o caratteristiche di oggetti. Queste piattaforme trovano applicazioni in diversi settori, tra i quali retail, assicurazioni, sicurezza, marketing.
Tecnologia semantica: un problema centrale per l’AI è comprendere l’ambiente e il contesto in cui viene applicata. Le tecnologie semantiche rispondono a questo problema offrendo una comprensione profonda dei dati e creando le basi per introdurre classificazioni, tassonomie, gerarchie, relazioni, modelli e metadati.
Riconoscimento vocale (speech recognition): sono strumenti e tecnologie che comprendono e interpretano il linguaggio parlato catturando segnali audio e trasformandoli in testo scritto o altri formati di dati utilizzabili in varie applicazioni, come sistemi vocali per customer service, applicazioni mobile o robot fisici.
Hardware ottimizzato per l’AI: questa categoria comprende GPU e appliance progettate specificamente per eseguire compiti specifici dell’AI, come machine learning e deep learning.
Robotic process automation (RPA): le tecnologie di robotic process automation comprendono vari metodi per automatizzare azioni umane e rendere più efficienti i processi di business.
Agenti virtuali: software che offrono una interfaccia che permette all’utente di interagire in modo naturale con una macchina o un sistema informatico. Tra di essi ci sono i chatbot ampiamente utilizzati per customer service e applicazioni mobili.
Decision management: si tratta di software che permettono di automatizzare le decisioni in tempo reale attraverso l’inserimento diretto di policy e regole che consentono ai sistemi AI di dedurre decisioni e di intraprendere azioni.
Large language model e IA generativa: evoluzione del Natural Language Processing che, grazie alla crescita a dismisura delle dimensioni del modello, è in grado di generare contenuti testuali o anche visivi in risposta a domande e richieste dell’utente. Le sue applicazioni più famose sono ChatGPT e Google Bard per il testo, Midjourney e Dall-E per le immagini.
Il sogno della IA generalista si riaccende
Mentre il dibattito scientifico e filosofico sulla natura dell’intelligenza umana e la possibilità di replicarla prosegue, il mondo industriale ha scelto negli ultimi l’approccio più pragmatico, che rientra nell’accezione dell’AI debole. Da un anno a questa parte, però, alcuni ricercatori e aziende stanno cominciando a pensare che il sogno della IA Generalista potrà essere realizzato – anche a breve – attraverso la tecnologia dei modelli linguistici.
Tra i principali sostenitori di questa teoria c’è Sam Altman, fondatore e CEO di OpenAI, l’azienda che ha realizzato ChatGPT. Nata inizialmente come organizzazione no-profit per puntava a far progredire lo sviluppo dell’intelligenza artificiale a beneficio dell’intera umanità, OpenAI ha cambiato il suo statuto nel 2019 per adottare una forma a “profittabilità limitata”, entrando nel 2022 nell’orbita di Microsoft, che la ha finanziata con 10 miliardi di dollari.
Le affermazioni di Altman sul prossimo avvento di una IA Generalista con capacità superumane vanno quindi prese con le pinze, ma sono diverse le istituzioni e organizzazioni governative e non a sollevare preoccupazioni sui possibili ma imprevedibili impatti che gli sviluppi futuri dell’intelligenza artificiale potranno avere sulla società. Al punto che Unione Europea, Stati Uniti, Regno Unito e Cina stanno scrivendo leggi per regolamentarne l’utilizzo e gli sviluppi dell’intelligenza artificiale.