Da Talos a Turing: la storia dell’intelligenza artificiale
L’intelligenza artificiale (IA) è stata pensata dagli esseri umani per centinaia, se non migliaia, di anni e nel corso della lunga storia che ha portato all’IA che conosciamo oggi, la narrazione, la finzione e il cinema hanno svolto un ruolo importante nell’immaginare cosa si potrebbe ottenere con l’IA, esplorando sia i risultati positivi, sia quelli negativi.
Esempi tangibili di intelligenza artificiale sono emersi sia negli spazi consumer che in quelli aziendali, con gli ultimi casi d’uso del settore che si sono rivelati tra i più interessanti. Con il 2021 che promette di offrire una serie completamente nuova di innovazioni in ambito IA, è giunto il momento di saperne di più sulle importanti pietre miliari di questa tecnologia.
Dall’antichità al 20° secolo
Alcuni considerano il romanzo del 1726 di Jonathan Swift, I viaggi di Gulliver, come primo esempio di riferimento all’IA. Nella storia, il lettore impara a conoscere un dispositivo chiamato motore, una macchina simile a un computer progettata per migliorare la conoscenza e le operazioni meccaniche. Sebbene già questo esempio sembri molto precoce, il concetto di automi e robot ha radici addirittura nell’antichità, con i poeti greci Esiodo e Omero legati alle immaginazioni dell’IA tra il 650 e il 750 a.C. Si pensi ad esempio alla storia di Talos, in cui Esiodo racconta di un gigantesco uomo di bronzo costruito da Efesto, il dio greco dell’invenzione. Anche la mitologia e il folklore cinesi forniscono antiche idee sull’intelligenza artificiale, inclusa una storia sui cani da guardia realistici che erano in realtà macchine di legno.
Facendo un lungo passo verso i giorni nostri, il XX secolo offre altri esempi importanti nell’evoluzione storica dell’IA. Fu infatti nel 20° secolo che l’idea dell’intelligenza artificiale si diffuse, con personaggi come l’Uomo di latta del Mago di Oz che catturarono l’immaginazione del pubblico di tutto il mondo nel 1939. Fondamentalmente, l’inizio del 1900 segnò anche un vero progresso nello sviluppo dell’IA, inclusa la pubblicazione di Principia Mathematica nel 1913 da parte di Bertrand Russell e Alfred Whitehead. Nel 1915, Leonardo Torres y Qeuvedo costruì un automa per giocare a scacchi e pubblicò anche lavori sul pensiero e sugli automi.
Con la popolarità crescente intorno all’idea di robot e automazione, e di alcuni dei pensieri matematici in atto, il famoso Alan Turing iniziò a esplorare il potenziale per la creazione dell’intelligenza artificiale.
Anni ’50: “Le macchine possono pensare?”
L’esplorazione dell’IA come concetto di Alan Turing lo ha portato a scrivere un famoso documento chiamato Computing Machinery and Intelligence, completato nel 1950. Il documento non solo considera come potrebbero essere costruite macchine intelligenti, ma anche come potrebbe essere testata la loro intelligenza. Ponendo la domanda “Le macchine possono pensare?”, il documento adotta un approccio end-to-end all’idea, definendo confini chiari per i termini “macchine” e “pensare”. Turing parla dei computer digitali, della loro universalità, nonché delle obiezioni teologiche e matematiche alle macchine che hanno la capacità di pensare; ne esce un documento fondamentale nello sviluppo dell’IA come la conosciamo oggi.
Il documento innovativo era molto più avanti dei suoi tempi, con i computer ancora incapaci di memorizzare i comandi. Con le sole capacità di esecuzione, alle macchine mancava l’ingrediente cruciale necessario per ottenere una forma della propria intelligenza. Il costo era un altro grosso problema, con i computer del tempo che costavano quasi un quarto di milione di dollari al mese per il noleggio. Turing aveva indubbiamente spianato la strada, ma ci sarebbero volute altre pietre miliari perché l’IA diventasse qualcosa di più maturo e tangibile.
Nel 1956, un programmatore, uno scienziato e un economista americano (Allen Newell, Cliff Shaw e Herbert Simon) progettarono un programma chiamato The Logic Theorist, finanziato dalla Research and Development Corporation (RAND). Sviluppato con l’intenzione di replicare il processo del pensiero umano, il programma fu presentato al Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI). Questa conferenza è considerata da molti l’evento che ha dato il via ai rapidi progressi che ne sono seguiti.
Anni ’60 -’70
Nel 1965, i progressi nell’intelligenza artificiale fecero un altro lungo passo avanti con l’arrivo di un sistema specializzato in chimica molecolare, DENDRAL. Il sistema fu stato creato al MIT ed era basato su un “motore di inferenza”, progettato per emulare logicamente il ragionamento umano. Il sistema poteva accettare dati immessi e fornire risposte altamente sofisticate. Il sistema MYCIN istituito presso la Stanford University nel 1972 funge da esempio altrettanto importante.
Durante questo lasso di tempo, la nozione di IA e il suo lato potenzialmente più oscuro sono stati esplorati nel cinema popolare, con 2001 – Odissea nello spazio di Stanley Kubrick uscito nel 1968. Il film solleva le questioni etiche dell’IA che rimane un argomento caldo fino ad oggi, con nomi importanti swl calibro di Elon Musk che sostengono solidi argomenti a favore della regolamentazione della tecnologia.
La pietra miliare più importante di questa era è stata raggiunta nel 1970 con l’avvento dei primissimi microprocessori. Ciò ha dato nuovo slancio al progresso dell’IA, accelerando lo sviluppo della tecnologia in modo più ampio.
Anni ’80 -’90
Gli anni ’80 sono importanti perché la prima applicazione commerciale dell’IA è avvenuta proprio in questo periodo. Si trattava di un sistema noto come RI, utilizzato dalla Digital Equipment Corporation per configurare gli ordini di nuovi sistemi informatici. Già nel 1986, è stato documentato che RI era abbastanza efficiente da far risparmiare all’organizzazione 40 milioni di dollari all’anno, offrendo così uno sguardo all’impatto futuro che l’intelligenza artificiale avrebbe avuto sulle attività aziendali.
Sul fronte della robotica, un importante punto di riferimento arrivò nel 1984 con lo sviluppo del RB5X, un robot cilindrico costruito con organi, nervi e una parte superiore a cupola trasparente. Il software di autoapprendimento all’interno di RB5X consentì di passare da semplici risposte a essere in grado di prevedere i risultati futuri in base a ciò che il software aveva appreso in passato.
Nel 1997 il mondo video il sistema Deep Blue di IBM sconfiggere Garry Kasparov a scacchi, rappresentando un’altra importante pietra miliare. Il mondo fu sbalordito dalla sconfitta di un essere umano da parte del sistema informatico, ma alla fine l’evento non è stato un momento di svolta come alcuni si aspettavano che fosse. Anche la popolarità dell’IA come termine stava soffrendo, con i circoli scientifici e accademici incoraggiati a usare un linguaggio più conservatore rispetto all'”intelligenza artificiale”.
Dal 2010 ad oggi
Il progresso dell’IA che il mondo ha visto nello scorso decennio 2010 è stato costruito su solide basi; accesso a enormi volumi di dati e potenza di elaborazione mai vista prima. Questa maggiore disponibilità ha sbloccato la possibilità per gli algoritmi di essere addestrati nella classificazione e nel riconoscimento, mentre i processori e le schede grafiche ad alta efficienza hanno accelerato il processo. Fondamentalmente, questa disponibilità ha anche ridotto il costo di sviluppo dell’IA, aprendo il campo a un maggior numero di esperti in tutto il mondo.
A causa delle condizioni favorevoli di questo nuovo decennio, ci fu una manna di innovazioni e scoperte degne di nota. Nel 2011 Watson di IBM emulò il successo scacchistico di Deep Blue negli anni ’90 sconfiggendo due campioni nel gioco a quiz Jeopardy!, mentre l’anno successivo il sistema Google X ottenne un successo iconico riconoscendo i gatti in un video, prima che AlphaGO AI di Google battesse il campione europeo di Go (gioco da tavolo complicatissimo) nel 2016.
Gli anni 2010 sono stati un’era rivoluzionaria per l’intelligenza artificiale non solo perché la tecnologia ha davvero iniziato a superare le capacità umane, ma anche per gli altri progressi tecnologici che ha alimentato e abilitato. Queste innovazioni sono state avvertite nella vita di tutti i giorni con l’arrivo dell’IA tradizionale come Siri e Alexa, così come nello spazio di business aziendale con la crescita dell’automazione, del deep learning e dell’IoT.
IA aziendale oggi e domani
L’ultima ricerca di PWC mostra che l’86% delle aziende sta raccogliendo i vantaggi di una migliore esperienza del cliente utilizzando l’IA, mentre il 25% delle aziende con una diffusa adozione dell’IA prevede che aumenterà le entrate nel 2021. Questa positività intorno all’IA tra le imprese è stata quasi certamente guidata dalle loro esperienze durante la pandemia COVID-19, con la stessa ricerca che punta a una crescita dei casi d’uso dell’IA in aree come la pianificazione della forza lavoro e la modellazione di simulazione.
Nel 2020 è emersa una serie di tendenze principali in materia di intelligenza artificiale, a partire dalle operazioni di machine leraning (MLOps). MLOps può essere definito come Machine Learning di produzione, un termine generico che include innovazioni in aree come flussi di lavoro operativi, modelli di traffico e gestione dell’inventario. Le imprese si concentreranno su questo tipo di applicazioni nel 2021, spinte dai vantaggi dell’intelligenza artificiale e dell’automazione osservati durante la pandemia.
Un’altra tendenza principale per l’IA per il 2021 riguarda le piattaforme Low Code / No Code, che possono consentire alle applicazioni IA di livello di produzione di essere efficaci senza la necessità di una conoscenza approfondita della programmazione. I progressi in questo settore sarebbero fondamentali per superare il collo di bottiglia delle competenze che rende ancora più difficile per alcune organizzazioni accedere ai vantaggi dell’IA e dell’automazione.
Mentre entriamo in una nuova era di innovazione tecnologica, la crescita di tecnologie come IoT, 5G ed Edge Computing è destinata a trarre vantaggio e beneficiare della prossima fase dei progressi nell’IA. Con queste tecnologie che operano di concerto, le organizzazioni saranno in grado di addestrare e implementare i propri sistemi di intelligenza artificiale più velocemente che mai, promettendo importanti vantaggi per le imprese aziendali. Anche lo sviluppo del Quantum Computing avrà un grande impatto sul futuro dell’IA, offrendo potenziali velocità di elaborazione che consentirebbero la formazione rapida di nuove piattaforme IA.