Intelligenza artificiale nel 2024: le previsioni di Nutanix tra gestione dei modelli e algebra lineare
Secondo il report Nutanix State of Enterprise AI Report 2023, che include le risposte di oltre 650 responsabili IT, DevOps ed Platform Engineering, per il 90% degli intervistati la sicurezza e l’affidabilità dell’intelligenza artificiale sono tra le principali preoccupazioni e in molti stanno pianificando di migliorare le funzionalità di protezione e ripristino dei dati. Il report illustra inoltre come l’intelligenza artificiale non sia limitata a un unico luogo. L’83% degli intervistati, ad esempio, prevede di incrementare i propri investimenti nell’edge IA e in molti pensano che l’infrastruttura IT attuale non sia progettata per l’intelligenza artificiale, con il 91% degli intervistati che ritiene sia giunto il momento di modernizzarsi. Di seguito riportiamo i principali trend individuati da Nutanix nell’ambito dell’intelligenza artificiale che influenzeranno il 2024.
L’intelligenza artificiale sarà trasformativa
Per cogliere davvero la portata dell’imminente cambiamento apportato dall’intelligenza artificiale, bisogna andare oltre concetti astratti come “rivoluzionario” o “trasformativo” e visualizzare realmente i risultati finali di una tecnologia che migliora costantemente se stessa attraverso il machine learning. Può sembrare un’ovvietà dire che l’intelligenza artificiale trasformerà molte cose nel 2024; ciò che potrebbe risultare meno scontato è che probabilmente l’IA verrà utilizzata per compiere viaggi interstellari.
La gestione dei modelli sarà fondamentale
Man mano che i modelli di intelligenza artificiale prolifereranno e si evolveranno, le aziende dovranno assicurarsi che siano aggiornati, sicuri e che funzionino in modo ottimale. Serve quindi una gestione efficace dei modelli per garantire che i sistemi di intelligenza artificiale siano affidabili e in grado di adattarsi ai cambiamenti del settore.
Le aziende si affideranno sempre più al cloud ibrido
L’intelligenza artificiale è il caso d’uso “definitivo” del cloud ibrido. Si utilizzano i dati pubblici per creare un modello di base, ma ciò non è sufficiente per un’azienda. È infatti necessario perfezionare e ampliare un modello di base per renderlo adatto al proprio business e questo può essere fatto solo nel proprio data center, perché nel momento in cui lo si fa con l’infrastruttura as-a-service si perde il controllo dei propri dati. Inoltre, tutte le inferenze avvengono nell’edge.
Tornerà l’algebra lineare
È tempo di rispolverare i libri di testo perché il delicato argomento dell’algebra lineare sarà fondamentale per far progredire le applicazioni dell’intelligenza artificiale, così come l’elaborazione del linguaggio naturale e la visione artificiale. Molte operazioni di IA, come ad esempio le trasformazioni, le rotazioni e il ridimensionamento, sono operazioni di algebra lineare. Si è scoperto che numerose operazioni di intelligenza artificiale implicano la moltiplicazione di matrici e vettori: ad esempio, le parole possono essere rappresentate come vettori e le immagini come matrici di pixel. Una buona conoscenza dell’algebra lineare aiuterà a comprendere i modelli che tracciano il modo in cui i cambiamenti influiscono sull’output, in modo da eseguire il debug e migliorare i modelli di intelligenza artificiale. Questo è fondamentale per analizzare e dare significato ai massicci e complessi set di dati utilizzati nelle applicazioni di intelligenza artificiale.
Le GPU verranno detronizzate
Le unità di elaborazione grafica (GPU) hanno regnato sovrane nel mondo del calcolo ad alte prestazioni che alimenta i sistemi di intelligenza artificiale, in particolare per attività che richiedono elaborazione parallela, come il rendering video e il deep learning. Tuttavia, altre tecnologie sono pronte a sfidare le GPU poiché i ricercatori stanno facendo grandi passi avanti nell’utilizzo di Tensor Processing Unit (TPU), Field-Programmable Gate Array (FPGA) e persino di unità di elaborazione centrale (CPU) per scopi generici.
L’infrastruttura “scale-out” sarà essenziale
A differenza dell’architettura “scale-up”, in cui l’espansione è verticale e implica l’aggiunta di più potenza su una macchina esistente (ad esempio più CPU), l’infrastruttura “scale-out” è orizzontale e prevede l’aggiunta di più macchine o nodi a una rete per aumentare la capacità. Poiché i modelli IA devono attraversare l’intero percorso dall’edge al data center, al cloud pubblico, è assolutamente necessario farlo con un’infrastruttura scale-out.