IA nel 2024: le previsioni di Cisco tra etica, API e LLM personalizzati
Il recente studio Cisco AI Readiness Index ha rivelato che il 95% degli intervistati ha una strategia di IA in atto o in fase di sviluppo, ma solo il 14% è completamente pronto a integrare l’intelligenza artificiale nella propria azienda. Cosa serve alle organizzazioni per adottare e integrare l’IA? Come possono gli innovatori sfruttare il cambiamento per rimanere competitivi? Dove e come si intersecheranno innovazione e fiducia? A queste domande cercano di rispondere le sette previsioni di Cisco sugli sviluppi dell’IA attesi nel 2024.
NLI alimentate dalla GenAI, LLM personalizzati e applicazioni B2B su misura
Le interfacce in linguaggio naturale (NLI) alimentate da IA generativa (GenAI) saranno integrate in nuovi prodotti e più della metà di essi ne sarà dotata di default entro la fine del 2024. La GenAI sarà sfruttata anche nelle interazioni B2B con gli utenti che richiedono soluzioni più contestualizzate, personalizzate e integrate. La GenAI offrirà API, interfacce e servizi per l’accesso, l’analisi e la visualizzazione di dati e informazioni, diventando pervasiva in settori quali la gestione dei progetti, la qualità e il collaudo del software, la valutazione della conformità e le attività di reclutamento. Di conseguenza, l’osservabilità dell’IA crescerà.
Si assisterà anche all’ascesa di modelli di IA specializzati e specifici per il dominio e al passaggio a LLM più piccoli e specializzati con livelli più elevati di accuratezza, pertinenza, precisione e comprensione. Ad esempio, i modelli LLaMA-7B, spesso utilizzati per il completamento del codice e il few-shotting, saranno sempre più adottati. Inoltre, la combinazione multimodale di vari tipi di dati come immagini, testo, parlato e numeri con algoritmi di elaborazione dell’intelligenza amplierà i casi di utilizzo in ambito B2B. Ciò consentirà di ottenere risultati migliori in settori quali la pianificazione aziendale, la medicina e i servizi finanziari.
Quadri di governance IA chiari e rispettosi dei diritti e dei valori umani
L’adozione dell’IA è un cambiamento tecnologico che avviene una volta nella generazione e si trova all’intersezione tra innovazione e fiducia. Tuttavia, il 76% delle organizzazioni non dispone di politiche complete sull’IA. In linea di massima c’è un accordo generale sul fatto che abbiamo bisogno di regolamenti/politiche di autocontrollo e governance del settore per mitigare i rischi della GenAI, ma per aree come la violazione della proprietà intellettuale, dove opere d’arte originali esistenti vengono “saccheggiate” per istruire modelli di IA generativa e creare nuova arte digitale. c’è bisogno di una regolamentazione molto più stringente.
Si deve anche garantire che i consumatori abbiano accesso e controllo sui propri dati, nello spirito della recente legge europea sui dati. Con la crescente importanza dei sistemi di intelligenza artificiale, i dati pubblici disponibili raggiungeranno presto un limite e i dati linguistici di alta qualità saranno probabilmente esauriti prima del 2026. Le organizzazioni devono passare a dati privati e/o sintetici che aprono la possibilità di accesso e utilizzo non intenzionale.
Le organizzazioni possono fare molto da sole. I leader aziendali devono impegnarsi a garantire trasparenza e affidabilità nello sviluppo, nell’uso e nei risultati dei sistemi di IA. Ad esempio, l’affidabilità e la gestione dei contenuti falsi e dei risultati imprevisti dovrebbero essere guidate dalle organizzazioni con valutazioni RAI, una solida formazione dei LLM per ridurre la possibilità di allucinazioni, l’analisi del sentiment e il modellamento dei risultati. Nel 2024, vedremo aziende di ogni dimensione e settore delineare formalmente il modo in cui la governance responsabile dell’intelligenza artificiale guida lo sviluppo, l’applicazione e l’utilizzo interno dell’IA. Finché le aziende tecnologiche non dimostreranno in modo credibile di essere affidabili, si può prevedere che i governi creeranno altre politiche.
Maggiori rischi derivanti dalla disinformazione, dalle truffe e dalle frodi generate dall’IA
Nel 2024, la disinformazione, le truffe e le frodi generate dall’intelligenza artificiale continueranno a rappresentare una minaccia per le aziende, le persone e persino per i candidati e le elezioni. In risposta, aumenteranno gli investimenti per il rilevamento e la mitigazione del rischio. Le nuove soluzioni di intelligenza artificiale si occuperanno di contrastare le voci clonate, i deepfake, i bot dei social media e le campagne social. I modelli di IA saranno addestrati su grandi insiemi di dati per una maggiore precisione ed efficacia, mentre nuovi meccanismi di autenticazione promuoveranno la trasparenza e la responsabilità.
In linea con i principi guida del G7 sull’IA relativi alle minacce ai valori democratici, con l’ordine esecutivo Safe AI dell’amministrazione Biden e con l’AI Act europeo, si assisterà anche a una maggiore collaborazione tra il settore privato e i governi per aumentare la consapevolezza delle minacce e implementare misure di verifica e sicurezza, oltre a una cooperazione per sanzionare gli attori disonesti e garantire la conformità alle normative. Le aziende devono dare priorità al rilevamento avanzato delle minacce e alla protezione dei dati, alla valutazione regolare delle vulnerabilità, all’aggiornamento dei sistemi di sicurezza e a verifiche approfondite delle infrastrutture di rete. Per i consumatori, la vigilanza sarà fondamentale per proteggere identità, risparmi e credito.
Progressi quantistici: il futuro della crittografia e del networking continuerà a prendere forma
Nel 2024 assisteremo all’adozione della crittografia post-quantistica (PQC) anche prima della sua standardizzazione, come approccio basato sul software che funziona con i sistemi convenzionali per proteggere i dati dai futuri attacchi quantistici. La PQC sarà adottata da browser, sistemi operativi e librerie e gli early adopter la sperimenteranno integrandola in protocolli come SSL/TLS 1.3, che regola la crittografia classica. La PQC inizierà a essere adottata anche dalle aziende che mirano a garantire la sicurezza dei dati nel mondo post-quantum.
Un’altra tendenza sarà la crescente importanza della rete quantistica, che in 4 o 5 anni (forse più) consentirà ai computer quantistici di comunicare e collaborare per soluzioni quantistiche più scalabili. Questa rete sfrutterà fenomeni quantistici come entanglement e superposition per trasmettere informazioni. Anche la QKD (Quantum Key Distribution), come alternativa o complemento alla PQC a seconda del livello di sicurezza e delle prestazioni richieste, sfrutterà la rete quantistica. Le reti quantistiche saranno oggetto di nuove ricerche e investimenti significativi da parte dei servizi governativi e finanziari, che hanno esigenze elevate di sicurezza ed elaborazione dei dati.
Le aziende punteranno sulla potenza delle API
Nel prossimo anno, le aziende cercheranno modi innovativi per sfruttare l’immensa potenza e i vantaggi dell’IA senza la complessità e il costo di costruire le proprie piattaforme. Le interfacce di programmazione delle applicazioni (API) svolgeranno un ruolo fondamentale, fungendo sempre più da ponti senza soluzione di continuità che integrano una moltitudine di strumenti, servizi e sistemi di IA precostituiti con un minimo di sviluppo o di configurazione dell’infrastruttura. Con l’accesso a una vasta gamma di funzionalità di IA attraverso le API, i team automatizzeranno le attività ripetitive, otterranno insight migliori dai dati e miglioreranno il processo decisionale.
Quest’anno segnerà anche l’inizio di una corsa alla personalizzazione guidata dalle API in cui le organizzazioni potranno scegliere e combinare le API di vari fornitori, personalizzando facilmente le soluzioni di IA per soddisfare requisiti unici e nuovi. La flessibilità e la scalabilità favoriranno la collaborazione con esperti esterni di IA, startup e istituti di ricerca, alimentando uno scambio di idee e progressi rivoluzionari. Di fatto, questi ecosistemi stanno già prendendo forma e nel 2024 li vedremo davvero decollare.
L’energy networking farà la differenza
L’energia sostenibile svolge un ruolo fondamentale nell’affrontare il cambiamento climatico. Selezionando modelli di IA più piccoli, con un minor numero di livelli e filtri specifici per i casi d’uso, le aziende inizieranno a ridurre i costi di consumo energetico rispetto ai sistemi generici. Questi sistemi dedicati sono addestrati su set di dati più piccoli e altamente precisi e svolgono in modo efficiente compiti specifici. I modelli di deep learning, invece, utilizzano grandi quantità di dati.
Anche la categoria emergente dell’energy networking, che combina le capacità del software-defined networking e di un sistema di energia elettrica costituito da microgriglie a corrente continua, contribuirà all’efficienza energetica. Applicando il networking all’energia e collegandolo ai dati, l’energy networking offre una visibilità completa, un benchmarking delle emissioni esistenti e un punto di accesso per ottimizzare l’uso, la distribuzione, la trasmissione e lo stoccaggio dell’energia. L’energy networking aiuterà inoltre le organizzazioni a misurare con maggiore precisione l’utilizzo di energia e le emissioni, ad automatizzare molte funzioni tra IT, edifici smart e sensori IoT e a sbloccare l’energia inefficiente e inutilizzata. Con le funzionalità di gestione energetica incorporate, la rete diventerà un piano di controllo per misurare, monitorare e gestire i consumi.
Una nuova esperienza di programmazione e software migliore
Lo sviluppo del software cambierà con nuovi strumenti, approcci e tecnologie. I programmatori sfrutteranno le piattaforme e la collaborazione (e anche un piccolo aiuto da parte dell’intelligenza artificiale) per centralizzare i kit di strumenti e sbloccare una nuova efficienza, in modo da potersi concentrare sulla realizzazione di nuove esperienze digitali. Ad esempio, utilizzeranno CNAPP, CSPM (Cloud Security Posture Management) e piattaforme di protezione dei carichi di lavoro nel cloud (CWPP) per combattere la dispersione degli strumenti, snellire i flussi di lavoro ed eliminare l’onere della gestione di strumenti disgiunti.
Gli innovatori utilizzeranno l’intelligenza artificiale per accelerare le consegne e gestire attività noiose come i test per individuare difetti ed errori. Lungo questo percorso, gli strumenti di collaborazione e gli assistenti IA saranno compagni fidati mentre i team affrontano le complessità della sicurezza, dell’osservabilità e dell’infrastruttura. I controlli e gli equilibri umani dovranno infine garantire che le decisioni basate sull’IA siano eque, imparziali e in linea con i valori etici e morali. Questo perché l’IA deve potenziare il processo decisionale umano, non sostituirlo del tutto.