Come le assicurazioni stanno usando la IA per gestire i rischi e la sicurezza

Come le assicurazioni stanno usando la IA per gestire i rischi e la sicurezza
Un nuovo report di Minsait ha evidenziato come le assicurazioni si collochino ai vertici per maturità nell’uso dell'IA.

Le assicurazioni italiane stanno adottando l’IA per migliorare efficienza, competitività e innovazione. È quanto emerge da un nuovo report di Minsait, che ha evidenziato come il settore assicurativo si collochi ai vertici per maturità nell’uso di questa tecnologia.

Il 58% delle compagnie si concentra sull’impiego dell’IA per ottimizzare la gestione del rischio e rafforzare la sicurezza informatica nei processi di sottoscrizione delle polizze e valutazione del rischio, nella rilevazione di frodi e nell’analisi di immagini satellitari per individuare attività sospette.

Parallelamente, il 54% delle aziende utilizza l’IA per sviluppare nuovi prodotti e servizi, con un focus su soluzioni personalizzate e innovative. In particolare, i settori Vendite e Marketing risultano tra i più impattati, rispettivamente con il 58% e il 54% delle compagnie che sfruttano l’IA per comprendere meglio i clienti, ottimizzare le campagne pubblicitarie e personalizzare le offerte.

assicurazioni ia

Il 69% delle compagnie assicurative italiane conferma inoltre l’impegno del top management nell’adozione dell’IA, con il 77% delle aziende che dedicano risorse specifiche allo sviluppo di iniziative legate a questa tecnologia. La principale motivazione è il miglioramento dell’efficienza operativa e la riduzione dei costi: il 58% degli intervistati considera l’IA uno strumento essenziale per ottimizzare i processi aziendali, mentre il 33% la vede come un’opportunità per migliorare l’esperienza utente.

Tuttavia, non mancano le sfide. Il 42% delle compagnie segnala la mancanza di un quadro normativo stabile come ostacolo principale, mentre il 38% evidenzia la necessità di modelli avanzati di governance e gestione dati. Altri ostacoli includono la scarsità di professionisti qualificati (33%) e la complessità tecnologica (21%).

Durante l’evento di presentazione del report, Minsait ha illustrato applicazioni pratiche dell’IA già adottate dalle compagnie assicurative. Ad esempio, nell’ambito della lotta alle frodi sono stati sviluppati modelli basati su machine learning e deep learning capaci di individuare attività sospette come false assunzioni o manipolazioni dei dati sui congedi per malattia. Questi strumenti hanno già consentito di identificare numerosi casi sospetti, migliorando significativamente la capacità delle compagnie di prevenire perdite economiche.

Inoltre, l’IA viene utilizzata per gestire reclami con maggiore precisione e rapidità, ottimizzando i processi operativi e riducendo i tempi di risposta. Roberto Carrozzo, Head of Intelligence & Data di Minsait Italia, ha sottolineato come l’evoluzione verso modelli sempre più data-driven e tecnologicamente avanzati sia già in corso, trasformando il settore assicurativo in un pioniere dell’innovazione digitale.

Condividi:
 

Gli LLM hanno raggiunto un limite alla loro crescita?

sicurezza ia
Molte aziende di IA hanno scommesso sul fatto che all'aumento delle dimensioni degli LLM sarebbe cresciuta anche la loro "intelligenza". Pare però non sia più così.

Negli ultimi anni, i big dell’IA hanno utilizzato le cosiddette “AI scaling laws” per migliorare le capacità dei loro LLM. Questo approccio, basato sull’aumento di potenza computazionale e dati durante la fase di pre-addestramento, ha portato a progressi significativi come la creazione di ChatGPT. Tuttavia, di recente si è notato un rallentamento nei miglioramenti e ciò suggerisce che questi metodi stanno raggiungendo i loro limiti.

Un tema emerso soprattutto dopo che secondo alcuni recenti report il prossimo LLM di OpenAI, Orion, non sta mostrando miglioramenti significativi rispetto a GPT-4 durante la fase di pre-addestramento. Sebbene Orion abbia raggiunto prestazioni simili a GPT-4 dopo solo il 20% del suo addestramento, l’aumento di qualità risulta inferiore rispetto al salto da GPT-3 a GPT-4. Tuttavia, le difficoltà di OpenAI non sono un caso isolato, visto che anche Google, Anthropic e altri giganti dell’IA stanno incontrando sfide simili nel superare le prestazioni di GPT-4.

Anche secondo esperti del settore, come Ilya Sutskever di OpenAI e Marc Andreessen di a16z, l’approccio tradizionale non garantisce più miglioramenti significativi. Questo cambiamento richiede nuove idee per superare tali limiti e una delle soluzioni emergenti è il test-time compute, una tecnica che consente ai modelli di “pensare” più a lungo durante l’inferenza (ossia dopo aver ricevuto un prompt). A differenza del pre-addestramento, questa metodologia utilizza risorse computazionali al momento della risposta, frammentando i problemi complessi in sotto-problemi più gestibili.

ia generativa investimenti

OpenAI ha recentemente presentato il modello o1, che sfrutta proprio il test-time compute. Questa tecnica, ispirata dal pensiero umano e da metodi di risoluzione dei problemi graduali, è stata già sperimentata in passato con successo, ad esempio nel poker. Secondo Satya Nadella di Microsoft, questa rappresenta una “nuova legge di scala” e anche altri esperti, come il guru del deep learning Yoshua Bengio, concordano sul fatto che potrebbe portare a guadagni significativi nelle capacità di ragionamento dei modelli di IA.

Il rallentamento delle leggi di scala tradizionali non significa però la fine dei progressi. Modelli più grandi e cluster di GPU continuano a essere sviluppati, come dimostrato dal supercomputer Colossus di Elon Musk, ma i miglioramenti derivanti da questi approcci sono ormai marginali. La nuova frontiera sembra essere un mix di test-time compute e innovazioni nel design delle applicazioni. Ad esempio, funzionalità come la modalità vocale avanzata di ChatGPT dimostrano che molto può essere migliorato a livello di esperienza utente, senza richiedere modelli significativamente più intelligenti.

Questo cambiamento implica anche nuove opportunità per il mercato dei chip IA. Se il test-time compute diventerà centrale, crescerà la domanda per chip specializzati nell’inferenza ad alta velocità, favorendo aziende come Groq e Cerebras.

Nonostante queste sfide da superare, i progressi continuano. Recentemente, OpenAI, Anthropic e Google hanno rilasciato i loro modelli più avanzati, dimostrando che c’è ancora spazio per miglioramenti. Tuttavia, è chiaro che la “rivoluzione dell’IA” segue un modello a S: una crescita rapida iniziale, seguita da un rallentamento man mano che le sfide diventano più complesse.

Condividi: