C’è fiducia nell’IA generativa, ma il suo utilizzo deve essere trasparente
Thoughtworks, società di consulenza tecnologica che integra strategia, design e sviluppo software, ha pubblicato i risultati di un nuovo studio condotto a livello internazionale sull’intelligenza artificiale generativa, dalla quale emerge come i consumatori vedano positivamente l’utilizzo di questa nuova tecnologia da parte delle aziende per innovare prodotti e servizi, a patto che siano trasparenti e proattive nel comunicare il modo in cui l’IA generativa viene da loro utilizzata.
La ricerca, intitolata IA generativa: cosa chiedono i consumatori e basata sulle risposte di 10.000 consumatori di dieci diversi Paesi, dimostra che gli utenti hanno aspettative elevate nei confronti delle aziende che utilizzano la IA generativa per innovare. Queste aspettative, se rispettate, consentiranno alle aziende di mantenere la loro “licenza sociale”, ovvero la percezione da parte dei consumatori che l’azienda stia agendo in modo equo, appropriato e meritevole di fiducia.
Di seguito i principali risultati della ricerca.
L’entusiasmo per l’IA è bilanciato da un uguale livello di preoccupazione
- Mentre il 30% degli intervistati (dati Italia: 32%) è per lo più entusiasta della IA generativa, il 42% (dati Italia: 40%) è in parte entusiasta, in parte preoccupato
- L’83% dei consumatori internazionali spera che le aziende possano utilizzare l’intelligenza artificiale generativa per essere più innovative e offrire servizi migliori. I più propensi ad acquistare da aziende che utilizzano la IA generativa lo farebbero nell’ottica di una maggiore innovazione (59% a livello mondiale, 53% in Italia), per godere di una migliore customer experience grazie ad un supporto più rapido (51% a livello mondiale, 42% in Italia) o a un’esperienza più personalizzata (50% a livello mondiale, 45% in Italia).
- L’87% chiede che le aziende adottino un approccio etico nell’intraprendere processi di innovazione
Necessità di una specifica regolamentazione sull’uso responsabile della IA generativa
- Gli intervistati chiedono norme specifiche sull’intelligenza artificiale generativa e ritengono importante il ruolo che i Governi possono svolgere nella sua progettazione, sviluppo ed implementazione. La stragrande maggioranza (90% a livello mondale, 92% in Italia) ritiene che siano necessari nuovi provvedimenti legislativi affinché le aziende siano obbligate ad utilizzare la IA generativa in modo responsabile
- Il 93% dei consumatori teme, ad esempio, problematiche legali (65% a livello internazionale, 60% in Italia) e danni alla reputazione (65% a livello internazionale, 64% in Italia) laddove le imprese non agiscono in modo etico e responsabile nell’utilizzare l’IA generativa.
- Le aziende devono essere trasparenti in merito all’utilizzo dell’intelligenza artificiale generativa, altrimenti rischiano di perdere i clienti attuali e quelli potenziali. La maggior parte dei consumatori (85%) predilige le aziende che si impegnano a garantire trasparenza ed equità nell’utilizzare la IA generativa.
Le aziende hanno una “licenza sociale” di utilizzare la IA generativa
- Tra gli intervistati, il 68% degli italiani ritiene che le aziende debbano continuare ad innovare utilizzando l’IA generativa, in attesa di una efficace regolamentazione legislativa
- Affinché vi sia un corretto utilizzo dell’IA generativa da parte delle imprese, i consumatori ritengono che le normative dovrebbero obbligare le aziende a dichiarare in modo trasparente come vengono utilizzati i dati (68% a livello mondiale, 64% in Italia), garantire che non vengano generati contenuti illegali (63% a livello mondiale, 56% in Italia) e indicare quando i contenuti sono stati generati dalla IA generativa (62% a livello mondiale, 53% in Italia).
Parlando dei risultati della ricerca, Mike Mason, Chief AI Officer di Thoughtworks, ha commentato: “In un mondo in cui la fiducia è fondamentale, le aziende devono capire che guadagnare la fiducia dei consumatori attraverso un utilizzo etico dell’Intelligenza Artificiale non è solo un obbligo normativo, ma un vantaggio strategico”.
Secondo Lauren Woodley, a capo della ricerca condotta da Vanson Bourne, i risultati della ricerca sono allarmanti. “I consumatori esprimono molte preoccupazioni riguardo al modo in cui le aziende utilizzano i dati relativi all’intelligenza artificiale generativa. Questo va a sottolineare la responsabilità sociale che le imprese hanno nel creare fiducia e rassicurare i consumatori. Se le aziende saranno in grado di affrontare queste preoccupazioni con proattività e trasparenza, il futuro dell’IA generativa potrà essere positivo: dai prodotti/servizi più innovativi a una migliore customer experience, i risultati indicano entusiasmo tra i consumatori. Prima però bisogna rassicurarli.”
A margine della presentazione dello studio, abbiamo chiesto a Thoughtworks un punto di vista sulla situazione più generale dell’intelligenza artificiale.
DigitalWorld Italia: Tra l’ordine esecutivo del governo statunitense e il vertice di Londra di questi giorni, sembra che gli Stati si stiano muovendo per regolamentare l’IA ancora più velocemente del previsto, quasi superando l’UE, che pure si è mossa per prima. Sta andando nella giusta direzione? Le misure previste sono sufficienti?
Katharin Jarmul, principal consultant di Thoughtworks Germania e autrice del libro Practical Data Privacy, che tratta i problemi di privacy legati all’IA, ha dichiarato: “L’UE ha per ora la legislazione più completa, ancora in fase di finalizzazione, chiamata AI Act, ma ciò che queste altre mosse dimostrano è che molti governi stanno cercando di valutare e regolamentare meglio i sistemi di IA che vengono utilizzati attivamente. Molte di queste mosse rispecchiano quanto già visto nella AI Act dell’UE, che è in fase di discussione finale al Parlamento europeo”.
“L’IA comporta nuovi tipi di rischi e la sua rapida adozione da parte di consumatori e tecnologi significa che questi rischi potrebbero non essere pienamente compresi man mano che l’adozione aumenta. Un tema centrale di queste normative e politiche è il tentativo di limitare e valutare i potenziali pericoli e danni, sia per l’instabilità del sistema, sia per i pregiudizi sociali nel sistema, sia per la privacy e la fuga di informazioni. Come per accade per molte normative, non prescrivono una guida chiara su come farlo, ma danno linee guida, come quello di Biden che chiede la creazione di una nuova legge federale sulla privacy. Quando abbiamo a che fare con sistemi di machine learning o di IA, dobbiamo anche ricordare che sono di natura stocastica e probabilistica, il che significa che lo stesso input potrebbe dare due output diversi. Questo rende più difficili i test e i controlli di qualità ed è per questo che noi parliamo di AI Guardrails. La scienza su come rendere questi guardrail efficaci è ancora in fase di ricerca e non è ancora scientificamente chiaro come proteggere al meglio gli utenti da potenziali danni. Stiamo imparando lungo la strada e dobbiamo reagire al meglio in modo agile”.