Riconoscimento facciale: cos’è e come funziona, tra limiti e pregiudizi

riconoscimento facciale
Gli strumenti di riconoscimento facciale stanno diventando più accurati, ma alcuni sistemi mostrano pregiudizi razziali e gli usi della tecnologia sono controversi

I sistemi di riconoscimento possono identificare il vostro viso tramite telecamere di sorveglianza CCTV a livello stradale? Questa identificazione può portare al vostro arresto per un mandato in sospeso? Quali sono le probabilità che l’identificazione non sia corretta e vi colleghi a qualcun altro? Si può eludere completamente la sorveglianza usando qualche trucco?

D’altro canto, è possibile entrare in un caveau protetto da una telecamera e da un software di identificazione facciale tenendo in mano una stampa del viso di una persona autorizzata? E indossando una maschera 3D del viso di una persona autorizzata?

Benvenuti nel mondo del riconoscimento facciale e delle tecniche per aggirarlo.

Cos’è il riconoscimento facciale?

Il riconoscimento facciale è un metodo per identificare una persona sconosciuta o autenticare l’identità di una persona specifica dal suo viso. È un settore della visione artificiale, altamente specializzato e accompagnato da un bagaglio sociale per alcune applicazioni, oltre ad alcune vulnerabilità allo spoofing.

Come funziona il riconoscimento facciale?

I primi algoritmi di riconoscimento facciale, ancora oggi in uso in forma migliorata e più automatizzata, si basano sulla biometria per trasformare le caratteristiche facciali (per esempio la distanza tra gli occhi) misurate da un’immagine bidimensionale in un insieme di numeri che descrive il viso, definito caratteristica vettore o modello. Il processo di riconoscimento confronta quindi questi vettori con un database di volti noti che sono stati mappati nello stesso modo sulla base delle stesse caratteristiche. Una complicazione in questo processo basato sulla geometria dei volti è una normalizzazione dei parametri per tenere conto della rotazione e dell’inclinazione della testa prima di estrarre le metriche.

Un altro approccio di tipo fotometrico consiste nel normalizzare e comprimere le immagini facciali 2D e confrontarle con un database di immagini analogamente normalizzate e compresse.

Il riconoscimento facciale tridimensionale utilizza sensori 3D per catturare l’immagine del viso, o ricostruisce l’immagine 3D da tre telecamere di tracciamento 2D puntate con diverse angolazioni. Il riconoscimento facciale 3D può essere notevolmente più accurato del riconoscimento 2D.

L’analisi della struttura della pelle mappa le linee e le macchie sul viso di una persona su un altro vettore di caratteristiche. L’aggiunta dell’analisi della texture della pelle al riconoscimento facciale 2D o 3D può migliorare la precisione del riconoscimento dal 20 al 25 percento, specialmente nei casi di sosia e gemelli. E’ possibile combinare tutti i metodi e aggiungere immagini multispettrali (luce visibile e infrarossi) per una precisione ancora maggiore.

I primi strumenti di riconoscimento facciale sono stati sviluppati nel 1964. Da allora sono migliorati anno dopo anno e, in media, il tasso di errore si è ridotto della metà ogni due anni.

I test sugli strumenti di riconoscimento facciale

Il National Institute of Standards and Technology (NIST) a partire dal 2000 esegue test sugli algoritmi di riconoscimento facciale, il Face Recognition Vendor Test (FRVT). I set di dati utilizzati sono per lo più foto segnaletiche delle forze dell’ordine, ma includono anche foto provenienti da Wikimedia e immagini a bassa risoluzione da webcam.

Gli algoritmi FRVT sono per lo più inviati dai fornitori per una valutazione dei loro strumenti. I confronti anno su anno mostrano importanti miglioramenti in termini di prestazioni e accuratezza, dovuti principalmente all’uso di reti neurali convoluzionali nello sviluppo degli algoritmi.

I relativi programmi di test di riconoscimento facciale del NIST hanno studiato gli effetti demografici, il rilevamento del morphing del viso, l’identificazione dei volti pubblicati sui social media e l’identificazione dei volti nei video. Una precedente serie di test, che andava sotto il nome di Face Recognition Technology (FERET), è stata condotta negli anni ’90.

Applicazioni dei riconoscimento facciale

Le applicazioni di riconoscimento facciale rientrano principalmente in tre categorie: sicurezza, salute e marketing/retail. La sicurezza include le attività delle forze dell’ordine e include operazioni come l’abbinamento delle persone alle foto del passaporto, che può eseguito in modo più veloce accurato di quanto possano fare gli umani. Altre applicazioni per la sicurezza, non relative alle forze dell’ordine, sono lo sblocco facciale per telefoni cellulari e il controllo degli accessi per laboratori e caveau.

Le applicazioni sanitarie del riconoscimento facciale includono check-in dei pazienti, rilevamento delle emozioni in tempo reale, monitoraggio dei pazienti all’interno di una struttura, valutazione dei livelli di dolore, rilevamento di determinate malattie e condizioni, identificazione del personale e sicurezza della struttura.

Le applicazioni di marketing e retail del riconoscimento facciale includono l’identificazione dei membri di un programma fedeltà, l’identificazione e il monitoraggio di taccheggiatori noti e il riconoscimento delle persone e delle loro emozioni per suggerimenti mirati sui prodotti.

Controversie, pregiudizi e divieti sul riconoscimento facciale

Dire che alcune di queste applicazioni sono “controverse” è un eufemismo. Come sottolinea un articolo del New York Times del 2019, il riconoscimento facciale sollevato delle questioni di pregiudizi e razzismo.

Per esempio, il riconoscimento facciale è stato utilizzato al Super Bowl del 2001: il software ha identificato 19 persone ritenute oggetto di mandati in sospeso, sebbene nessuna sia stata arrestata.

Successivamente sono emersi problemi di razzismo, a partire dal software di tracciamento del viso del 2009 che poteva tracciare i bianchi ma non i neri, e continuando con uno studio del MIT del 2015 che mostrava che il software di riconoscimento facciale dell’epoca funzionava molto meglio sui volti maschili bianchi rispetto a volti femminili e di pelle scura.

Questo tipo di problemi ha portato a divieti definitivi del software di riconoscimento facciale in luoghi specifici o per usi specifici. Nel 2019, San Francisco è diventata la prima grande città americana a impedire alla polizia e ad altre forze dell’ordine di utilizzare software di riconoscimento facciale. Microsoft ha richiesto regolamenti nazionali sul riconoscimento facciale. Il MIT ha mostrato che Amazon Rekognition aveva più problemi a determinare il genere femminile rispetto a quello maschile dalle immagini del viso.

Nel giugno 2020 Microsoft ha annunciato che non ha venduto e non venderà il suo software di riconoscimento facciale alla polizia. Amazon ha vietato alla polizia di usare Rekognition per un anno e IBM ha abbandonato la sua tecnologia di riconoscimento facciale. Vietare completamente il riconoscimento facciale non sarà facile, tuttavia, data la sua ampia adozione su iPhone (Face ID) e altri dispositivi, software e tecnologie.

Non tutti i software di riconoscimento facciale soffrono degli stessi pregiudizi. Lo studio sugli effetti demografici del NIST del 2019 ha dato seguito al lavoro del MIT e ha mostrato che il bias demografico algoritmico varia ampiamente tra gli sviluppatori di software di riconoscimento facciale. Sì, ci sono effetti demografici sul tasso di falsa corrispondenza degli algoritmi di identificazione facciale, ma variano di diversi ordini di grandezza da fornitore a fornitore e sono diminuiti nel tempo.

Le tecniche di spoofing per eludere il riconoscimento facciale

Data la potenziale minaccia alla privacy derivante dal riconoscimento facciale e l’attrazione di ottenere l’accesso a risorse di alto valore protette dall’autenticazione facciale, sono stati compiuti molti sforzi per hackerare o falsificare la tecnologia. Per superare l’autenticazione è possibile utilizzare un’immagine stampata di un volto invece di un volto dal vivo, o un’immagine su uno schermo, o una maschera stampata in 3D. Per la sorveglianza CCTV, è possibile riprodurre un video registrato. Per evitare la sorveglianza, è possibile usare tecniche come la “Computer Vision Dazzle” (CV Dazzle), che consiste nell’aggirare un sistema attraverso camuffamenti con abiti e trucco, e/o gli emettitori di luce infrarossa, per ingannare il software in modo che non rilevi il viso.

Naturalmente, sono state sviluppate tecniche anti-spoofing per contrastare tutti questi attacchi. Per rilevare le immagini stampate i fornitori utilizzano test di “vitalità”, che includono aspettare che il soggetto sbatta le palpebre, eseguire un’analisi del movimento o utilizzare gli infrarossi per distinguere un volto dal vivo da un’immagine stampata. Un altro approccio consiste nell’eseguire l’analisi delle micro-texture, poiché la pelle umana è otticamente diversa dalle stampe e dai materiali delle maschere. Le ultime tecniche anti-spoofing si basano principalmente su reti neurali convoluzionali profonde.

Questo è un campo in evoluzione. È in corso una guerra alle armi tra aggressori e software anti-spoofing, nonché ricerche accademiche sull’efficacia di diverse tecniche di attacco e difesa.

I vendor di strumenti di riconoscimento facciale

Secondo la Electronic Frontier Foundation (EFF) il principale fornitore di strumenti di riconoscimento facciale e altre tecnologie di identificazione biometrica negli Stati Uniti è MorphoTrust, una sussidiaria di Idemia (precedentemente nota come OT-Morpho o Safran). La società ha progettato sistemi per le forze dell’ordine e il controllo di frontiere e aeroporti (incluso TSA PreCheck). Altri vendor sono 3M, Cognitec, DataWorks Plus, Dynamic Imaging Systems, FaceFirst e NEC Global.

Il Face Recognition Vendor Test del NIST elenca gli algoritmi di molti altri fornitori di tutto il mondo. Esistono anche diversi algoritmi di riconoscimento facciale open source, di diversa qualità, e alcuni dei principali provider cloud offrono il riconoscimento facciale.

Amazon Rekognition è un servizio di analisi di immagini e video in grado di identificare oggetti, persone, testo, scenari e attività, inclusa l’analisi facciale e le etichette personalizzate. L’API Google Cloud Vision è un servizio pre-addestrato di analisi delle immagini in grado di rilevare oggetti e volti, leggere testo stampato e scritto a mano e creare metadati nel catalogo di immagini dell’utente. Google AutoML Vision consente di addestrare modelli di immagini personalizzati.

L’API Azure Face esegue il rilevamento dei volti e degli attributi in un’immagine, esegue l’identificazione delle persone che corrisponde a un individuo in un repository privato fino a 1 milione di persone ed esegue il riconoscimento delle emozioni percepite. L’API Face può essere eseguita nel cloud o in locale.

In sintesi, il riconoscimento facciale sta migliorando e i fornitori stanno imparando a rilevare la maggior parte dello spoofing. Il tasso di errore per il riconoscimento facciale si dimezza ogni due anni, secondo il NIST. I fornitori hanno migliorato le loro tecniche anti-spoofing, ma alcune applicazioni della tecnologia restano controverse.

Condividi:
 

AI al lavoro: collaborazioni di successo tra umani e algoritmi

polo nazionale RoboIT
L'intelligenza artificiale sostituirà alcuni lavori, ma, secondo gli esperti, può supportare e collaborare attivamente con gli esseri umani, sfruttando i punti di forza unici di entrambi

Dai macchinari della rivoluzione industriale all’era informatica della digitalizzazione e, di recente, dell’intelligenza artificiale, i progressi tecnologici spesso sollevano lo spettro della perdita di posti di lavoro. Ma gli esperti ritengono che, oltre a sostituire i posti di lavoro, i sistemi di intelligenza artificiale possano potenziare l’attività umana, migliorando l’efficienza e riducendo il carico di attività più pesanti che possono essere delegate ad algoritmi intelligenti.

Ciò significa che gli esseri umani cooperano e interagiscono direttamente con l’intelligenza artificiale. “Chi non perderà il lavoro a causa dell’automazione potrà lavorare fianco a fianco con un software sempre più intelligente”, afferma J.P. Gownder, vicepresidente e analista della società di ricerca Forrester. “Questo scenario diventerà applicabile a quasi tutti i tipi di processi aziendali che possiamo immaginare”.

Combinando la potenza del cloud computing e i progressi dell’apprendimento automatico, gli assistenti AI potranno assumersi parte del carico cognitivo dei lavoratori umani, che potranno concentrarsi sulle attività a cui sono più adatti.

Sta già accadendo in molte aziende: un sondaggio Deloitte del 2020 su 1.300 CIO e responsabili IT ha rilevato che solo il 12% delle aziende utilizza l’intelligenza artificiale per sostituire i lavoratori, mentre il 60% la utilizza per assistere il personale.

Progettazione collaborativa

Consideriamo, per esempio, il generative design. Progettisti e ingegneri si affidano da tempo a strumenti CAD (Computer Aided Design) per creare “disegni” 3D di componenti o prodotti. Con il generative design l’utente inserisce parametri come il tipo di materiale, i requisiti di prestazione e relativi ai costi nell’algoritmo, che quindi crea una vasta gamma di modelli alternativi – che si tratti di un componente della macchina o di un mobile – tra cui il designer o l’ingegnere possono scegliere.

Il risultato può essere un design insolito e organico che non corrisponde all’estetica prevista e più “naturale” per gli esseri umani, ma che si adatta alle specifiche, a volte in modo più efficiente.

In pratica, secondo Seth Hindman, responsabile della strategia per i prodotti di generative design e apprendimento automatico di Autodesk, i software sono in grado di svolgere un processo di progettazione che richiede a designer e ingegneri di creare molte iterazioni del loro lavoro. Ciò a sua volta consente agli utenti di concentrarsi sugli aspetti di maggior valore del loro ruolo.

Il generative design è un collaboratore complementare all’ingegnere, che non ha il tempo, e nemmeno l’inclinazione, per esplorare l’intero spazio di progettazione”, sottolinea Hindman, “e può concentrarsi sugli aspetti più importanti del suo lavoro”.

Autodesk ha iniziato a usare il generative design con la creazione della piattaforma Project Dreamcatcher nel suo reparto di ricerca e sviluppo. La tecnologia è stata sperimentata da aziende come Airbus, che l’ha utilizzata per creare componenti di aeromobili leggeri, mentre il famoso architetto e designer Philippe Starck ha utilizzato la piattaforma di design generativo per progettare una linea di sedie.

philippe-starck-kartell-autodesk

Phillippe Stark ha lavorato con il produttore di mobili Kartell e Autodesk Research per creare “la prima sedia creata dall’intelligenza artificiale in collaborazione con gli esseri umani”

Da allora la tecnologia si è fatta strada nel prodotto commerciale Fusion 360 di Autodesk, che viene utilizzato da aziende come Lightning Motorcycles, un produttore di motociclette elettriche con sede a San Jose, in California. “Grazie al software abbiamo risolto i problemi relativi al peso dei veicoli, consentendo ai progettisti di creare nuove parti in modo più rapido ed efficiente”, afferma il CEO e fondatore Richard Hatfield.

lightning-autodesk

I designer di Lightning Motorcycles hanno creato il forcellone evidenziato in blu utilizzando il software di progettazione generativa di Autodesk

In precedenza, il team di Lightning progettava una parte e quindi conduceva analisi sulla resistenza e altre specifiche prima di apportare modifiche, un processo che richiede tempo. “Il software di generative design è in grado di eseguire milioni di queste iterazioni e simulazioni con un enorme miglioramento della velocità rispetto a quello che serve per farlo manualmente”, spiega Hatfield. “È come provare a disegnare un componente con carta e penna anziché utilizzare un software per eseguire l’iterazione. È un grande balzo in avanti”.

La partnership uomo-AI in ambito lavorativo

Molti lavoratori interagiscono già con l’intelligenza artificiale in modi più sottili, spesso senza rendersene conto, dall’ottenere traduzioni istantanee all’accettazione di suggerimenti di risposta predefiniti tramite e-mail. Allo stesso tempo, le interazioni con gli assistenti AI stanno diventando più sofisticate. Assistenti vocali come Alexa, Google Assistant, Siri e Cortana, che sono familiari nella nostra vita personale, hanno iniziato a farsi strada anche nell’ambiente lavoro, per esempio aiutando gli utenti a individuare informazioni o prenotare riunioni.

Questo significa interagire con l’AI in modo più diretto. Con i recenti progressi nel software per call center di aziende come Google e Amazon Web Services, gli agenti del call center sono in grado di interagire con assistenti AI che li guidano attraverso ogni interazione con il cliente – facendo emergere note e informazioni di supporto, riconoscendo l’atteggiamento del cliente e suggerendo risposte, tutto in tempo reale. Piuttosto che automatizzare completamente il lavoro con un chatbot, l’AI aiuta l’agente a fornire un servizio migliore, migliorando la soddisfazione del cliente e di conseguenza aumentando le vendite.

Questo è un caso in cui il personale del call center non viene sostituito dall’intelligenza artificiale, ma collabora con l’AI per gestire meglio le interazioni con i clienti”, sottolinea Gownder di Forrester. “Non è uno scenario ancora molto diffuso, ma sta iniziando a succedere”.

Non è solo in ufficio che i lavoratori interagiscono con l’AI. I robot collaborativi, o “cobot”, sono diventati più diffusi nelle fabbriche, dove sono attrezzati per operare insieme agli ingegneri per tenere in posizione oggetti o strumenti pesanti, e nei magazzini, come le enormi strutture di Amazon, dove i robot aiutano i lavoratori umani a prendere e imballare le merci per la consegna.

Creare sistemi di intelligenza artificiale che interagiscono con gli esseri umani in modo naturale e affidabile significa anticipare e adattarsi alle esigenze dei lavoratori umani – o in altre parole, imparare a essere un buon compagno di squadra – secondo Julie Shah, professore associato presso il Dipartimento di Aeronautica e Astronautica al MIT e capo dell’Interactive Robotics Group del Computer Science and Artificial Intelligence Laboratory (CSAIL).

Esiste un enorme potenziale per l’AI, non solo per assumere lavori molto impegnativi in cui ci affidiamo agli esseri umani per analizzare informazioni ambigue e incerte, ma per capire una parte di come lo facciamo e lo supportiamo, fornire le informazioni giuste e dare suggerimenti in modo che l’uomo sia libero di svolgere l’aspetto più impegnativo del lavoro”, dice Shah.

La sua ricerca si concentra su come i robot possono interagire con i lavoratori umani in modo più efficace attraverso l’intelligenza artificiale, che si tratti di trovare modi per garantire che i robot forniscano i materiali giusti al momento giusto su una linea di produzione automobilistica, o dello sviluppo di sistemi di supporto intelligenti che aiutano gli esseri umani a prendere decisioni impegnative.

Tutto ciò che faccio nel mio laboratorio è incentrato sullo sviluppo di un’intelligenza artificiale che si integra come la tessera di un puzzle per migliorare le capacità umane, piuttosto che sostituire un essere umano”, spiega la ricercatrice. “La tecnologia chiave alla base di tutto ciò è la capacità di dedurre ciò che una persona sta pensando, il suo stato mentale, ed essere in grado di anticipare ciò che farà dopo, attivarsi e offrire le informazioni giuste o il materiale fisico giusto al momento giusto”.

Significa imitare i processi complessi, che gli esseri umani sono abili a svolgere, con lo sviluppo di algoritmi per prevedere e anticipare i movimenti dei lavoratori, per esempio.

Un progetto di ricerca MIT CSAIL condotto presso il Beth Israel Deaconess Medical Center ha studiato la propensione degli esseri umani a fidarsi dell’AI sul posto di lavoro. Comprendeva l’utilizzo di un sistema di intelligenza artificiale ospitato in un robot umanoide Nao per fornire suggerimenti sulla pianificazione in un reparto ospedaliero, un ambiente in cui sono necessarie decisioni continue in frazioni di secondo per coordinare le cure.

intelligenza artificiale ospedale

I ricercatori del MIT hanno creato un sistema di intelligenza artificiale che supporta gli infermieri presso il Beth Israel Deaconess Medical Center

Responsabile del reparto è la caposala, che deve coordinare contemporaneamente un team di 10 infermieri, 20 pazienti e 20 stanze. Le variabili per la programmazione sono un numero enorme: per esempio, bisogna prevedere fattori come quando una donna arriverà in travaglio e quanto durerà il travaglio.

Il sistema AI è stato addestrato per replicare la programmazione effettuata dalla caposala, con la possibilità di anticipare le assegnazioni delle stanze e suggerire quali infermieri assegnare a una particolare procedura. L’infermiera ha potuto interrogare il robot, che ha risposto con suggerimenti utilizzando un software di sintesi vocale.

Durante il test del sistema, gli infermieri hanno accettato le raccomandazioni suggerite dall’AI il 90% delle volte e, se lo ritenevano opportuno, hanno rifiutato suggerimenti di “bassa qualità”. Il feedback degli infermieri è stato positivo, e le persone coinvolte hanno evidenziato i vantaggi per la formazione di nuovo personale e per la condivisione dei carichi di lavoro.

Ci fidiamo dell’intelligenza artificiale?

Man mano che più lavoratori interagiscono con l’AI, sia i dipendenti che le loro aziende possono chiedersi se sia appropriato fare affidamento su un algoritmo per prendere decisioni importanti e quando la conoscenza contestuale di un essere umano sia di maggior valore.

Ognuno ha i suoi punti di forza e un sistema di intelligenza artificiale può aggirare alcuni dei pregiudizi di cui un essere umano potrebbe non rendersi conto. “L’algoritmo potrebbe essere in grado di incorporare informazioni che sarebbero costose da raccogliere per l’essere umano“, afferma Susan Athey, professore di economia della tecnologia presso la Stanford Graduate School of Business e direttore associato dello Stanford Institute for Human-Centered Artificial Intelligence.

Athey cita l’esempio dello screening di curriculum di candidati per una posizione di lavoro. “Un essere umano che guarda un curriculum potrebbe avere un preconcetto rispetto ai laureati provenienti da una certa un’università, mentre un’intelligenza artificiale potrebbe essere in grado di leggere le stesse informazioni e fornire una valutazione più accurata di ciò che significa quella particolare università”.

Allo stesso tempo, gli algoritmi di intelligenza artificiale sono fallibili e possono avere pregiudizi non intenzionali programmati in essi, quindi la trasparenza è importante per garantire che gli esseri umani siano consapevoli di quanto ci si possa fidare di un algoritmo.

Non desideriamo che un algoritmo ignori sempre le decisioni umane con cui è in disaccordo”, dice Athey. “È necessario costruire algoritmi che comunichino informazioni sufficienti in modo che gli esseri umani possano capire se devono ascoltare l’algoritmo o ascoltare se stessi”.

Shah sottolinea che rendere “affidabile” un sistema non è la stessa cosa che renderlo “degno di fiducia”. Nell’industria aeronautica, per esempio, numerosi incidenti sono stati causati dalla dipendenza dei piloti da sistemi di automazione della cabina di pilotaggio imperfetti.

Sappiamo che è relativamente facile generare una fiducia inappropriata in un sistema”, aggiunge. “Ci sono piccole cose che si possono fare: per esempio rendere il sistema più antropomorfico, o farlo parlare con l’utente piuttosto che fornire una lettura di testo delle istruzioni, porta le persone a essere più propense a rispettare le raccomandazioni di un sistema e fidarsi”.

Non si tratta di rendere affidabili questi sistemi, ma aiutare una persona a calibrare adeguatamente la propria fiducia in un sistema; è importante capire quando prende decisioni entro i limiti della sua competenza e quando è al di fuori di tali limiti”.

Perché non automatizzare completamente i lavori?

Perché è necessario che l’uomo e l’IA cooperino? Perché non automatizzare completamente i lavori? Una risposta è che, almeno per ora, nella maggior parte dei casi non è tecnicamente possibile. Gli esseri umani hanno prestazioni significativamente migliori in determinati compiti, secondo i ricercatori.

Un vantaggio chiave degli esseri umani è la capacità di utilizzare l’intuizione per risolvere problemi che non sono stati riscontrati in precedenza, attingendo a informazioni da una serie di fonti.

In altre parole, possiamo usare il nostro buon senso. “Gli esseri umani possono estrapolare informazioni da circostanze che non hanno visto prima perché hanno molto buon senso”, sottolinea Athey di Stanford. “Un’intelligenza artificiale e un essere umano hanno punti di forza diversi. Gli esseri umani possono assicurarsi che le loro previsioni non siano completamente sbagliate, mentre un’intelligenza artificiale risponde solo ai dati che ha”.

L’intelligenza artificiale, d’altra parte, eccelle nell’elaborazione di grandi volumi di dati con cui un cervello umano avrebbe difficoltà. Sebbene sia possibile che l’IA possa essere equipaggiata per svolgere una gamma più ampia di compiti, la tecnologia è attualmente limitata in ciò che è in grado di ottenere senza l’input umano.

Anche nella selezione dei dati da fornire alle macchine, stiamo strutturando il mondo. Quando si allena un sistema di intelligenza artificiale su determinate immagini, sono ancora gli esseri umani che scattano le foto e le inquadrano attorno agli oggetti di interesse. “È un problema molto diverso riconoscere le cose nell’ambiente quando un robot naviga liberamente e le immagini non sono incorniciate con i nostri occhi”, dice Shah del MIT.

Noi come esseri umani abbiamo una capacità unica che l’intelligenza artificiale non avrà nel prossimo futuro, che è la capacità di considerare un problema non strutturato e strutturarlo”, aggiunge Shah. “Una volta che abbiamo strutturato un problema, l’intelligenza artificiale è molto preziosa e funziona abbastanza bene, ma penso che spesso sottovalutiamo lo sforzo che ancora oggi è necessario per strutturare un problema per l’AI”.

C’è un errore di interpretazione, secondo cui l’intelligenza artificiale può essere simile a quella umana”, afferma Gina Schaefer, manager di Deloitte Consulting e responsabile della pratica di automazione intelligente della società di consulenza. “Siamo così lontani da un’intelligenza artificiale simile a quella umana. L’IA può fare cose sorprendenti, ma oggi manca di capacità fondamentali, come comprendere il contesto. E questo è il bello dell’interazione. Ciò che si trascura è che, sebbene sia possibile sostituire gli esseri umani con parte di questa tecnologia, il vantaggio è di consentire agli esseri umani di fare ciò che è unicamente umano nel loro lavoro”.

Prepararsi per collaborare con l’intelligenza artificiale

Se implementata correttamente, l’AI può essere un vantaggio sia per i datori di lavoro che per i dipendenti, con questi ultimi in grado di dedicare meno tempo al lavoro ripetitivo.

Nella situazione ideale, queste tecnologie aiutano a prendere decisioni migliori, fornendo più insight, eseguendo automaticamente determinate attività o automatizzando processi ripetitivi”, afferma Gownder di Forrester.

Sebbene le aziende vedano il vantaggio dei lavoratori che interagiscono con l’AI, può essere necessaria una formazione e un cambiamento di competenze, con maggiore enfasi sulla creatività e ragionamenti complessi man mano che i lavori vengono adattati.

È importante che i datori di lavoro sostengano attivamente i lavoratori mano a mano che interagiscono più frequentemente con l’intelligenza artificiale”, sottolinea Gownder. “I vostri dipendenti sono dotati della giusta cultura, competenze, inclinazioni per poter iniziare a lavorare con software sempre più intelligenti? Molte persone potrebbero non volerlo fare o potrebbero non avere le competenze – potrebbero essere intimidite dalla tecnologia”.

Effettuare la transizione richiede un impegno importante aggiustamento per molte aziende. Secondo lo studio Deloitte, il 59% delle aziende ritiene che sia importante riprogettare i lavori per integrare l’AI nei prossimi 12-18 mesi, ma solo il 7% afferma di essere pronto a farlo. E solo una piccola percentuale degli intervistati (17%) sta facendo investimenti significativi nel reskilling dei propri dipendenti.

È possibile creare una migliore esperienza per i dipendenti investendo in intelligenza artificiale e automazione, ma è anche possibile farlo in modo sbagliato, come con qualsiasi cosa”, avverte Abitoder.

Ciò che è chiaro è che nei prossimi anni l’AI avrà un impatto più profondo su tutti i tipi di lavoro.

Sebbene sia un comportamento all’avanguardia per molti, diventerà presto estremamente importante”, afferma Gownder. “Vedremo tutti la trasformazione del nostro lavoro nel prossimo decennio grazie a software e automazione intelligenti, e dobbiamo iniziare a prepararci”.

Condividi: