Due ricercatori della National University of Singapore (NUS), membri della Intel Neuromorphic Research Community (INRC), hanno presentato nuovi studi che dimostrano la possibilità di applicare alla robotica la visione event-based (più vicina all’esperienza visiva umana) e una sensibilità tattile abbinate al computing neuromorfico di Intel. La ricerca evidenzia come l’introduzione del senso del tatto nella robotica consenta di migliorare significativamente le capacità e la funzionalità rispetto agli attuali sistemi basati solamente sulla visione, oltre a mostrare come i processori neuromorfici possano offrire prestazioni superiori, rispetto alle architetture tradizionali, nell’elaborare tali dati sensoriali.

Il senso del tatto degli esseri umani ha una sensibilità tale da percepire la differenza fra due superfici il cui spessore differisce di un solo strato molecolare; la maggior parte dei robot di oggi né è sprovvista e opera unicamente sulla base dell’elaborazione visiva. I ricercatori di NUS contano di cambiare questo stato di cose utilizzando la pelle artificiale da loro recentemente sviluppata, che è in grado di percepire stimoli tattili con una velocità più di 1.000 volte superiore rispetto al sistema nervoso umano, e di identificare la forma, consistenza e durezza di un oggetto 10 volte più rapidamente di un battito di ciglia.

Dotare un robot di un senso del tatto simile a quello umano può migliorarne significativamente la funzionalità rispetto a oggi e anche potenzialmente accrescerne le modalità di utilizzo. Ad esempio, un braccio robotico dotato di pelle artificiale può adattarsi con facilità ai diversi oggetti prodotti in fabbrica, utilizzando il tatto per identificare e afferrare oggetti non familiari con la giusta pressione per evitare che sfuggano alla presa. La capacità di sentire e percepire meglio l’ambiente circostante potrebbe inoltre consentire un’interazione più ravvicinata e sicura fra robot e persone, ad esempio nella cura delle persone, o portarci più vicino all’automatizzazione delle operazioni chirurgiche grazie a un senso del tatto che gli attuali robot non hanno.

robotic process automation rpa

Mentre la creazione della pelle artificiale rappresenta un passo avanti nel dare vita a questa ambizione, è anche necessario un processore che sia in grado di trarre conclusioni accurate, in tempo reale, dai dati che arrivano dai sensori della pelle, mantenendo un livello di consumo energetico abbastanza efficiente da consentirne l’uso direttamente nel robot. “Realizzare un sensore ultrarapido per la pelle artificiale significa risolvere circa metà del problema di rendere più intelligenti i robot”, ha dichiarato il Prof. Harold Soh del Dipartimento di Informatica della NUS School of Computing. “Per completare il puzzle, serve anche un cervello artificiale in grado di percepire e imparare”.

Per aprire una nuova strada nella percezione sensoriale dei robot, il team di NUS ha iniziato a esplorare la capacità della tecnologia neuromorfica di elaborare i dati provenienti dai sensori della pelle artificiale, utilizzando il chip di ricerca neuromorfica Loihi di Intel. Nell’esperimento iniziale i ricercatori hanno utilizzato una mano robotica dotata di pelle artificiale per leggere il Braille, passando i dati di percezione tattile a Loihi attraverso il cloud in modo da convertire i microrilievi percepiti dalla mano in un significato semantico. Loihi ha raggiunto un’accuratezza superiore al 92% nel classificare le lettere Braille, utilizzando al contempo 20 volte meno energia rispetto a un processore Von Neumann standard.

Basandosi su questo lavoro, il team di NUS ha ulteriormente migliorato le capacità di percezione robotica combinando i dati visivi a quelli tattili nella rete neurale. Per fare ciò, hanno incaricato un robot di classificare vari contenitori opachi contenenti diverse quantità di liquido, utilizzando input sensoriali dalla pelle artificiale e una telecamera basata su eventi. Utilizzando gli stessi sensori tattili e di visione, hanno anche testato la capacità del sistema di percepire e identificare lo slittamento rotazionale, importante per una presa stabile.

Una volta acquisiti questi dati sensoriali, il team li ha inviati a una GPU e al chip di ricerca neuromorfica Loihi per confrontare le capacità di elaborazione. I risultati della ricerca, presentati questa settimana a Robotics: Science and Systems, dimostrano che la combinazione di visione e tatto basati su eventi utilizzando una rete neurale spiking ha consentito una precisione migliore del 10% nella classificazione degli oggetti rispetto a un sistema basato sulla sola visione. Inoltre, hanno dimostrato la potenzialità della tecnologia neuromorfica di essere utilizzata per tali dispositivi robotici, grazie a Loihi che è in grado di elaborare i dati sensoriali il 21% più rapidamente rispetto alle più potenti GPU, utilizzando 45 volte meno energia.