Computing neuromorfico

Ricerca: oltre la computer vision è il momento del tatto

Combinare molteplici sensori visivi e tattili ad un sistema neuromorfico migliora la percezione dei robot rendendoli robusti ed energeticamente efficienti, in grado di rispondere rapidamente e appropriatamente a situazioni impreviste. Ecco le evidenze di una sperimentazione condotta dai ricercatori della National University of Singapore (NUS), membri della Intel Neuromorphic Research Community (INRC)

Pubblicato il 21 Lug 2020

NUS-Intel Research team

Dotare un robot di un senso del tatto simile a quello umano, combinarlo con la capacità visiva e utilizzare il computing neuromorfico per l’elaborazione dei dati, significa migliorare significativamente capacità e funzionalità degli attuali sistemi che operano unicamente sulla base dell’elaborazione visiva, ma anche accrescerne potenzialmente le modalità di utilizzo.

Mike Davies, Intel Neuromorphic Computing Lab Director. (Credit: Tim Herman/Intel Corporation)

I ricercatori della National University of Singapore (NUS), membri della Intel Neuromorphic Research Community (INRC), contano di cambiare lo stato di cose utilizzando la pelle artificiale da loro recentemente sviluppata, in grado di percepire stimoli tattili con una velocità più di 1.000 volte superiore rispetto al sistema nervoso umano, e di “identificare forma, consistenza e durezza di un oggetto 10 volte più rapidamente di un battito di ciglia”.
“Un interessante sguardo al futuro della robotica, dove le informazioni sono sia percepite che elaborate sulla base degli eventi combinando molteplici modalità. Questo lavoro porta nuova evidenza di come il calcolo neuromorfico consenta di ottenere notevoli miglioramenti in termini di latenza e di consumi energetici, quando si riprogetta l’intero sistema secondo un paradigma basato sugli eventi che comprende sensori, formati dei dati, algoritmi e architettura dell’hardware” ha affermato Mike Davies, Direttore Intel Neuromorphic Computing Lab.

Pelle e cervello artificiale per robot più intelligenti

Un braccio robotico dotato di pelle artificiale può interfacciarsi con agilità ai diversi oggetti prodotti in fabbrica, utilizzando il tatto per identificare e afferrare oggetti non familiari con la giusta pressione per evitare che sfuggano alla presa. La capacità di sentire e percepire meglio l’ambiente circostante potrebbe inoltre consentire un’interazione più ravvicinata e sicura fra robot e persone, ad esempio nella cura delle persone, o portarci più vicino all’automatizzazione delle operazioni chirurgiche grazie a un senso del tatto che gli attuali robot non hanno.

Oltre alla pelle artificiale, occorre un processore che sia in grado di trarre conclusioni accurate, in tempo reale, dai dati che arrivano dai sensori della pelle, mantenendo un livello di consumo energetico abbastanza efficiente da consentirne l’uso direttamente nel robot. “Realizzare un sensore ultrarapido per la pelle artificiale significa risolvere circa metà del problema di rendere più intelligenti i robot. Per completare il puzzle, serve anche un cervello artificiale in grado di percepire e imparare” ha dichiarato il Prof. Harold Soh del Dipartimento di Informatica della NUS School of Computing.

La ricerca: una nuova strada alla percezione sensoriale

Il team di NUS ha esplorato la capacità della tecnologia neuromorfica di elaborare i dati provenienti dai sensori della pelle artificiale, utilizzando il chip di ricerca neuromorfica Loihi di Intel. I ricercatori hanno utilizzato una mano robotica dotata di pelle artificiale per leggere il Braille (un sistema di lettura e scrittura tattile a rilievo per non vedenti e ipovedenti, messo a punto dal francese Louis Braille nella prima metà del XIX secolo), passando i dati di percezione tattile a Loihi attraverso il Cloud di modo da convertire i microrilievi percepiti dalla mano in un significato semantico. Loihi ha raggiunto un’accuratezza superiore al 92% nel classificare le lettere, utilizzando al contempo 20 volte meno energia rispetto a un processore Von Neumann standard.

Il team di NUS ha poi incaricato un robot di classificare vari contenitori opachi contenenti diverse quantità di liquido, utilizzando input sensoriali dalla pelle artificiale e una telecamera basata su eventi. Utilizzando gli stessi sensori, ha anche testato la capacità del sistema di identificare lo slittamento rotazionale, importante per una presa stabile. Una volta acquisiti questi dati, il team li ha inviati a una GPU e al chip di ricerca neuromorfica Loihi per confrontare le capacità di elaborazione. Dai risultati si evince che: la combinazione di visione e tatto basati su eventi utilizzando una rete neurale spiking migliora del 10% la precisione nella classificazione degli oggetti rispetto a un sistema basato sulla sola visione; e poi, la tecnologia neuromorfica è in grado di elaborare i dati sensoriali il 21% più rapidamente rispetto alle più potenti GPU, utilizzando 45 volte meno energia.

Per saperne di più sulla computer vision potete consultare questo articolo.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati