IDSIA

Robot per aiutare i disabili: può essere guidato con gli occhi,
le onde cerebrali e 2 algoritmi

Lunedì 22 gennaio 2024 circa 5 minuti di lettura In deutscher Sprache

Sulla rivista Scientific Reports uno studio d’avanguardia di Loris Roveda, in collaborazione con il Politecnico di Milano. Un nuovo dispositivo "legge" i segnali cerebrali e li trasforma in comandi per il robot
di Elisa Buson

Con gli occhi si può sorridere, minacciare, confessare segreti, lanciare messaggi d’intesa. Da oggi, si può perfino comandare un robot a distanza. Basta un battito di ciglia, grazie alla nuova interfaccia cervello-computer nata dalla collaborazione tra il Politecnico di Milano e l’Istituto Dalle Molle di Studi sull’Intelligenza Artificiale (IDSIA USI-SUPSI) di Lugano.

Il progetto di ricerca, partito come una semplice tesi e sfociato nella pubblicazione sulla prestigiosa rivista Scientific Reports, era inizialmente mirato a sviluppare un sistema per la robotica collaborativa che facilitasse l’interazione uomo-macchina in ambito industriale. «Poi però abbiamo capito che questa tecnologia avrebbe potuto avere un’interessante applicazione anche per l’assistenza ai disabili», spiega l’ingegnere meccanico Loris Roveda, ricercatore senior SUPSI all’Istituto dalle Molle, tra gli autori dello studio insieme a Kaan Karas, Luca Pozzi, Alessandra Pedrocchi, Francesco Braghin del Politecnico di Milano.

«Attualmente sul mercato sono già disponibili vari apparecchi per l’eye-tracking, ovvero il tracciamento del movimento degli occhi, che consentono ai pazienti colpiti da paralisi di comunicare e interagire con l’ambiente circostante attraverso uno schermo - ricorda Roveda. - Questi dispositivi, però, risentono delle condizioni ambientali, ad esempio della scarsa luminosità della stanza, e richiedono che il paziente abbia un buon controllo del collo per rimanere in asse e puntare gli occhi verso un punto specifico del display, cosa non sempre possibile soprattutto quando la stanchezza induce a reclinare la testa sul cuscino. Così abbiamo pensato di sviluppare un’interfaccia che consentisse di avere una maggiore autonomia, in ogni situazione».

Da qui l’intuizione di tracciare il movimento degli occhi monitorandoli non dall’esterno, con una telecamera, bensì direttamente alla fonte, registrando i segnali cerebrali che li comandano. Questo passo avanti è stato reso possibile da un dispositivo, sviluppato al Politecnico di Milano, che è in grado di riconoscere i segnali specifici nel tracciato dell’elettroencefalogramma.

Grazie all’esperienza accumulata in anni di ricerca all’IDSIA, i ricercatori hanno sviluppato due diversi algoritmi in grado di identificare e isolare tre segnali intenzionali dei movimenti oculari: sguardo verso destra, sguardo verso sinistra e battito della palpebra. Un primo algoritmo si è occupato d’identificare i segnali regolari, mentre il secondo è stato addestrato per riconoscere i segnali più deboli. Un metodo a doppia soglia che finora non era mai stato sperimentato.

I due algoritmi, una volta sviluppati, sono stati addestrati offline per acquisire dati e migliorare le performance di riconoscimento degli impulsi. Successivamente sono stati integrati in un’interfaccia online che ha permesso di stabilire una comunicazione in tempo reale, consentendo ai ricercatori di comandare un robot assistivo per prendere un oggetto dal tavolo.

«Per ora l’interfaccia consente di telecomandare il robot per farlo muovere, afferrare un oggetto e spostarlo, ma può essere ulteriormente affinata per riconoscere anche altri segnali cerebrali del paziente e compiere più azioni  assicura Roveda, che si dice ottimista per le possibili applicazioni future di questa tecnologia. - Non ci sono particolari ostacoli per portarla velocemente al letto dei pazienti: sul mercato sono già disponibili i caschetti per captare i segnali dell’elettroencefalogramma, così come i robot», precisa il ricercatore.

Guarda la gallery Guarda la gallery Guarda la gallery (3 foto)

Nel frattempo il suo gruppo di ricerca LEON (LEarning for Optimization and coNtrol) all’IDSIA, che conta una quindicina di “cervelli”, è già all’opera per adattare l’interfaccia a un utilizzo industriale. «Il nostro obiettivo è sfruttare i segnali cerebrali per permettere al robot di riconoscere in anticipo le azioni che l’umano al suo fianco sta per compiere, in modo da aiutarlo nei suoi compiti senza essere d’intralcio: questa è la chiave per una avere una collaborazione uomo-macchina più efficace in condizioni di totale sicurezza», afferma Roveda. Tra le sfide da affrontare, ci sarà sicuramente quella di sostituire il caschetto con qualche altra soluzione più comoda che permetta all’operatore umano di muoversi con maggiore libertà e senza particolari fastidi.

Questo non significa che il caschetto sia destinato a finire subito in soffitta, anzi. «Stiamo già studiando un modo per collegarlo all’esoscheletro per la schiena che abbiamo sviluppato per aiutare le persone nel sollevamento e nel trasporto di carichi pesanti, ad esempio nel settore della logistica», aggiunge il ricercatore. Questa sorta di armatura hi-tech, progettata per ridurre gli infortuni sul lavoro, è stata realizzata in due versioni: una attiva, mossa da motori, e una passiva, che si muove con un meccanismo puramente automatico. «Al momento il controllo è basato sulla stima dell’interazione tra persona ed esoscheletro: algoritmi di machine learning sono impiegati per l’ottimizzazione del controllo, insomma per rendere la collaborazione il più naturale possibile. In futuro, la connessione con il caschetto per l’elettroencefalogramma darà la possibilità di predire in anticipo l’intenzione di movimento dell’utente, rendendo la collaborazione ancora più intuitiva e immediata».