Cosa hanno in comune intelligenza artificiale, Internet of Things e Brain-Computer Interface? Moltissimo, specie se in gioco c’è la qualità della vita dei pazienti. Ce lo spiega Pasquale Fedele, Ceo e Founder di BrainControl, la prima tecnologia assistiva per pazienti locked-in che si basa sulla lettura e interpretazione dell’attività cerebrale. Grazie alla tecnologia messa a punto da questa digital health startup italiana è possibile comunicare attraverso il pensiero.
Un ricercatore, uno startupper, uno scienziato. Chi è Pasquale Fedele?
Sono innanzitutto un Ingegnere Informatico. Subito dopo essermi laureato ho iniziato a lavorare presso il Dipartimento di Ingegneria dell’Università di Siena come Ricercatore, ma mi sono da sempre posto il problema dell’applicazione pratica e volta al miglioramento della qualità della vita delle tecnologie che progettavo.
Come sei arrivato a sviluppare la tecnologia che è alla base di BrainControl?
La mia attività di ricerca è stata sempre focalizzata su progetti europei che ruotavano intorno a tematiche di ICT applicata a tecnologie pervasive, con un focus dedicato al tema dell’accessibilità per persone disabili. Grazie all’esperienza di ricerca maturata in ambito universitario, ho capito che la Brain-Computer Interface (BCI) applicata all’interazione uomo-macchina poteva portare a qualcosa di concreto, benché il benchmark dei progetti in questo settore non confermava questa intuizione. In realtà, uno dei problemi principali di questi progetti condotti perlopiù in ambito universitario era proprio la carenza di multidisciplinarità.
L’approccio più utilizzato tende generalmente ad affrontare il problema partendo dall’analisi qualitativa dei segnali elettroencefalografici. Questo metodo (bottom up) non è tuttavia vantaggioso quando si lavora con grandi quantità di dati, complessi da analizzare. Per tale scopo, in ambito ICT, sono stati sviluppati degli algoritmi di machine learning ed intelligenza artificiale che trovano sempre più applicazioni in tanti settori.
È stato questo che ha guidato il mio lavoro: applicare tecniche di intelligenza artificiale all’interazione uomo-macchina, a partire dal BCI.
In cosa consiste BrainControl?
BrainControl è una tecnologia assistiva che classifica segnali biometrici provenienti da uno o più sensori indossabili o remoti, come i sensori elettroencefalografici ma anche, all’occorrenza, ad infrarossi, inerziali, videocamere 2D e 3D. Tutti questi dati vengono usati per creare un modello sulla base del quale viene creato un sistema di riconoscimento personalizzato sull’utente. Questo modello di riconoscimento è specifico per ogni persona. La macchina impara nel tempo ed è in grado di adattare il modello al modificarsi del sistema, questo è fondamentale per persone le cui capacità motorie peggiorano nel tempo, come per i malati di SLA ed altre patologie neurodegenerative.
Quindi BrainControl non solo legge dati provenienti da sistemi diversi ma crea un modello interpretativo delle onde cerebrali. In che modo?
In realtà, abbiamo utilizzato una tecnologia che già esisteva, il rilievo elettroencefalografico e che fino a quel momento era stata utilizzata solo per fini diagnostici. L’interpretazione di questi segnali in corrispondenza di stimoli volontari è l’unico modo che ci permette di comunicare con molti pazienti locked-in, non in grado di interagire in altro modo. Era una sfida importante, anche perché l’integrazione di questa tipologia di dati era il caso più complesso tra tutte le altre possibili modalità di interazione mediante bio-feedback.
Quanto tempo ci è voluto a elaborare il primo dispositivo?
Innanzitutto sono stati messi a punto dei prototipi di laboratorio e poi dopo un paio d’anni i primi test con i pazienti.Il sistema si basa sulla capacità di identificare i pensieri di movimento immaginato attraverso specifiche configurazioni di segnali elettrici del cervello. È come se il paziente usasse una tastiera o un mouse, ma attraverso la mente. Ogni individuo che sia cognitivamente integro può imparare a interagire con il sistema.
Il paziente, infatti, deve imparare ad utilizzare pensieri di movimento, ovvero immagini mentali che creano specifici pattern neuronali (e di conseguenza mappe di attività elettrica rilevabili).
Esistono studi scientifici a supporto dell’efficacia di BrainControl?
Negli ultimi 3 anni abbiamo lavorato a stretto contatto con ricercatori di medicina ed economia dell’Università di Siena ed abbiamo progressivamente allargato il network di ricerca ad altre quattro università italiane ed altre estere.
Per quanto riguarda gli studi scientifici, ne abbiamo pubblicati diversi a supporto dell’efficacia di BrainControl come tecnologia assistiva. Recentemente ho personalmente presentato i dati di un recente studio a Dublino, nell’ambito del 27° Simposio Internazionale su SLA e MMN che si è tenuto dal 7 al 9 Dicembre.
A chi è rivolto BrainControl e qual è il modello di business che lo caratterizza?
La versione attuale del prodotto è rivolta a pazienti locked-in, e può essere acquistata sia attraverso le aziende ospedaliere, sia attraverso le ASL che rimborsano l’acquisto del dispositivo. Abbiamo stimato che sono circa 3 milioni i pazienti che, a livello mondiale, potranno beneficiare di tale innovazione. Si tratta di una prima applicazione del framework che abbiamo sviluppato, un modo per risolvere un problema concreto e che è servito a dimostrare il potenziale della piattaforma. È chiaro che questo sistema potrà poi essere utilizzato anche da pazienti meno gravi, ma anche da persone anziane.
Oltre all’applicazione in ambito salute e benessere, come tecnologia assistiva, BrainControl può essere applicata anche a livello industriale nel settore automotive e in generale nell’interazione uomo macchina.
Abbiamo già un progetto nel settore siderurgico per il telecontrollo di robot da remoto. Altre applicazioni prevedono l’installazione di sensori all’interno di guanti, caschi e tute da motociclismo. Oltre a questi ambiti produttivi, BrainControl può certamente trovare applicazione nel settore Consumer, nell’IoT e nella robotica.