(Adnkronos) – Nel prossimo futuro sarà un nostro ‘Avatar’, un gemello digitale, a finire per primo sotto i ferri. Poi una volta appurata la procedura migliore e azzerati gli imprevisti toccherà a noi. E’ la rivoluzione che potrebbe cambiare il modo di curarsi, unendo l’Intelligenza artificiale (Ai), il ‘Deep learning’ e la medicina personalizzata. “Dagli effetti dei farmaci, alle terapie migliori, passando per la teleassistenza e lo stop delle sperimentazioni su cavie animali, l’Avatar ci permetterà di intervenire su tanti aspetti della medicina e aumentare la qualità dei risultati finali per il paziente”. Lo spiega all’Adnkronos Salute Giovanni Saggio, ingegnere e professore associato di Elettronica all’Università Tor Vergata di Roma. Da anni si occupa di sviluppare progetti di tecnologia indossabile, durante la pandemia Covid ha lanciato Voicewise, applicazione in grado di diagnosticare patologie tramite l’analisi della voce.
Come nasce un ‘gemelle virtuale’ in grado di aiutare un medico? “Nasce dalla mia stretta e duratura collaborazione con i medici, io sono ingegnere e alcuni aspetti della medicina non li conosco, ma mi interfaccio continuamente con loro e così si affinano le tecniche andando incontro anche alle loro richieste – racconta Saggio -. Venti anni fa ho realizzato un guanto sensorizzato per l’Asl di Viterbo che poteva misurare la destrezza del paziente dopo l’operazione, il tutto grazie ad modello virtuale che si poteva vedere su un primo modello di IPhone. Oggi siamo arrivati a realizzare le simulazioni virtuali di parti di organi o di un organo intero, ma il collo di bottiglia per alimentare correttamente gli algoritmi di ‘machine learning’ è avere una banca dati e quindi delle fonti da dove prenderli”.
“Oggi – continua – per creare il gemello digitale si lavora con modelli di sensori indossabili e anche invasivi che si possono inserire all’interno del corpo umano. Poi ci sono sensori pervasivi che si trovano nell’ambiente e misurano i movimenti della persone e infine quelli di obliquità che fanno analisi grazie alle reti ‘wi-fi’ che si trovano ormai in ogni ambiente. Tutte queste fonti formano il database per alimentare l’Ai”.
“Insieme a Paolo Roselli, matematico qui a Tor Vergata, stiamo sviluppando algoritmi specifici che derivano dall’algebra di Clifford che ha il vantaggio di non essere una scatola chiusa con dati in ingresso e uscita, come sono alcuni algoritmi oggi, ma ad ogni variabile viene dato un peso specifico e si creano nuovi algoritmi”. Per realizzare questi super algoritmi serve una capacità di calcolo enorme, “sono necessari i calcolatori con meccanica quantistica che però ci sono già come primissimi prototipi”, precisa. “Dobbiamo immaginare che questi algoritmi saranno in grado di interpretare il gesto del chirurgo che usa un robot in sala operatoria, potranno ottimizzare il gesto migliore per una specifica esigenza e – osserva – si arriverà ad avere procedura realizzata con la sintesi dei gesti dei migliori chirurghi al mondo”.
Ma non c’è il rischio di disumanizzare l’atto medico? “No, perché il ‘manico’ l’avrà sempre lo specialista – replica Saggio -. Noi non interveniamo sul rapporto medico-paziente ma forniamo uno strumento in più. Come quando arrivarono le Tac o i primi robot in sala operatoria”. Per arrivare all’Avatar del paziente servono anche risorse economiche, c’è l’interesse di aziende su questo fronte? “Si, ma spesso si vuole già il prototipo – conclude l’ingegnere -. Vogliono già qualcosa da proporre al mercato ma questo non è sempre possibile. Ci vuole tempo, ricerca, sperimentazione per arrivare ad un risultato. Non si può avere tutto e subito. Il sistema dovrebbe capirlo e aiutare la ricerca”.