L’applicazione funziona utilizzando l’intelligenza artificiale e un software di elaborazione delle immagini facciali
Il suo nome è MoodCapture ed è stata sviluppata da ricercatori del Dartmouth College ad Hanover, New Hampshire negli Stati Uniti.
La una nuova applicazione per smartphone apre alla possibilità di rilevare l’insorgenza della depressione prima che la persona si accorga che qualcosa non va.
Grazie all’intelligenza artificiale e a un software di elaborazione delle espressioni del volto che si è rivelata piuttosto affidabile. Infatti in uno studio condotto su 177 persone con diagnosi di disturbo depressivo maggiore L’App è stata capace di identificare correttamente i primi sintomi della patologia con una percentuale di precisione del 75%.
Come funziona l’App che legge la depressione
Si sa che il volto è lo specchio dell’anima e che guardando le espressioni sul viso di una persona si possono capire molte cose.
Ora, ad aiutarci a farlo sarà anche lo smartphone con l’applicazione recentemente messa a punto dai ricercatori americani. In pratica la telecamera frontale del telefono dopo aver catturato le espressioni facciali della persona e l’ambiente circostante durante l’uso regolare del telefono, valuta le immagini per individuare i segnali clinici associati alla depressione.
Così, analizzando sguardi ombrosi o sorrisi, smorfie, occhi persi nel vuoto e ciglia aggrottate, dà il suo responso dicendoci se i segnali sono quelli della patologia.
Lo studio è disponibile in versione preprint nel database “arXiv”.
Come ha spiegato l’autore, Andrew Campbell, l’App MoodCapture, considerato che le persone utilizzano software di riconoscimento facciale per sbloccare i loro cellulari centinaia di volte al giorno, apre le porte al supporto digitale per la salute mentale in tempo reale.
A maggio il lavoro sarà presentato alla conferenza Chi 2024 dell’Association of Computing Machinery.
Per la prima volta utilizzate le immagini naturali per prevedere la patologia e l’Ai
Per arrivare a trovare lo strumento in grado di prevedere l’umore nelle persone con diagnosi di depressione grave, l’applicazione ha catturato 125 mila immagini dei partecipanti in un periodo di 90 giorni. Le persone hanno acconsentito a farsi scattare le foto ma senza sapere quando queste venivano scattate e sono state riprese mentre rispondevano alla domanda del Patient Health Questionnaire utilizzato dai medici per rilevare e monitorare la depressione maggiore “Mi sono sentito giù, depresso e senza speranza?”.
I ricercatori successivamente si sono serviti dell’intelligenza artificiale per programmare MoodCapture addestrando l’App al riconoscimento della depressione in modo che le segnalazioni specifiche dei pazienti potessero correlarsi con specifiche espressioni facciali quali sguardo, movimento degli occhi, posizionamento della testa, rigidità muscolare e caratteristiche ambientali come colori dominanti, illuminazione, posizione delle foto e numero di persone nell’immagine.
Il modello di Ai traccia connessioni tra espressioni e dettagli di sfondo ritenuti importanti e nel tempo MoodCapture identifica le caratteristiche dell’immagine specifiche per l’utente.
Per fare un esempio, significa che se una persona appare per un lungo periodo sempre con un’espressione piatta e in un ambiente scarsamente illuminato, il modello potrebbe dedurre un inizio di depressione. Poiché l’attendibilità dimostrata è stata del 75% , la soglia del 90% sarebbe quella di un sensore utilizzabile ma con lo studio è stata dimostrata la fattibilità e l’utilizzo di questo strumento può fornire un maggiore supporto per prevedere e comprendere i sintomi della depressione.
Silvia Bolognini