ETHICA SOCIETAS-Rivista di scienze umane e sociali
Lolita Guliman NOTIZIE Psicologia Sociologia e Scienze Sociali

INTELLIGENZA ARTIFICIALE NELLA PREVENZIONE DEI SUICIDI NELLE FORZE DI POLIZIA, Lolita Guliman e Sara Sterpi

Il supporto delle nuove tecnologie nel sistema ISSA di approccio innovativo sistemico al suicidio

Lolita Guliman
Sara Sterpi

Abstract: attraverso l’intelligenza artificiale, con un processo di design thinking, e la creazione di sistemi sociali di sostegno messi in rete si potrebbe ridurre la complessità del problema del fenomeno suicidiario e abbassare il rischio di casi di autolesionismo estremo. L’obiettivo di questo articolo, dunque, è quello di approfondire le cause e analizzare gli indicatori delle condotte comportamentali a rischio di suicidio e di altre forme autolesionistiche, includendo una riflessione sui familiari delle vittime con uno sguardo verso le possibili misure di prevenzione innovative attualmente in uso. Sono stati messi a punto dei modelli di intervento integrati che hanno incluso i dati provenienti dalle neuroscienze e dall’intelligenza artificiale. Il modello denominato ISSA “Innovative sistemic suicide approach”, si propone come un metodo integrativo che aiuta le forze armate a identificare, analizzare e a monitorare le condotte a rischio, aiutando così i soggetti a potenziare l’empowerment interno e a superare le crisi con metodi innovativi basati sulla resilienza. Il tutto viene sostenuto dalle nuove tecnologie e dai sistemi di rete sviluppati appositamente, così come anche l’integrazione di proposte formative personalizzate, utili al fine di prevenire il disagio delle persone sofferenti e delle loro famiglie.

Keywords: #suicidio #suicidiforzedellordine #suicidipolizia #suicidiforzearmate #suicididivise #prevenzione #famiglia #intelligenzaartificiale #AI #psicologia #lolitaguliman #sarasterpi #ethicasocietasupli #ethicasocietasrivista #ethicasocietas #ethicasocietasrivista #rivistascientifica #scienzeumane #scienzesociali


Lolita Guliman, psicologa e psicoterapeuta, professoressa universitaria, esperta in valutazione e cura del disagio tra gli operatori dei settori a rischio, coordinatrice di gruppi di lavoro relativi al sostegno delle famiglie anche attraverso l’uso dell’intelligenza artificiale cognitiva.

Sara Sterpi, dottoressa in Psicopatologia dinamica dello sviluppo, ricercatrice in modelli di analisi e prevenzione del suicidio.


GLI ALTRI CAPITOLI DELLA RICERCA

LA STRAGE DELLE DIVISE


INTRODUZIONE

L’Organizzazione Mondiale della Sanità (OMS, 2019) ha stimato che ogni anno sono circa 703.000 le persone che decidono di togliersi la vita. Si tratta di un fenomeno particolarmente articolato, la cui comprensione richiede il ricorso a modelli teorici complessi, in quanto conseguenza di molti fattori: genetici, familiari, ambientali e culturali.

Si è già detto delle difficoltà di riassumere il processo di causa-effetto nei fenomeni suicidari, tuttavia le nuove tecnologie e la rivoluzione dell’intelligenza artificiale possono ridurre la complessità del problema del fenomeno suicidiario e abbassare il rischio di casi di autolesionismo estremo e quindi si possono impiegare per  sviluppare un approccio integrato alla prevenzione .

Nel corso del tempo sono state elaborare diverse linee guida per promuovere interventi di prevenzione del comportamento suicidario come quelle definite, nel 2023, dall’OMS. Recentemente, anche gli studi di neuroscienze si sono occupati di questo fenomeno. Alcuni studi sperimentali hanno evidenziato una minor connettività nella default model network, ovvero nei circuiti neuronali deputati al controllo cognitivo e all’impulsività (Stange J. P. et al., 2020).

LA PREVENZIONE

Conoscere le differenze di connettività potrebbe fornire informazioni e indicazioni molto utili al fine di ideare e sviluppare trattamenti neuromodulatori. Per portare un esempio pratico, alcuni studi hanno utilizzato la stimolazione magnetica transcranica ripetitiva (rTMS) come trattamento per la depressione. La (rTMS) è una tecnica in cui alcuni impulsi magnetici ripetuti e a specifiche frequenze, vengono indirizzati verso regioni cerebrali ben precise, come quelle coinvolte nella regolazione dell’umore (George M. S. et al., 2010).

Considerare l’attività cerebrale al fine di prevedere il comportamento delle persone a maggior rischio di suicidio, è stato fatto anche durante uno studio condotto dall’Università di Harvard in cui si sono sottoposti a risonanza magnetica funzionale (fMRI) i cervelli di soggetti inclusi nella sperimentazione, alcuni dei quali avevano tentato il suicidio mentre altri avevano avuto pensieri suicidari. Altri ancora appartenevano a un gruppo di controllo.

La fMRI è una tecnica utilizzata per rilevare quali aree cerebrali si attivano durante l’esecuzione di un determinato compito. Lo studio prevedeva l’ascolto di parole positive e negative correlate ai concetti di vita e di morte. Inoltre, per lo svolgimento dell’esperimento i ricercatori hanno anche utilizzato un sistema di intelligenza artificiale. Nonostante il campione esiguo, composto da 34 persone delle quali 17 con pensieri suicidari, i ricercatori definiscono i risultati incoraggianti in quanto si è riusciti a individuare con un buon grado di accuratezza i soggetti con idee suicidarie rispetto a coloro che non ne avevano avute (Just M. A. et al., 2017).

L’APPORTO DELL’INTELLIGENZA ARTIFICIALE

Inoltre, negli ultimi anni, i sistemi di intelligenza artificiale (IA) sono stati applicati in diversi contesti, come per esempio quello sanitario. Si sta cominciando a riflettere su come l’adozione di questi sistemi possa migliorare l’esperienza di coloro che la utilizzano, ovvero anche di possibili pazienti, e come ciò possa effettivamente modificare la relazione con gli esperti.

Vi è infatti un continuo utilizzo di internet che permette di avere un accesso rapido alle informazioni utili, come per esempio quelle che servono ad arrivare a una diagnosi o alla cura attraverso le diciture dettagliate dei sintomi. Si parla di chatbot sanitari per indicare un software basato su un sistema di intelligenza artificiale che sia in grado di tenere una conversazione con un utente. Il loro utilizzo sembrerebbe essere variegato e in grado di supportare l’utente fornendo risposte a domande mediche semplici fino alla raccolta dei dati clinici e delle informazioni sulle patologie, giungendo alla definizione della valutazione della diagnosi.

Sembrerebbe che il loro utilizzo in ambito sanitario, derivi da una maggior sensazione di stare a proprio agio da parte dei pazienti nell’affrontare temi relativi alla salute mentale, poiché si considera Internet come più accessibile. Questi sistemi potrebbero comunque rappresentare il primo contatto tra i pazienti e i servizi sanitari, con la possibilità successiva di metterli in contatto diretto con gli specialisti per ulteriori approfondimenti (Botpress, 2022).

È indubbio che l’utilizzo dell’intelligenza artificiale in ambito sanitario richieda attenzione verso alcuni aspetti come, per esempio, la possibile violazione della privacy degli utenti, le discriminazioni introdotte dalla programmazione degli algoritmi, l’importanza di stabilire norme relative alla responsabilità dell’esperto e a una sua formazione relativa al suo utilizzo. Risulta quindi necessaria una rigorosa validazione scientifica (Ministero della Salute, 2021).

Inoltre, è necessario considerare l’importanza di comunicare in modo appropriato le migliori modalità di utilizzo dei sistemi di intelligenza artificiale, affinché coloro che li utilizzano possano ricavarne reali benefici e comprenderne i limiti e dunque, arrivare a educare l’individuo a porre le giuste domande. È già cosa nota che, affinché si ottengano migliori risultati da questo tipo di soluzioni, è importante imparare a porre le domande in maniera corretta al fine di instaurare un dialogo migliore che porti alla soluzione delle istanze.

APP A SUPPORTO DELLA SALUTE MENTALE

Oltre all’utilizzo delle chatbots, nell’ultimo decennio si sono anche sviluppate delle applicazioni relative alla salute mentale, arrivando a un numero superiore a 10.000 App disponibili. Questo fattore ha però reso più difficile la scelta, in special modo per gli utenti meno esperti.

Nel 2019, una revisione sistemica di Martinengo e colleghi ha valutato il grado di conformità dei consigli presenti in 69 App relative alla gestione della depressione e alla prevenzione del suicidio rispetto a sei linee guida cliniche (monitoraggio dell’umore e dei pensieri suicidari, sviluppo di piani di sicurezza, raccomandazione di attività per scoraggiare i pensieri suicidari, informazione ed educazione, accesso alle reti di supporto, e accesso alla consulenza di emergenza).

I ricercatori hanno preso in considerazione le strategie utilizzate, l’analisi delle risposte fornite all’utente e la qualità del servizio. È emerso che la maggior parte delle applicazioni offrivano informazioni per un accesso diretto a una linea di assistenza in caso di emergenza. Tuttavia, solamente cinque App offrivano un supporto completo e olistico mentre nessuna poneva domande relative ai fattori di rischio, fattori scatenanti e fattori di protezione, dimostrando una mancata autoregolamentazione e autocontrollo e gestione di questo settore.

Alcuni studi precedenti avevano evidenziato come la maggior parte delle applicazioni di questo genere contenesse almeno una componente coerente con le linee guida presenti in letteratura oltre alla necessità di una maggior adeguatezza nella valutazione dei contenuti, in quanto alcune App, seppur in numero esiguo, sono state definite inadeguate e addirittura, potenzialmente dannose (Larsen M. E. et al., 2016).

Per esempio, alcune presentavano numeri di assistenza emergenziale errati, fattore molto rischioso dal momento che le linee telefoniche di assistenza sono un’importante strategia di prevenzione e possono ridurre il rischio immediato di un comportamento suicidario (OMS, 2014; Assing H. E. et al., 2016).

Da ciò si evince che le applicazioni sviluppate per il settore sanitario risultano essere importanti strumenti per monitorare in tempo reale le persone a rischio, oltre a rappresentare un’opportunità per accedere in tempo reale a un supporto di assistenza, tuttavia richiedono un’adeguata valutazione dei contenuti. È quindi necessaria una costante revisione delle stesse, al fine di individuare carenze e inadeguatezze oltre che una maggior aderenza alle linee guida (Martinengo L. et al, 2019).

In massima sintesi, le applicazioni sanitarie dovrebbero essere considerate come un sostegno da affiancare al rapporto continuativo tra paziente ed esperto e non come un sostituto; il rischio di
suicidio richiede la collaborazione tra la persona interessata, la rete di supporto e un’equipe sanitaria multidisciplinare (Jacobs D. G. et al., 2010).

IL MODELLO ISSA DI APPROCCIO SISTEMICO AL SUICIDIO

Il modello denominato ISSAInnovative sistemic suicide approach”, si propone come un metodo integrativo che aiuta le forze armate e le forze di polizia a identificare, analizzare e a monitorare le condotte a rischio, aiutando così i soggetti a potenziare l’empowerment interno e a superare le crisi con metodi innovativi basati sulla resilienza. Il tutto viene sostenuto dalle nuove tecnologie e dai sistemi di rete sviluppati appositamente, così come anche l’integrazione di proposte formative personalizzate, utili al fine di prevenire il disagio delle persone sofferenti e delle loro famiglie.

Il modello proposto qui si baserebbe su un approccio integrato che mira a creare un ambiente di supporto proattivo basato sul sostegno sociale, la formazione di gruppi e l’uso delle moderne tecnologie. Infatti, Il sistema innovativo per la prevenzione del suicidio nelle forze armate proposto qui, farà uso di un sistema di intelligenza artificiale cognitivo sviluppato attraverso dei prompt pilotati in combinazione con le altre forme di supporto sociale.

Verrà utilizzata la piattaforma digitale ideata e sviluppata per aiutare i membri delle forze armate a monitorare i propri livelli di benessere mentale e relazionale, aderire a dei gruppi di discussione, che avranno un ruolo attivo nella guida verso l’espressione libera delle emozioni e delle esperienze e ampliare le proprie conoscenze e competenze di presa in cura di sé stessi e della propria famiglia.

Questo grazie anche agli algoritmi capaci di analizzare le condotte comportamentali dei soggetti basati su indicatori specifici quali: la qualità del sonno, il numero dei membri e la qualità delle relazioni sociali, i piani motivazionali, la progettualità futura, la qualità delle interazioni intrafamiliari.

Verranno inoltre forniti alcuni suggerimenti personalizzati, grazie all’ingegnerizzazione dei pattern di domande fondamentali al fine di personalizzare modelli di auto-cura e richiesta di aiuto verso specialisti adeguati secondo il personale tipo di disagio oltre a identificare i segnali di allarme.

Il progetto prevede il coinvolgimento di professionisti della salute mentale con i quali stabilire una partnership e fornire così un supporto professionale attraverso la piattaforma digitale e saranno organizzate alcune sessioni periodiche di monitoraggio per verificare costantemente l’efficacia del sistema utilizzando dei feedback nella versione di bottom up.


Bibliografia

Assing H. E., Ploug, T., & Holm, S. (2016). L’impatto dei servizi di crisi telefonica sugli utenti suicidi: una revisione sistematica degli ultimi 45 anni. Journal of Mental Health Review, 21 (2), 141–160. doi: 10.1108/MHRJ-07-2015-0019.

Brent, D. A., Melhem, N. M., Oquendo, M., et al. (2015). Percorsi familiari verso il tentativo di suicidio ad esordio precoce: uno studio prospettico di 5,6 anni. JAMA Psichiatria, 72 (2), 160–168. doi: 10.1001/jamapsychiatry.2014.2141.

Carpiniello, B., & Pinna, F. (2017). The Reciprocal Relationship between Suicidality and Stigma. Frontiers in psychiatry, 8, 35. https://doi.org/10.3389/fpsyt.2017.00035.

Coelli, D. (2023). Lo scenario del suicidio in psicologia dell’emergenza. Rivista di Psicologia dell’Emergenza e dell’Assistenza Umanitaria (28), 85-93.

Di Costanzo S., & Raggi, S. (2021). Il suicidio nelle Forze Armate: ricerca, prevenzione e contributi teorici. Medicina Militare. Periodico del Ministero Della Difesa, 171(2), 135-150.

DiGiuseppe, R. A., Doyle, K. A., Dryden, W., & Backx, W. (2014). Manuale di terapia razionale emotiva comportamentale. Raffaello Cortina Editore.

Favasuli, M. A. (2014). Suicidio: Linee di comprensione e di epidemiologia. Giornale di Medicina Militare, 164(2), 165-182.

Favasuli, M. A. (2019). Disturbi psichici in ambito militare. Una disamina delle diagnosi psichiatriche in ambito CMO. Osservatorio epidemiologico della difesa, 169(1),7-28.

Favasuli, M. A., Rocchetti, A., Vento, R., & Lastilla, M. (2019). L’osservazione del fenomeno suicidario in ambito militare. Osservatorio epidemiologico della difesa, 169(3),197-204.

George, M. S., Lisanby, S. H., Avery, D., McDonald, W. M., Durkalski, V., & Pavlicova, M. (2010). Terapia di stimolazione magnetica transcranica prefrontale sinistra quotidiana per il disturbo depressivo maggiore: uno studio randomizzato controllato con finzione. Psichiatria dell’Arcigen.

Larsen, M. E., Nicholas, J., Christensen, H. (2016). Una valutazione sistematica degli strumenti degli smartphone per la prevenzione del suicidio. PLoS One, 11 (4), e0152285. doi: 10.1371/journal.pone.0152285.

Martinengo, L., Van Galen, L., Lum, E., Kowalski, M., Subramaniam, M., & Car, J. (2019). Valutazione e gestione del rischio di suicidio delle app per la prevenzione del suicidio e la depressione: una valutazione sistematica dell’aderenza alle linee guida cliniche. BMC Medicine, 17 (1), 231. doi: 10.1186/s12916-019-1461-z.

Ministero della Salute. (2021). I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica.

Organizzazione Mondiale della Sanità. (2014). Prevenire il suicidio: un imperativo globale. Ginevra: Organizzazione mondiale della sanità.

Organizzazione mondiale della sanità. (2021). Suicidio nel mondo nel 2019: stime sulla salute globale.

Jacobs, D. G., Baldessarini, R. J., Conwell, Y., et al. (2010). Valutazione e trattamento di pazienti con comportamenti suicidi.

Just, M. A., Pan, L., Cherkassky, V. L., McMakin, D. L., Cha, C., Nock, M. K., & Brent, D. (2017). Machine learning of neural representations of suicide and emotion concepts identifies suicidal youth. Nature human behaviour, 1, 911–919. https://doi.org/10.1038/s41562-017-0234-y (Retraction published Nat Hum Behav. 2023 May;7(5):824).

Stange, J. P., Jenkins, L. M., Pocius, S., Kreutzer, K., Bessette, K. L., DelDonno, S. R., Kling, L. R., Bhaumik, R., Welsh, R. C., Keilp, J. G., Phan, K. L., & Langenecker, S. A. (2020). Utilizzo della connettività di rete intrinseca nello stato di riposo per identificare il rischio di suicidio nei disturbi dell’umore. Medicina psicologica, 50 (14), 2324-2334. doi: 10.1017/S0033291719002356.

Szadejko, K. (2020). Il modello “biopsicosociale”: verso un approccio integrale. Teoria e prassi. Rivista di scienze dell’educazione (1), 21-29.

Sitografia

Botpress. (2022, 18 febbraio). Top Health Chatbots per il 2021. https://botpress.com/it/blog/top-health-chatbots-for-2021.

Mercier, M. (2022, 29 novembre). Chatbots per l’assistenza sanitaria. Botpress. https://botpress.com/it/blog/chatbots-for-healthcare.

Osservatorio suicidi in divisa. https://www.facebook.com/groups/osservatoriosuicidimilitari.


ALTRI CONTRIBUTI SULL’INTELLIGENZA ARTIFICIALE

L’INTELLIGENZA ARTIFICIALE GENERATIVA: UN VIAGGIO TRA COMUNICAZIONE, SOFT SKILLS E TRASFORMAZIONE DEL PENSIERO

L’UNICA DOMANDA DA PORSI SULL”INTELLIGENZA ARTIFICIALE”

GENERATIVE ARTIFICIAL INTELLIGENCE HOW DOES THOUGHT WILL CHANGE?

GLI ULTIMI 5 ARTICOLI PUBBLICATI

LA POLIZIA LOCALE NON PUÒ UTILIZZARE LIBERAMENTE I DRONI

ANALISI DELLE IMPRONTE PAPILLARI, TRA STORIA E CRONACA-Parte 2

LA DICHIARAZIONE ANTIFASCISTA DI GIORGIA MELONI

ANCHE LE POLIZIE LOCALI SOVRACOMUNALI IN PRIMA LINEA PER LA SICUREZZA STRADALE [CON VIDEO]

VECCHIE CENSURE E NUOVE BUGIE: SCURATI OSCURATO ALLA RAI [CON VIDEO]


Copyright Ethica Societas, Human&Social Science Review © 2024 by Ethica Societas UPLI onlus.
ISSN 2785-602X. Licensed under CC BY-NC 4.0   

Related posts

MACCHIA D’OLIO SULL’ASFALTO: E’ FONTE DI RISARCIMENTO DANNI? Luigi De Simone

Luigi De Simone

IL PRESIDENTE DELLA CORTE COSTITUZIONALE SUI DIRITTI CIVILI, IL LAVORO E LA DEMOCRAZIA, Francesco Mancini

@Direttore

LE ANTICIPAZIONI PIÙ AGGIORNATE SULLA RIFORMA DEL CDS-parte 4, Domenico Carola

@Direttore