La intel·ligència artificial (IA) està transformant molts àmbits de la nostra vida, i la salut mental no n’és una excepció. El professor i investigador del departament de Medicina de la UIC Barcelona, Pere Castellví, alerta dels riscos que pot tenir un ús irresponsable de la IA en l’àmbit de la salut mental, especialment en infants i adolescents. En aquesta entrevista al magazín ‘Faves comptades’, Castellví defensa la necessitat d’una regulació ètica i política d’aquestes eines i insisteix que l’acompanyament humà és insubstituïble en la prevenció del suïcidi.
Què et va portar a investigar la relació entre intel·ligència artificial i salut mental?
Ve d’unir dues línies de recerca que treballo: la prevenció del suïcidi i la promoció del benestar. En els darrers anys la intel·ligència artificial ha irromput amb força i és evident que tindrà impacte tant en els riscos com en els beneficis per a la salut mental i en la prevenció del suïcidi.
Quins són els principals riscos de la IA per a la salut mental?
La IA imita el comportament i el llenguatge humà, però no és cap persona, per tant, no té empatia ni emocions encara que les expressi. Això pot portar molta confusió entre usuaris que, instintivament, perceben que interactuen amb una persona.
A més, aquesta tecnologia no està plenament regulada i hi ha hagut casos de persones vulnerables que han vist agreujada la seva salut mental i fins i tot se’ls ha induït al suïcidi. També cal recordar que la IA arrossega els biaixos de la informació disponible a internet.
La població jove és especialment vulnerable?
En general, tothom és vulnerable a exposar-se i a utilitzar malament una eina tan nova com la IA, que com tot té la seva part bona i la seva part dolenta.
Ara bé, els joves i adolescents són nadius digitals i normalitzen moltes situacions que els adults, que tenim més pensament crític, no fem. D’altra banda, cal tenir en compte el seu neurodesenvolupament: el seu cervell, especialment el còrtex prefrontal que regula les emocions i la presa de decisions, encara no està del tot desenvolupat. Això els fa més vulnerables a confondre coses i a gestionar les emocions que els adults.
Quins senyals d’alerta han de tenir en compte les famílies i escoles?
Hem de distingir entre els factors de risc intrínsecs, com per exemple ser jove, dels factors precipitants, aquells fa que fan engegar l’interruptor.
Un senyal d’alerta molt seriós, més enllà dels pensaments automàtics que genera el cervell, és quan algú comença a desitjar realment suïcidar-se. Altres senyals d’alerta inclouen la desesperança, veure el futur molt negre, la sensació de ser una càrrega per als altres, expressar la mort constantment, deixar les seves coses valuoses als altres o fer cartes de comiat. També s’ha d’estar alerta davant de canvis de conducta sobtats, com algú molt deprimit que de cop es mostra excessivament content i sociable; això a vegades indica que ha trobat una “solució” no desitjada: la de suïcidar-se.
La intel·ligència artificial mai hauria de substituir l’acompanyament humà, però molts joves hi busquen suport. Què cal fer?
Les respostes han de ser transversals i interdisciplinàries. No n’hi ha prou amb els professionals de la salut mental. Calen polítiques públiques, prevenció de l’assetjament i el maltractament, i regulació de les eines digitals. Si un xatbot detecta ideació suïcida, no hauria de complaure l’usuari, sinó redirigir-lo a ajuda professional.
Una possible regulació seria enviar una alerta a les autoritats sanitàries si algú expressa ideació suïcida al xatbot?
És una bona solució, però s’ha de considerar el problema de la confidencialitat i la privacitat. En recerca, aquest trencament de la confidencialitat només es produeix quan una persona està en un risc real de suïcidi, ja que la salut de la persona preval. Això s’hauria de valorar en un treball d’experts amb els comitès d’ètica i els ministeris de salut.
Quins usos positius pot tenir la IA en salut mental?
N’estan sortint moltes. Per exemple s’ha publicat un article a la revista ‘Nature’ sobre un ChatGPT de salut, que encara no és públic. S’ha fet amb la base de dades de la població de Dinamarca, 400.000 subjectes, i pot predir malalties utilitzant un munt de dades. Això era impensable.
També s’utilitza en el cribratge del diagnòstic precoç. En la prevenció del suïcidi, hi ha models predictius per identificar persones en risc, tot i que encara no tenen prou validesa. La IA serà benvinguda sempre que estigui supervisada per professionals de la salut.
Com animaries algú que està passant per un mal moment a buscar ajuda?
Que expliqui el que li passa. Només parlar-ne ja és terapèutic. Sovint, quan ho compartim, veiem les coses des d’una altra perspectiva i trobem solucions on abans només veiem un carreró sense sortida. L’escolta activa, sense jutjar, l’acompanyament i l’estima són claus. Com diu l’Associació Americana de Prevenció del Suïcidi, el suïcidi és una solució permanent per a problemes temporals. La majoria d’aquests problemes tenen solució.

