Utilisateur:Lamiot/Brouillon/IA art thérapeutique

Une page de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 12 mai 2024 à 00:55 et modifiée en dernier par Lamiot (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

Intégration de la digitalisation puis de l’IA dans la pratique psychiatrique,

Au début des années 2020, plus d’un milliard de personnes dans le monde sont victimes d'un problème de santé mentale[1], et la dépression est devenue la 1ère cause d’incapacité dans le monde, contribuant de plus en plus à la charge mondiale de morbidité (5 % des adultes en souffrent)[2]. Selon l’OMS plus de 300 millions de personnes vivent avec la dépression (augmentation de plus de 18% entre 2005 et 2015)[3]. Et l'accès aux traitements efficaces reste un défi pour certaines personnes isolées et pour les pays à revenu faible ou intermédiaire.

L'OMS s'est dotée d'un Programme d’action pour combler les lacunes en matière de santé mentale (mhGAP), fondé sur des données probantes pour faire face à cette crise mondiale de la santé mentale.

Faut-il développer des IA psychiatre ou psychologues et si oui, devrait être incarnées en avatars particuliers ? Une telle IA devrait idéalement pourvoir comprendre tous les niveaux de communication de son interlocuteur (certaines IA identifient déjà des anomalies dans le ton de la voix couleur et température de la peau, et d'autres microsignaux… qui ne sont pas les mêmes que ceux du psychologue ou psychiatre). Ce type d'IA devrait pouvoir être utilisé dans des contextes aussi variés que ceux de la dépression, l'anxiété, le burn-out, l'addiction, le stress post-traumatique, l'éco-anxiété ou la solastalgie ou encore la bipolarité, la schizophrénie, etc.

Histoire

L'ancêtre des des systèmes experts puis des chatbots dédiés à la psychiatrie, semble avoir été le programme ELIZA en 1966, ancêtre de la vingtaine de « robots thérapeutes » ensuite validés par des études scientifiques en psychiatrie. En 1986, Servan-Schreiber publie un article "Artificial Intelligence and Psychiatry[4] ; en 2020, P.M Doraiswamy et al. publient le résultat d'une enquête mondiale faite auprès de médecins sur « l'intelligence artificielle et l’avenir de la psychiatrie »[5], juste avant l'explosion de l'IAg. On trouve aussi des systèmes de détection de l’état de santé à travers la voix ou la couleur de la peau.

Certains patients peuvent développer des relations thérapeutiques avec des IA, certains se disant même plus à l'aise avec un chatbot qu’avec un psychologue ou psychiatre humain[6].

Dans les années 2020, après la pandémie de Covid-19 qui a vulgarisé l'appel à la télésanté, aux téléconsultations, mais qui a aussi accentuée les troubles mentaux ; les applications pour mobiles et ordinateurs concernant la santé mentale ont connu un certain développement, avec par exemple des applications pour smartphones, la réalité virtuelle, les chatbots et le passage par les médias sociaux[7].

Une psychiatrie numérique est en pleine croissance dans le domaine de la recherche et dans celui des soins en santé mentale[7]

Intelligence Artificielle et psychologie/Psychiatrie

Le thème dit de l’e-psychiatrie est traité par un nombre croissant d’articles scientifiques.

L’IA y est déjà testée, souvent avec succès (et « indépendamment de l’âge, du sexe, de la race ou de l’origine ethnique » dans le cas de l'application Aiberry zn 2024)[8], par exemple :

  • pour aider au diagnostic (l'IAg et le deep learning peuvent reconnaitre la dépression, l’humeur et les émotions en analysant des textes, des réponses écrites ou orales à des questions, des vidéos, des paroles, des gestes ou des image...)[9], en évaluant la gravité des troubles et en posant un pronostic (par exemple pour une dépression)[10]. Dans le cas de la dépression, une étude récente a conclu que « l’évaluation conversationnelle via un modèle d'intelligence artificielle est aussi utile, cliniquement, que les échelles de dépression et elle est préférée par les utilisateurs »[8] (ce modèle d'IA avait été préalablement entraîné sur des entretiens administrés par des humains, et « 90 % de ses prédictions concordaient avec l’auto-évaluation ou avec l’opinion d’experts cliniques lorsque l’IA contredisait l’auto-évaluation. Il n’y avait pas de différence de performance du modèle selon l’âge, le sexe, la race ou l’origine ethnique »)[8].
  • pour repérer la dépression et l'anxiété susceptible d'induire des idées suicidaires chez l'enfant et l'adolescent [9]

• pour estimer le risque de récidive dans les comportements violents ; • pour aider dans la prise de décision en psychiatrie légale ; • pour prévenir le risque suicidaire ; • en psychopathologie

Ceci soulève des défis éthiques et légaux[11],Erreur de référence : Paramètre invalide dans la balise <ref>, dont à propos du droit et la protection des données personnelles, et sur les effets possibles de l’intégration de l’intelligence artificielle sur la pratique psychiatrique, notamment via la télémédecine et la pratique des tests cognitifs.

Risques et Défis

Certains auteurs mettent en garde contre les risques associés à l’utilisation intensive de la technologie dans le domaine de la santé mentale, tout en soulignant la nécessité de renouveler la clinique psychiatrique.

  • Robotique et IA : L’intégration de la robotique humanoïde et de l’intelligence artificielle dans les activités humaines est explorée, avec une réflexion sur les nouvelles valeurs émergentes pour l’homme.
  • Réponses à la COVID-19 : L’utilisation des outils numériques en psychiatrie et santé mentale pendant la pandémie de COVID-19 est analysée, en particulier l’adoption de la téléconsultation.

Ces points clés offrent un aperçu des thèmes principaux abordés dans les articles de la page.

  • Éco-psychiatrie et risque radio-nucléaire : L’article discute des méthodes et outils en éco-psychiatrie pour gérer le risque radio-nucléaire, avec un accent sur le phénotypage numérique et l’intelligence artificielle.
  • IA en santé : Exploration de l’impact de l’intelligence artificielle dans le domaine de la santé, y compris les implications somatiques et psychiatriques.
  • Prédiction par IA : Étude sur l’utilisation de l’intelligence artificielle pour prédire les scores aux questionnaires de santé mentale comme le PHQ-8.
  • Révolution numérique : Discussion sur les enjeux éthiques de l’intelligence artificielle pour les personnes âgées et l’impact des technologies numériques sur leur qualité de vie.

Référence: scholar.google.fr Vous

La "nanopsychiatrie"

  • Définition La “nanopsychiatrie” est un domaine de recherche émergent du domaine de la nanomédecine, explorant le potentiel des nanotechnologies dans le traitement et la compréhension des troubles psychiatriques.
  • Objectifs : elle vise à développer des outils et des méthodes pour mieux comprendre et traiter les maladies mentales.
    En pharmacologie, des nanomédicaments associés à des « nanotransporteurs » pourraient améliorer la biodisponibilité et la pharmacocinétique des médicaments psychotropes, pour des traitements plus efficaces, plus personnalisés (« psychiatrie de précision »)[12] et plus sûrs[13]. Elle pourrait améliorer l'imagerie médicale (in vivo notamment) et l'analyse du Vivant et du métabolome pour mieux comprendre et traiter certains troubles psychiatrique[13].
    Des nanoparticules pourraient aider à modéliser le système nerveux central et mieux comprendre certaines maladies mentales[13].

Ces approches posent encore des questions éthiques et de sécurité complexes et non résolues.

Comparaison entre le raisonnement clinique et le raisonnement computationnel

Une étude récente (2024) a cherché à comparer le raisonnement empirique du clinicien et le fonctionnement du Machine Learning (ML). En se basant sur la littérature disponible, les auteurs posent l'hypothèse que le jugement clinique passe par 4 grandes étapes de raisonnement clinique  : 1) la collecte des variables, 2) le contexte théorique, 3) la construction du modèle, 4) l’utilisation du modèle. L’apprentissage automatique apporte des méthodes nouvelles au clinicien. Elle peut contribuer à la formation des étudiants en psychiatrieErreur de référence : Paramètre invalide dans la balise <ref> et des praticiens et éclairer leurs pratiques, mais les auteurs soulignent l’importance de la subjectivité des ingénieurs en ML et de leurs méthodologies.


Outils numériques et IA en psychologie, psychiatrie et art-thérapie

La révolution numérique a touché le secteur de la santé et le cadre thérapeutique ; en particulier, avec l'aide au diagnostique (ex : phénotypage numérique)[14] suivi informatisé des patients, des rendez vous (doctolib...) et de leur traitement, des objets connectés. Dans les années 2000 et plus encore depuis 2020 environ, ce sont les IA qui s'y développent, tout en restant presque à l'écart du dialogue médecin-patient (hors cas expérimentaux).

Qu'en est-il du sous-domaine de la santé mentale ? Selon John Torous & al. au début des années 2020, on dispose déjà de preuves que l’utilisation de l'IA et d'une psychiatrie digitale dans différents contextes de santé mentale peut aider au diagnostic et à l'intervention précoce, et aider le patient à mieux autogérer son bien-être psychologique. Des recherches encore émergentes plaident pour l'utilisation de l'IA dans la prise en charge clinique des troubles psychiatriques à long terme (dépression majeure, troubles anxieux, bipolaires et psychotiques ; troubles de l'alimentation et de la toxicomanie – soins de santé mentale des enfants et des adolescents[7].


Nous concluons que les nouvelles capacités technologiques des smartphones, de l’intelligence artificielle, des médias sociaux et de la réalité virtuelle modifient déjà les soins de santé mentale de manière imprévue et passionnante, chacune accompagnée d’une base de données probantes précoce mais prometteuse.



Art-thérapie

L'art-thérapie est-il aussi impacté par l’intégration croissante des technologies numériques ? Un article examine comment l’art numérique peut s’intégrer dans l’art-thérapie et propose des possibilités concrètes pour incorporer ces technologies.

  • Défis et Perspectives : Il aborde les défis liés à l’évaluation des outils numériques en santé mentale et envisage des changements dans la pratique de l’art-thérapie en réponse à la révolution numérique
  • Art Thérapeutique et IA (quid de la création artistique en réalité virtuelle ? de la « réalité virtuelle totalement immersive.) » ? Selon une revue d’étude publiée par C. Hadjipanayi et al. en 2023 (Art as therapy in virtual reality: A scoping review)[15], la RV permet de nouvelles opportunités pour l’expression artistique thérapeutique (déjà utilisée pour le traitement de phobies, le travail sur soi et la motivation en psychothérapie et neuroréhabilitation)

Utilisation de la réalité virtuelle (RV)

La RV est à la fois une technologie qui offre divers types de processus immersif, une plateforme (expérimentée par des artistes pour diverses formes d'art numérique virtuel) et un mode de communication, bien documentés par de nombreuses études, mais qui vont encore évoluer avec les "progrès" de l'IAg, notamment du point de vue artistique et créatif. Elle semble pouvoir trouver des applications en psychologie et en psychiatrie.

Avantages de la VR

Permettant une "incarnation par le design"[16], elle bénéficie de progrès technologiques rapides, d’une baisse constante des prix des appareils.

Appréciée des natifs du numérique (pratiquants de jeu vidéo notamment), elle offre des possibilités d’expression artistique novatrices. Elle s'appuie notamment sur la virtualité, le jeu, des effets de téléprésence (qui peuvent momentanément supprimer les contraintes de certains handicaps). Des corps virtuels (avatars) peuvent agir comme des corps de substitution, dans des environnements contrôlés, en permettant, Selon Bertrand et al. (2021) le jeu de rôle et la libre expression de divers comportements et attitudes[17].

Cet effet sur les comportements et les attitudes, dit « effet Proteus »[18] découle des caractéristiques dispositionnelles et symbolique de l’avatar incarné. Il est démontré qu'il peut produire des changements cognitifs importants, par exemple via l’incarnation dans un corps d'enfant (amenant les utilisateurs adultes de RV à surestimer la taille des objets virtuels)[19], l’incarnation virtuelle dans un corps « racialisé » différent entraînant de l'empathie suivie de changements dans les biais raciaux et « attitudes raciales » implicites, comme l'ont montré Maister et al. en 2015 [20] et Banakou et al. en 2020 [21], ou incarnant une femme empathique stéréotypée incitant à l’empathie (cf. Hadjipanayi et Michael-Grigoriou, 2022)[22]. L’incarnation d’avatars dans une « RV totalement immersive » peut également conduire à l’acquisition de compétences générales (ex : l’incarnation en avatar de Sigmund Freud a aidé les utilisateurs de RV à offrir des auto-conseils plus judicieux qu'en étant incarné en avatar d’un client de thérapie[23],[24].

Inconvénients :

Parallèlement à ces atouts, elle présente aussi des défis[15] avec :

  • des limitations (ex : le patient doit comprendre la langue et les questions du chatBot, avoir accès à un smartphone ou à un ordinateur avec Internet à haut débit) et être à l'aide avec l'informatique et accepter de parler avec une IA)
  • peu de ressources (littéracie notamment) dédiées ;
  • une sensorialité incomplète (manque de tactilité, d’odeurs, perturbation du sens de l’équilibre..) dans les environnements virtuels.
  • des préoccupations interdisciplinaires, dont sur certains effets de la VR sur la psyché ;
  • des aspects de l’inclusivité qui doivent être considérés par le thérapeute, les chercheurs et les développeurs.

https://www.frontiersin.org/articles/10.3389/frvir.2023.1065863/full

  1. Jürgen Rehm et Kevin D. Shield, « Global Burden of Disease and the Impact of Mental and Addictive Disorders », Current Psychiatry Reports, vol. 21, no 2,‎ (ISSN 1523-3812 et 1535-1645, DOI 10.1007/s11920-019-0997-0, lire en ligne, consulté le )
  2. « Principaux repères sur la dépression », sur www.who.int (consulté le )
  3. « Dépression: parlons-en », sur www.who.int (consulté le )
  4. (en) David Servan-Schreiber, « Artificial Intelligence and Psychiatry: », The Journal of Nervous and Mental Disease, vol. 174, no 4,‎ , p. 191–202 (ISSN 0022-3018, DOI 10.1097/00005053-198604000-00001, lire en ligne, consulté le )
  5. (en) P. Murali Doraiswamy, Charlotte Blease et Kaylee Bodner, « Artificial intelligence and the future of psychiatry: Insights from a global physician survey », Artificial Intelligence in Medicine, vol. 102,‎ , p. 101753 (DOI 10.1016/j.artmed.2019.101753, lire en ligne, consulté le )
  6. (en-US) Christophe Gauld et Vincent Martin, « Une IA remplacera-t-elle bientôt votre psychiatre ? », sur The Conversation, (consulté le )
  7. a b et c (en) John Torous, Sandra Bucci, Imogen H. Bell et Lars V. Kessing, « The growing field of digital psychiatry: current evidence and the future of apps, social media, chatbots, and virtual reality », World Psychiatry, vol. 20, no 3,‎ , p. 318–335 (ISSN 1723-8617 et 2051-5545, PMID 34505369, PMCID PMC8429349, DOI 10.1002/wps.20883, lire en ligne, consulté le )
  8. a b et c (en) Rachel L. Weisenburger, Michael C. Mullarkey, Jocelyn Labrada et Daniel Labrousse, « Conversational assessment using artificial intelligence is as clinically useful as depression scales and preferred by users », Journal of Affective Disorders, vol. 351,‎ , p. 489–498 (DOI 10.1016/j.jad.2024.01.212, lire en ligne, consulté le )
  9. a et b (en) Prabal Datta Barua, Jahmunah Vicnesh, Oh Shu Lih et Elizabeth Emma Palmer, « Artificial intelligence assisted tools for the detection of anxiety and depression leading to suicidal ideation in adolescents: a review », Cognitive Neurodynamics, vol. 18, no 1,‎ , p. 1–22 (ISSN 1871-4099, PMID 36467993, PMCID PMC9684805, DOI 10.1007/s11571-022-09904-0, lire en ligne, consulté le )
  10. Kimia Kazemzadeh, « The Role of Artificial Intelligence in Depression Diagnosis, Prognosis, and Treatment: Gaps and Future Directions », Neurology Letters, vol. 3, no 1,‎ , p. 20–21 (ISSN 2251-9777, DOI 10.61186/nl.3.1.20, lire en ligne, consulté le )
  11. (en) Georg Starke, Eva De Clercq, Stefan Borgwardt et Bernice Simone Elger, « Computing schizophrenia: ethical challenges for machine learning in psychiatry », Psychological Medicine, vol. 51, no 15,‎ , p. 2515–2521 (ISSN 0033-2917 et 1469-8978, DOI 10.1017/S0033291720001683, lire en ligne, consulté le )
  12. « La révolution numérique en psychiatrie : un tournant vers une médecine de précision », sur Fondation FondaMental (consulté le )
  13. a b et c Guillaume Fond, Stéphanie Miot. [Nanopsychiatry. The potential role of nanotechnologies in the future of psychiatry. A systematic review.]. L’Encéphale, 2013, 39 (4), pp.252-257. ff10.1016/j.encep.2013.02.002ff. ffinserm-00813605f
  14. (en) Thomas R. Insel, « Digital phenotyping: a global tool for psychiatry », World Psychiatry, vol. 17, no 3,‎ , p. 276–277 (ISSN 1723-8617 et 2051-5545, PMID 30192103, PMCID PMC6127813, DOI 10.1002/wps.20550, lire en ligne, consulté le )
  15. a et b Christos Hadjipanayi, Domna Banakou et Despina Michael-Grigoriou, « Art as therapy in virtual reality: A scoping review », Frontiers in Virtual Reality, vol. 4,‎ (ISSN 2673-4192, DOI 10.3389/frvir.2023.1065863, lire en ligne, consulté le )
  16. Pissini J (2020). Embodied by design: The presence of creativity, art-making, and self in virtual reality. PhD thesis. Université de Columbus (Ohio)
  17. Stéphanie Bertrand, Martha Vassiliadi, Paul Zikas et Efstratios Geronikolakis, « From Readership to Usership: Communicating Heritage Digitally Through Presence, Embodiment and Aesthetic Experience », Frontiers in Communication, vol. 6,‎ (ISSN 2297-900X, DOI 10.3389/fcomm.2021.676446, lire en ligne, consulté le )
  18. (en) Nick Yee et Jeremy Bailenson, « The Proteus Effect: The Effect of Transformed Self-Representation on Behavior », Human Communication Research, vol. 33, no 3,‎ , p. 271–290 (ISSN 0360-3989 et 1468-2958, DOI 10.1111/j.1468-2958.2007.00299.x, lire en ligne, consulté le )
  19. (en) Domna Banakou, Raphaela Groten et Mel Slater, « Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes », Proceedings of the National Academy of Sciences, vol. 110, no 31,‎ , p. 12846–12851 (ISSN 0027-8424 et 1091-6490, PMID 23858436, PMCID PMC3732927, DOI 10.1073/pnas.1306779110, lire en ligne, consulté le )
  20. (en) Lara Maister, Mel Slater, Maria V. Sanchez-Vives et Manos Tsakiris, « Changing bodies changes minds: owning another body affects social cognition », Trends in Cognitive Sciences, vol. 19, no 1,‎ , p. 6–12 (DOI 10.1016/j.tics.2014.11.001, lire en ligne, consulté le )
  21. (en) Domna Banakou, Alejandro Beacco, Solène Neyret et Marta Blasco-Oliver, « Virtual body ownership and its consequences for implicit racial bias are dependent on social context », Royal Society Open Science, vol. 7, no 12,‎ , p. 201848 (ISSN 2054-5703, PMID 33489296, PMCID PMC7813259, DOI 10.1098/rsos.201848, lire en ligne, consulté le )
  22. (en) Christos Hadjipanayi et Despina Michael-Grigoriou, « Arousing a wide range of emotions within educational virtual reality simulation about major depressive disorder affects knowledge retention », Virtual Reality, vol. 26, no 1,‎ , p. 343–359 (ISSN 1359-4338 et 1434-9957, DOI 10.1007/s10055-021-00568-5, lire en ligne, consulté le )
  23. (en) Sofia Adelaide Osimo, Rodrigo Pizarro, Bernhard Spanlang et Mel Slater, « Conversations between self and self as Sigmund Freud—A virtual body ownership paradigm for self counselling », Scientific Reports, vol. 5, no 1,‎ (ISSN 2045-2322, PMID 26354311, PMCID PMC4564809, DOI 10.1038/srep13899, lire en ligne, consulté le )
  24. (en) Mel Slater, Solène Neyret, Tania Johnston et Guillermo Iruretagoyena, « An experimental study of a virtual reality counselling paradigm using embodied self-dialogue », Scientific Reports, vol. 9, no 1,‎ (ISSN 2045-2322, PMID 31358846, PMCID PMC6662659, DOI 10.1038/s41598-019-46877-3, lire en ligne, consulté le )