Le Collectif MentalTech publie un rapport sur le rôle de l'IA
#news Dernière mise à jour : 07/11/2024 à 10:56e Collectif MentalTech dévoile un rapport inédit et appelle à la création d’un cadre de « numéricovigilance »
Alors que la santé mentale, et particulièrement celle des jeunes adultes, connaît une dégradation alarmante depuis plusieurs années, le Collectif MentalTech, via un groupe de travail coordonné par Alexia Adda, co-fondatrice de la société KLAVA Innovation, et en collaboration avec stane Groupe – publie un rapport inédit mettant en lumière le rôle prometteur, mais non sans danger, de l’intelligence artificielle (IA) dans le domaine de la santé mentale. Recrudescence des troubles de l’humeur, consultations d’urgences en psychiatrie, errance diagnostique, tabou de la santé mentale etc., sont autant d’éléments qui favorisent l’émergence d’outils numériques et d’innovation afin d’améliorer la précision des diagnostics, la personnalisation des traitements et l’accès aux soins.
Toutefois, ces avancées technologiques indispensables soulèvent des interrogations cruciales quant à la protection des données et l’éthique. Le Collectif MentalTech appelle donc à la mise en place d’un cadre de « numéricovigilance » – autour de 10 axes majeurs – pour garantir une utilisation responsable et transparente des innovations, tout en maximisant les bénéfices pour les patients.
Méthodologie du rapport : ce rapport est issu d’un groupe de travail, mené entre septembre 2023 et juin 2024 par 4 membres du Collectif MentalTech (Alexia Adda, co-fondatrice de la société KLAVA Innovation ; Sabine Allouchery, co-fondatrice de LISLUP ; Arnaud Bressot, consultant IA en santé mentale ; Geoffrey Post, psychiatre et consultant en e-santé mentale) selon 4 étapes distinctes :
1 / Collecte de données et d’applications en santé mentale utilisant l’IA
2/ Identification et contact des entreprises françaises et établissements hospitaliers utilisant l’IA pour traiter ces problématiques de santé mentale
3/ Entretiens exploratoires avec près d’une vingtaine d’entreprises et établissements hospitaliers
4/ Analyse des données et élaboration de recommandations
Le rapport final est directement inspiré du modèle de pharmacovigilance, jugé pertinent pour évaluer l’utilisation appropriée de l’IA.
L’intelligence artificielle : un levier de transformation pour la santé mentale
Au cours des dernières années, l’IA a connu des avancées technologiques considérables, accroissant ses capacités et ses applications dans divers domaines. C’est le cas dans le secteur de la santé mentale où elle contribue par exemple à améliorer les diagnostics grâce à une analyse objective des données ou encore à automatiser certaines tâches répétitives pour permettre aux professionnels de santé de se concentrer sur des interventions stratégiques, tout en détectant des tendances difficiles à repérer manuellement. Enfin, elle offre des traitements personnalisés et facilite l’accès aux soins via des outils de suivi à distance.
Le rapport du Collectif MentalTech identifie quatre principaux cadres d’intervention de l’IA en santé mentale aujourd’hui :
● La prédiction de valeur : l’IA est capable de prédire des états psychiques à partir d’une large gamme de données. Par exemple, elle peut détecter des émotions en analysant des vidéos ou des conversations textuelles, permettant ainsi d’intervenir avant même l’apparition de symptômes graves.
● La génération de texte et de dialogue : les modèles de langage, tels que les agents conversationnels, peuvent interagir directement avec les patients, favorisant une relation continue et personnalisée. Ces systèmes d’IA peuvent analyser en temps réel l’état psychologique des individus à travers leurs réponses verbales ou écrites, et fournir un premier niveau d’assistance ou de recommandations
● La création d’activités thérapeutiques : l’IA peut générer des programmes d’activités, comme des jeux sérieux ou des exercices de relaxation, adaptés aux besoins spécifiques des patients. Cela inclut des outils comme la réalité virtuelle pour aider à traiter des phobies ou des troubles de stress post-traumatique en simulant des environnements thérapeutiques contrôlés.
● La recommandation de ressources : l’IA offre également la possibilité de recommander des ressources pertinentes aux patients ou aux professionnels de santé, comme des articles, des vidéos, ou des protocoles de soin, selon les besoins exprimés ou détectés. Par exemple, un patient souffrant d’anxiété peut recevoir des conseils pratiques pour mieux comprendre et gérer ses symptômes.
Ces technologies permettent non seulement d’améliorer la précision des diagnostics et des traitements, mais aussi de créer un système de soins plus inclusif et accessible. L’IA contribue par exemple à combler les problèmes de déserts médicaux et de pénurie de médecins (particulièrement les psychiatres et pédopsychiatres) en rendant les soins psychiques disponibles partout et à tout moment.
L’apparition d’importants défis éthiques à relever
Si les promesses de l’IA sont grandes, le rapport souligne aussi les défis éthiques majeurs que son utilisation soulève dans le domaine de la santé mentale. En particulier, la protection des données sensibles des patients est une préoccupation centrale. Les algorithmes d’IA reposent souvent sur une quantité importante de données personnelles, ce qui augmente le risque de violation de la confidentialité. Dans un domaine aussi intime que la santé mentale, ces risques doivent être strictement contrôlés pour préserver la vie privée des individus.
Le rapport lève également le voile sur le risque de déshumanisation des soins. En déléguant certaines tâches à des machines, comme l’analyse des émotions ou la coordination des interventions thérapeutiques, il est crucial de veiller à ce que les décisions prises par l’IA soient toujours validées par des professionnels de santé. Le danger réside dans la confiance aveugle que pourraient accorder certains praticiens à ces outils au détriment de leur propre expertise.
Enfin, un autre défi majeur est l’explicabilité des algorithmes. Les modèles d’IA, souvent qualifiés de “boîtes noires”, peuvent prendre des décisions complexes sans que leur logique ne soit toujours compréhensible pour les utilisateurs humains, notamment les médecins. Le rapport insiste sur la nécessité de développer des systèmes plus transparents, capables de justifier leurs décisions et d’assurer ainsi une meilleure intégration dans la pratique clinique.
Ces trois défis liés directement à l’utilisation de l’IA doivent faire l’objet d’un encadrement et d’une réglementation, qui tend déjà à se dessiner et s’affiner à l’échelle européenne, mais qui est encore extrêmement mouvante.
RAPPEL : quelle réglementation européenne actuelle autour de l’IA ?
Le cadre réglementaire autour de l’intelligence artificielle en Europe est principalement structuré par l’IA Act, entré en vigueur en mai 2024 après trois ans de négociations. Ce règlement vise à encadrer et promouvoir le développement des systèmes d’IA en se fondant sur quatre axes :
* Respect de la santé publique : intégration des normes de santé existantes, comme le Code de la santé publique et le règlement sur les dispositifs médicaux.
* Réglementation spécifique à l’IA : application de règles dédiées aux systèmes d’IA. * Protection de la vie privée : conformité au RGPD et à la Loi Informatique et Libertés. * Anticipation des risques cyber : conformité à la directive NIS 2 et au Résilience Act.
Les applications d’IA en santé sont souvent considérées comme à haut risque, et les nouvelles exigences de l’IA Act s’ajoutent aux régulations existantes pour les dispositifs médicaux. Les éditeurs d’IA doivent suivre six étapes pour se conformer aux nouvelles normes: définir le cadre d’utilisation, obtenir le consentement des patients pour la collecte de données, évaluer l’impact de l’IA, anticiper les biais, garantir la conformité réglementaire et établir une gouvernance appropriée.
La mise en place d’un cadre de numéricovigilance : l’appel du Collectif MentalTech pour définir des remparts éthiques
Face aux défis soulevés par l’utilisation croissante de l’IA en santé mentale, le collectif MentalTech préconise la mise en place d’un cadre de numéricovigilance, inspiré des principes de pharmacovigilance1. Ce cadre vise notamment à garantir la sécurité des patients en détectant rapidement les dérives potentielles des dispositifs d’IA, comme une mauvaise interprétation des données ou une surgénéralisation des résultats. À terme, cela permettrait de maintenir un équilibre entre l’innovation technologique et le respect des principes éthiques fondamentaux dans la prise en charge de la santé mentale.
Les 10 principes du cadre de numéricovigilance formulés par le Collectif MentalTech :
1. L’élaboration d’une notice d’information : créer un document explicatif pour les utilisateurs, détaillant le fonctionnement de l’IA, ses avantages, ses risques, la population cible et les mesures en cas de dysfonctionnement, avec un langage accessible.
2. La constitution d’un comité scientifique pluridisciplinaire : former un comité composé d’au moins un médecin, un.e expert.e en IA, un.e éthicien.ne et un.e spécialiste du Réglementaire pour superviser le développement et l’évaluation des systèmes d’IA.
3. L’implication des professionnels de santé : engager les professionnels de santé dans le processus de développement de l’IA pour garantir la robustesse et la fiabilité des systèmes.
4. La formation des professionnels de santé : proposer des formations sur l’IA, ses applications en médecine et les principes d’évaluation des systèmes de machine learning.
5. L’installation personnalisée pour les utilisateurs : adapter l’utilisation des outils d’IA aux appréhensions des utilisateurs, en développant des protocoles spécifiques pour chaque cas d’usage.
1 La pharmacovigilance a été définie par arrêté du 10 avril 1980. Elle a pour objet la surveillance des médicaments et la prévention du risque d’effet indésirable résultant de leur utilisation, que ce risque soit potentiel ou avéré. Elle repose sur le signalement des effets indésirables par les professionnels de santé et industriels ; le recueil, l’exploitation et l’évaluation des informations concernant le risque d’effets indésirables, la réalisation d’études ou travaux concernant la sécurité d’emploi des médicaments ; la mise en place d’actions nécessaires à la pharmacovigilance et la prise de mesures correctives ou préventives
6. L’absence de conflits d’intérêts : veiller à ce qu’il n’y ait pas de conflits d’intérêts entre les entités impliquées dans le dépistage et le traitement des troubles.
7. L’adaptation des métriques d’évaluation : ajuster les métriques d’évaluation de l’algorithme selon le cas d’usage et garantir la transparence et l’efficacité des mécanismes de sécurité.
8. Le retracement des décisions de l’IA : documenter le processus décisionnel de l’IA, en
expliquant les résultats générés, tout en prévoyant des exceptions lorsque des bénéfices
médicaux substantiels peuvent être démontrés.
9. La sélection de la population d’entraînement : assurer la représentativité des données
utilisées pour l’entraînement de l’IA, et mener des études complémentaires pour prévenir les
biais algorithmiques si nécessaire.
10. La collecte parcimonieuse des données : suivre les recommandations de la CNIL en ne
collectant que les données indispensables, afin de tester les IA de manière pragmatique et efficace.