Les grands modèles de langage en santé : enjeux cruciaux de sécurité et de confidentialité au Québec

23 juillet 2025

Les grands modèles de langage (LLM), tels que ChatGPT, Gemini, Claude ou encore DeepSeek, connaissent une popularité croissante, notamment dans le domaine de la santé. Ces modèles offrent une puissance et une efficacité remarquables, facilitant grandement diverses tâches comme la rédaction de comptes rendus médicaux, l’aide à la prise de décision clinique ou encore la synthèse rapide de grandes quantités d’information. Toutefois, leur utilisation n’est pas sans poser des défis majeurs, particulièrement en ce qui concerne la sécurité et la confidentialité des données sensibles des patients.

En effet, ces modèles nécessitent une puissance informatique considérable, souvent assurée par des infrastructures situées à l’extérieur du Québec et du Canada, principalement aux États-Unis ou ailleurs dans le monde. Cette réalité soulève un enjeu important : celui du transfert transfrontalier des données personnelles. Lorsque des informations sensibles, telles que les antécédents médicaux d’un patient, son diagnostic ou d’autres renseignements protégés par la confidentialité, sont soumises à ces systèmes, elles franchissent potentiellement des frontières juridiques et réglementaires. Les données se retrouvent ainsi soumises à des législations étrangères qui peuvent offrir un niveau de protection différent de celui assuré au Québec par des lois telles que la Loi 25 (anciennement projet de loi 64) et la Loi 5, ou encore par les codes de déontologie des professionnels de la santé.

Cette situation peut mettre en difficulté les professionnels de la santé qui, par manque d’information ou méconnaissance technologique, utiliseraient ces outils sans réaliser pleinement les implications juridiques et éthiques de leurs actions. Le risque est réel : une violation potentielle des obligations légales et déontologiques entourant la confidentialité des renseignements personnels des patients.

Ainsi, plusieurs questions importantes doivent impérativement être posées par tout professionnel de santé envisageant l’usage des grands modèles de langage : •Où se situent précisément les serveurs qui hébergent ces modèles ? Sont-ils au Québec, ailleurs au Canada, ou dans un pays étranger ? •Existe-t-il des ententes ou des mécanismes spécifiques mis en place par les entreprises fournissant ces services pour garantir la protection des données personnelles selon les standards québécois et canadiens ? •Les données fournies à ces modèles sont-elles utilisées ou réutilisées pour entraîner les modèles ? Si oui, sous quelles conditions et avec quelles garanties de confidentialité ?

En résumé, bien que les grands modèles de langage constituent des avancées technologiques prometteuses et utiles, leur utilisation dans le secteur de la santé au Québec nécessite une grande vigilance. Une compréhension claire des aspects technologiques et réglementaires liés à l’emplacement des serveurs et à la gestion des données personnelles est essentielle. Il est de la responsabilité de chaque professionnel de santé de s’informer, de poser les bonnes questions et de prendre des mesures adéquates pour assurer la confidentialité et la sécurité des informations sensibles des patients.