L’autorité sanitaire gérant une douzaine d’hôpitaux majeurs dans la région du Lower Mainland en Colombie-Britannique a discrètement lancé 40 initiatives d’intelligence artificielle – mais les dirigeants refusent de fournir des détails essentiels sur ces programmes qui pourraient affecter des millions de patients.
Lors de la réunion régulière du conseil d’administration de Fraser Health la semaine dernière, je m’attendais aux mises à jour habituelles sur les temps d’attente et les allocations budgétaires. Au lieu de cela, dissimulée dans une diapositive de présentation, se trouvait une révélation surprenante : l’autorité sanitaire dispose déjà de dizaines de programmes d’IA opérationnels ou en développement. Ce moment est passé sans questions des membres du conseil ni explications des dirigeants.
Ce manque de transparence concernant l’implémentation de l’IA dans les soins de santé n’est pas simplement une négligence bureaucratique – il affecte potentiellement les 1,9 million de Britanno-Colombiens dont les soins médicaux relèvent de la juridiction de Fraser Health.
« Le public mérite de savoir ce que font ces systèmes, qui les a construits et comment ils sont évalués, » affirme Dr. Heidi Tworek, experte en gouvernance technologique à l’Université de Colombie-Britannique. « L’IA en santé présente d’énormes avantages potentiels mais aussi des risques sérieux si elle est déployée sans surveillance adéquate. »
Lorsque questionné sur les détails après la réunion, le porte-parole de Fraser Health, Dixon Tam, n’a fourni que de vagues assurances selon lesquelles l’autorité « exploite la technologie pour améliorer la prestation des soins. » Les demandes répétées d’informations de base sur les systèmes d’IA qui prennent déjà des décisions affectant les soins aux patients ont été accueillies par des références à la « technologie propriétaire » et aux « phases précoces de développement. »
Ce vide d’information est particulièrement préoccupant compte tenu des récentes controverses entourant les implémentations d’IA en santé ailleurs. L’année dernière, un algorithme largement utilisé aux États-Unis sous-estimait systématiquement les besoins en soins des patients noirs. Pendant ce temps, un système d’IA diagnostique d’un hôpital britannique aurait mal identifié certaines conditions médicales à un taux deux fois supérieur à celui des radiologues humains.
Le silence de Fraser Health contraste avec les approches adoptées par d’autres réseaux de santé canadiens. Le Réseau universitaire de santé de Toronto maintient un registre public de ses outils d’IA, incluant des descriptions de leurs fonctions, sources de données et processus de validation.
« La transparence ne sert pas seulement à apaiser la curiosité – elle est essentielle pour la responsabilité, » explique Emily Fulton, défenseure de la santé numérique qui a expérimenté à la fois les avantages et les limites de l’IA médicale. « Les patients doivent savoir si un algorithme influence leur diagnostic ou leur plan de traitement. »
Les enjeux sont particulièrement élevés pour les communautés marginalisées. Une recherche publiée dans le Journal de l’Association médicale canadienne en octobre dernier a démontré que les systèmes d’IA en santé peuvent perpétuer involontairement des biais présents dans leurs données d’entraînement. Sans évaluation rigoureuse et contribution diversifiée, ces systèmes risquent d’exacerber les inégalités existantes en matière de santé.
Fraser Health dessert certaines des communautés les plus diverses de la C.-B., notamment d’importantes populations sud-asiatiques, chinoises, philippines et autochtones. L’autorité n’a pas révélé si ses systèmes d’IA ont été testés pour des variations de performance entre différents groupes démographiques.
Sur le plan financier, l’implémentation de 40 programmes d’IA soulève des questions sur l’allocation des ressources dans un système de santé déjà confronté à des pénuries de personnel et des contraintes budgétaires. Les documents publics indiquent que le budget technologique annuel de Fraser Health a augmenté de 18% l’année dernière, mais les dépenses spécifiques liées à l’IA restent non divulguées.
« Nous parlons d’argent public finançant des systèmes qui pourraient fondamentalement changer la façon dont les décisions de soins de santé sont prises, » note Dr. Michael Wolfson, ancien statisticien en chef adjoint à Statistique Canada. « Le public a tout à fait le droit de savoir ce qu’il obtient pour ses impôts. »
Plusieurs employés de Fraser Health, s’exprimant sous couvert d’anonymat par crainte de répercussions professionnelles, ont exprimé des inquiétudes quant à l’implémentation rapide d’outils d’IA sans formation ni consultation adéquate du personnel.
« On nous dit de faire confiance aux résultats de systèmes que nous ne comprenons pas, » a déclaré un clinicien travaillant à l’Hôpital Royal Columbian. « Quand j’ai posé des questions de base sur le fonctionnement du modèle prédictif, on m’a dit que cette information n’était pas disponible pour le personnel de première ligne. »
La Loi sur l’intelligence artificielle et les données proposée par le gouvernement fédéral exigerait des mesures de transparence et d’atténuation des risques pour les systèmes d’IA à fort impact, y compris ceux dans le domaine de la santé. Cependant, la législation reste en cours d’examen, créant un vide réglementaire que les autorités sanitaires naviguent différemment.
Le commissaire à l’information et à la protection de la vie privée de la C.-B., Michael McEvoy, a précédemment mis en garde contre les risques de déploiement de systèmes d’IA sans cadres de gouvernance appropriés. Son bureau a confirmé ne pas avoir été consulté sur les initiatives d’IA de Fraser Health.
Le silence des dirigeants de Fraser Health n’est pas seulement une préoccupation locale – il reflète des questions plus larges sur la façon dont les institutions publiques devraient aborder l’implémentation de l’IA. Alors que les algorithmes influencent de plus en plus les décisions, du diagnostic à l’allocation des ressources, la frontière entre l’innovation technologique et l’autonomie du patient devient de plus en plus floue.
Ce qui reste clair, c’est que les patients méritent plus que de vagues assurances concernant les technologies transformatrices affectant leurs soins. Alors que Fraser Health poursuit son expansion en matière d’IA, l’écart entre la capacité technologique et la responsabilité publique devient de plus en plus difficile à ignorer.
Jusqu’à ce que les dirigeants fournissent des informations substantielles sur ces 40 initiatives d’IA, les patients sont confrontés à une réalité inconfortable : les algorithmes influençant leurs soins de santé restent aussi opaques que le processus qui les a mis en place.