Hub santé - politique, organisations et droit

Que pense l’Organisation mondiale de la santé de la gouvernance de l’IA ?

Par Maelenn Corfmat, Marie Zumstein et Catherine Régis [1]

Le 28 juin dernier, l’Organisation mondiale de la Santé (OMS) annonçait la publication du rapport « L’éthique et la gouvernance de l’intelligence artificielle pour la santé » / Ethics and governance of artificial intelligence for health. Dès l’avant-propos, la scientifique en chef de l’OMS, Dr. Soumya Swaminathan, précise qu’il s’inscrit dans le 13e programme de travail de l’OMS : « les orientations normatives de l’OMS [seront] éclairées par les développements à la frontière des nouvelles disciplines scientifiques telles que … l’intelligence artificielle » (traduit de l’anglais), ces dernières étant porteuses intrinsèques de la dichotomie
entre opportunités pour la santé mondiale et risques techniques, juridiques, sécuritaires et éthiques. Les
premiers mots introductifs rappellent également qu’en favorisant le déploiement sécuritaire des nouvelles
technologies, ce document poursuit la conduite des Objectifs de développement durable (ODD) des Nations Unies.

S’appuyant sur l’expertise de ses nombreux co-auteurs et collaborateurs ainsi que sur deux années de travail, ce document d’orientation propose d’abord une analyse des plus grands défis et opportunités que
soulève l’utilisation de l’intelligence artificielle (IA) pour la santé. S’adressant non seulement aux ministères de la santé, mais aussi à toutes les entités publiques ou privées qui réglementent, conçoivent, financent ou utilisent les technologies d’IA pour la santé, il soumet ensuite de nombreuses recommandations pour guider tous les stades du développement et déploiement de l’IA.

En neuf sections, le rapport parvient ainsi à dresser un large panorama explicatif des enjeux gravitant autour des technologies d’IA dans le soin clinique, le diagnostic, le dépistage, la gestion du système de soin, la recherche médicale et la santé publique. Au-delà des questionnements communs à l’IA, il aborde des préoccupations spécifiques à la santé humaine, interrogeant tantôt l’objectif de couverture santé universelle, tantôt les droits humains, les régimes juridiques spécifiques et les normes éthiques dans ce secteur. En outre, les dernières sections consacrées aux suggestions et recommandations s’inscrivent dans une vision pragmatique et s’accompagnent de conseils concrets de mise en œuvre. Correspondant bien là au cœur de l’activité de l’OMS, ce document apparaît d’autant plus important qu’un nombre croissant d’instances ont déjà publié ou instauré des groupes de travail sur le sujet. Aussi et surtout, le rapport présente les six principes éthiques directeurs convenus par consensus par le groupe d’experts mandaté par l’OMS. Ils constituent sans doute sa plus grande valeur ajoutée, en réponse à la fragmentation de l’environnement normatif de l’IA ainsi qu’à l’absence de consensus entre les pays sur des orientations éthiques harmonisées en santé au niveau mondial, révélées au cours de l’étude.

Les lignes qui vont suivre s’attèlent  à distinguer deux points forts de ce document, qui nous ont semblé particulièrement intéressants compte tenu des questionnements qui taraudent les nombreux acteurs gravitant autour de l’IA et de la santé dans le monde. Nous aurons l’occasion d’aborder d’autres points de ce rapport dans une publication ultérieure.

Premier point fort : L’insertion des 6 principes éthiques directeurs dans le paysage normatif de l’IA en
santé

À la différence d’autres rapports déjà élaborés au sujet de l’encadrement normatif de l’IA (par exemple voir ceux énumérés ci-dessous), celui-ci y mêle une analyse descriptive et prescriptive relevant à la fois du domaine de l’éthique et du droit.

Suscitant la curiosité concernant le cadre de gouvernance recommandé en dernière partie, le rapport livre un premier aperçu global des règles et principes juridiques intégrés aux ordres juridiques nationaux et applicables à l’IA en santé. Il s’attache par exemple à distinguer ceux concernant les droits humains (section 4) ou ceux encadrant les données (4.2) de santé (4.3). Les « lois et politiques en matière de bioéthique » et les « aspects réglementaires » concernant la sécurité, l’efficacité et l’usage approprié des technologies de santé font aussi l’objet de sections particulières (4 et 8). Si l’essence de ces exposés ne consiste qu’en une représentation préalable et générale, on peut néanmoins regretter qu’ils se résument souvent à quelques raccourcis ou à de brèves illustrations. Le Health Insurance Portability and Accountability Act et le Règlement général européen sur la protection des données sont par exemple cités comme ensembles de règles de protection sans autre précision sur leurs divergences fondamentales dans la conception même de la protection qu’ils proposent.

En parallèle, c’est une véritable discussion éthique qui se joue à l’intérieur du document : il contient ce que la scientifique en chef qualifie de « premiers principes consensuels dans ce domaine ». La pierre angulaire du rapport semblerait donc consister dans la présentation de ces six principes éthiques devant guider l’entièreté du cycle de vie des technologies d’IA pour la santé. Le groupe d’experts interdisciplinaire mandaté par l’OMS a ainsi convenu qu’il était primordial : 1) de protéger l’autonomie ; 2) de promouvoir le bien-être humain, la sécurité et l’intérêt public ; 3) d’assurer la transparence, l’explicabilité et l’intelligibilité ; 4) d’encourager la responsabilité et la reddition de compte ; 5) d’assurer l’inclusivité et l’équité ; 6) de
promouvoir l’IA réactive et durable. Il est utile de rappeler que, s’ils sont les « premiers » s’adressant au domaine de la santé à l’échelle globale, ils ne sont évidemment pas les pionniers en matière d’éthique de l’IA en général (voir par exemple : les premiers standards éthiques internationaux en IA et les travaux des agences de l’ONU). En outre, il apparaît assez vite que leur contenu reprend sensiblement les orientations d’autres organisations internationales, comme celles de l’UNESCO, de l’OCDE, de la Commission européenne, du Conseil de l’Europe ou encore celles de plusieurs gouvernements nationaux (Chine, Singapour, Japon, États-Unis…) non spécifiques au domaine de la santé. Ils ne dépeignent d’ailleurs pas non plus des idées davantage audacieuses face à d’autres initiatives comme la Déclaration de Montréal qui s’appuie sur une combinaison de participation citoyenne et d’experts.  

Le groupe de travail de l’OMS s’est appuyé sur une étude ayant analysé et cartographié une grande partie des cadres éthiques existants en matière d’IA. Celle-ci constate une convergence sur les principes tels que la transparence, la justice, l’équité, la non-malfaisance et la responsabilité, mais relève une sous représentation de principes tels que la vie privée, la solidarité, la dignité humaine et la durabilité. Réactif, le groupe d’experts a su les intégrer et justifier de leur opportunité en santé. Ainsi, si certains principes éthiques ne s’y retrouvent pas explicitement, à l’instar de la protection de la vie privée (Commission européenne), de l’éducation (UNESCO), ou de la prudence (Déclaration de Montréal), on retrace à chaque fois la substance de ces idées à l’intérieur des éclaircissements proposés sous chacun des six principes. Un poil moins originale qu’elle n’en a l’air, une telle initiative a tout de même le mérite d’avoir été convenue par consensus, de proposer une application au domaine spécifique et complexe de la santé, et de prendre en compte les lignes directrices déjà existantes en matière d’IA. La régulation au moyen de déclarations d’éthique y gagnerait presque en légitimité, malgré les réserves inhérentes qui restent, avec raison, quant à ce type de recommandations non contraignantes en IA (considérant notamment la nécessité d’encadrer adéquatement les intérêts commerciaux de taille dans le secteur).

Si l’élaboration de ces principes est signifiante, il nous semble qu’en matière d’éthique, l’intérêt du document réside surtout dans l’explication plus approfondie des principaux défis auxquels est confrontée l’utilisation de l’IA en santé. En une trentaine de pages qui fondent les développements suivants, les rédacteurs parviennent à concentrer les questionnements spécifiques à la fracture numérique, la qualité des données d’apprentissage, les biais cliniques ou l’exacerbation des questions de sécurité des produits de santé et des systèmes informatiques des établissements. Ils sont aussi relatifs à l’insuffisance d’options de traitement après un diagnostic, à l’emploi des professionnels soignants, aux pratiques de certains grands groupes nouvellement alléchés par le marché de la santé, ou encore à l’impact sur le changement climatique qui, lui-même, a des effets dévastateurs sur la santé humaine. A l’appui, de nombreux exemples et chiffres clés sont communiqués, livrant ainsi un aperçu parlant et justifiant préalablement la nécessité des éléments recommandés.

Deuxième point fort : La prise en compte de la place des pays à faible et moyen revenu dans le déploiement de l’IA en santé

Une préoccupation récente et récurrente liée à l’utilisation de l’IA en santé a trait aux différences d’accès à cette technologie entre les différents pays (pays « à haut revenu » (PHR) vs. pays « à revenu intermédiaire ou faible » (PRI-PFR). Ceci encore plus particulièrement lorsque l’on s’intéresse à la manière dont l’IA pourrait être utilisée pour parvenir à l’accomplissement de l’ODD#3, « bonne santé et bien-être », dont les cibles et objectifs sont à atteindre d’ici 2030. Nombreux sont celles et ceux qui relèvent que l’utilisation de l’IA en santé pourrait participer à réduire l’écart à l’accès aux services de santé entre les pays, bien qu’une attention particulière doive être portée à la création des technologies d’IA afin qu’elles reflètent adéquatement les diversités socio-économiques et celles des systèmes de soins de santé. Ainsi, il est particulièrement satisfaisant de constater que le document s’attèle à alerter la communauté internationale sur l’importance de prendre en compte les différences de capacités entre les pays.

Le document de l’OMS attire notre attention sur trois points principaux lorsque l’on envisage de
mettre en œuvre l’IA en santé dans les PRI-PFR :

Les données : les systèmes d’IA sont majoritairement basés sur des données d’apprentissage récoltées dans les PHR. Or, ces données n’ont pas forcément la même valeur pour des PRI-PFR. Ainsi, le groupe de travail de l’OMS relève que l’introduction d’une technologie d’IA dans un PFR peut avoir un impact différent sur les soins de santé de l’introduction de la même technologie dans un environnement à haut revenu, l’interprétation des données pouvant différer d’un endroit à l’autre.

Les infrastructures : le déploiement et l’utilisation de l’IA dépendent également largement des capacités
infrastructurelles mais aussi humaines (travailleurs de la santé) du lieu dans lequel on se trouve. En effet,
l’IA nécessite d’importants investissements et infrastructures (notamment digitales) dont ne disposent pas forcément tous les pays, ce qui va venir limiter l’utilisation de ces technologies. Or, ces différences d’accès pourraient influer négativement sur les diagnostics voire engendrer de la marginalisation ou de la
discrimination envers certains individus ou groupes de la population (p.106).

Le degré de régulation et de protection : le document de l’OMS relève enfin que la bonne mise en œuvre
de l’IA en santé va aussi dépendre de l’état de la réglementation des pays, particulièrement en ce qui concerne les régimes de responsabilité qui diffèrent d’un ordre juridique à l’autre. Par exemple, il est indiqué que les PIR-PFR ont parfois un régime de responsabilité très limité ou incertain en ce qui concerne la responsabilité en cas de préjudice dû aux médicaments, aux vaccins ou aux dispositifs utilisés. 

Ces régimes limités se répercuteront nécessairement sur les cas de dommages causés par une technologie d’IA : un patient lésé ne pourra pas, ou difficilement, obtenir une compensation pour le préjudice causé par un défaut ou une mauvaise utilisation de l’IA. Le groupe d’experts de l’OMS énumère alors une série de recommandations à destination des PIR-PFR, liée à la mise en place d’un encadrement juridique axé sur la responsabilité en cas de dommage
et préjudice (p.68).

Néanmoins, il est regrettable qu’il n’y ait pas davantage de recommandations axées sur le décalage entre les PIR-PFR et les PHR. Ainsi, le document reste muet quant à la manière d’améliorer l’accès et le développement des infrastructures (universelles, abordables et accessibles suivant l’ODD#9, « bâtir une infrastructure résiliente, promouvoir une industrialisation durable qui profite à tous et encourager l’innovation »). De la même manière, outre une référence rapide dans une recommandation portant sur la surveillance et la souveraineté des données, notamment « des communautés autochtones et autres groupes marginalisés » (p.90), le groupe de travail de l’OMS n’en émet aucune autre concernant la diversité et à l’inégalité des données afin de réduire la « domination technologique » des PHR. Ceci peut paraître surprenant dans la mesure où il s’agit de préoccupations pourtant soulevées à de nombreuses reprises tout au long du document. Le manque de représentativité et de diversité des pays à faible ou moyen revenu par les données (empreintes du poids des valeurs, de morale et de jugement) pourrait pourtant, comme déjà relevé, s’avérer dommageable pour l’accès aux services de santé via l’IA pour ces derniers. L’IA étant une technologie à double tranchant, elle risquerait alors, à l’inverse de ce qui est espéré et de ce qui constitue la mission de l’OMS, d’aggraver le décalage de l’accès aux soins entre les pays plutôt que de le réduire.

Cependant, il est déjà très prometteur pour l’avenir de l’IA en santé que ce document insiste autant sur
les différences de capacités financières (infrastructures) et culturelles (données) en distinguant les PHR des PIR-PFR. La mise en lumière des inégalités permet de les prendre en compte dans la mise en œuvre et le développement de l’IA en fonction du pays dans lequel on se trouve.

Conclusion

En somme, ce rapport de l’OMS offre un positionnement préliminaire intéressant de l’Organisation quant au pacte qui devrait exister à l’échelle internationale en matière d’IA pour le secteur de la santé. Ce positionnement est d’autant plus important que la santé est considérée comme l’un des secteurs qui verra le plus de développements et d’investissements en matière d’IA dans les années à venir. Qui plus est,
considérant que plusieurs enjeux dans ce domaine dépassent largement l’échelle locale (transfert et protection des données, gestion des pandémies, encapacitation des patients, gestion des ressources humaines en santé, etc.), l’élaboration d’une réflexion et de recommandations à l’échelle internationale participe à une démarche essentielle de coordination des efforts mondiaux où l’OMS peut et doit jouer un rôle crucial. La prochaine étape pour l’OMS pourrait être celle de poursuivre cette réflexion sur le plan normatif pour y amener une dimension contraignante en vertu des larges pouvoirs normatifs que lui confère sa Constitution. Ce processus qui doit mener à l’adhésion des États est long et ardu… L’OMS doit donc s’y pencher dès maintenant et envisager la suite de ce rapport.

[1] : Maelenn Corfmat et Marie Zumstein sont doctorantes en droit à l’Université de Montréal et chercheuses étudiantes à la Chaire de recherche du Canada sur la culture collaborative en droit et politiques de la santé. Catherine Régis est professeure titulaire à la Faculté de droit de l’Université de Montréal, titulaire de la Chaire de recherche du Canada sur la culture collaborative en droit et politiques de la santé, chercheuse au Mila (Institut d’intelligence artificielle du Québec), à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA) et au Centre de recherche en droit public (CRDP).