Vudailleurs.com

S.A.R.R.A., l’intelligence artificielle en santé et la reconnaissance du principe de Garantie Humaine Par David Gruson

La sélection de « S.A.R.R.A. » pour le prix vudailleurs.com du meilleur livre sur l’IA amène à revenir sur cette transformation majeure de notre système de santé. La diffusion d’une vague d’innovations sur l’intelligence artificielle en santé modifie, en effet, très profondément les pratiques médicales. Elle soulève également des enjeux majeurs de régulation des enjeux éthiques associés. La crise COVID19 a montré tout à la fois l’ampleur de ces opportunités et de ces risques. Une voie de passage pragmatique doit donc être aménagée pour permettre la mise en œuvre pratique de ces innovations au service des patients. L’objectif est donc celui d’une régulation positive pour préserver les valeurs essentielles de notre système de santé et plus particulièrement les fondements d’une médecine personnalisée. C’est le sens de la Garantie Humaine de l’IA, principe reconnu par l’article 17 de la loi de bioéthique et de l’article 14 du projet de règlement européen sur l’IA.

1. L’intelligence artificielle en santé : perspectives d’avancées et besoin de régulation positive

David Gruson
Directeur du Programme Santé Groupe Jouve
Fondateur Ethik-IA
Membre de la Chaire Santé Science Po Paris


Le déploiement de l’intelligence artificielle est source d’améliorations potentielles littéralement extraordinaires pour notre santé. Ce saut qualitatif possible pour notre système de soins s’accompagne d’un effet de levier potentiel majeur pour la croissance de la France. Il induit également des transformations possiblement radicales des métiers du champ sanitaire et médico-social. Nous vivons actuellement une véritable révolution des cas d’usage de recours à l’intelligence artificielle. La technique la plus mature est, de loin, la reconnaissance d’image par apprentissage machine. Elle trouve d’ores et déjà à s’appliquer largement en radiologie, dermatologie, ophtalmologie ou encore en oncologie. Dans toutes ces disciplines, les performances de diagnostic des algorithmes dépassent désormais fréquemment celles de l’Humain.

Dans La Machine, le Médecin et Moi[1], je montrais à quel point notre système de santé était en train de connaître une transformation profonde sous l’effet de l’émergence progressive d’un véritable data management en santé. La collecte massive de données – ce que l’on a pris l’habitude d’appeler un peu vite « big data »– constitue une condition sine qua non au déploiement de ce data management et de l’intelligence artificielle. Cette dernière se fonde, en effet, sur des algorithmes qui nécessitent

la mobilisation de données fiables et en nombre suffisant pour dégager des calculs robustes de probabilités permettant d’appuyer les orientations de l’intelligence artificielle.

Cette donnée-requérance ne constitue pas un principe nouveau : les datas constituent la matière première, la base de l’alimentation de tout programme informatique. Le déploiement actuel du pilotage par les données et de l’IA sur un large spectre fait simplement changer l’enjeu d’échelle.

Une « course aux données de santé » s’est donc engagée au niveau mondial avec les signaux de plus en plus visibles d’une compétition exacerbée. Pour pouvoir approvisionner les algorithmes, ces données doivent être médicalement et techniquement fiables mais également en volume suffisant pour permettre à l’IA de s’appuyer sur des régularités statistiques robustes. Cette compétition internationale pour les données de santé est naturellement marquée par un facteur temps. Le premier fabricant de solutions de data management et d’IA qui sera parvenu à élaborer une solution en santé opérationnelle alimentée par une masse de données fiables et en nombre suffisant aura acquis un avantage sans doute décisif sur ses concurrents. Avec naturellement des perspectives financières colossales à la clé.

Pour autant, cette diffusion rapide de l’intelligence artificielle en santé est aussi génératrice d’un besoin de régulation éthique. La crise sanitaire que nous traversons l’a, à nouveau, fortement montré. Dans la réponse au COVID19, certains pays – en particulier en Asie – ont eu plus largement recours que d’autres à l’IA, au pilotage par les données et aux technologies numériques. Des dispositifs de reconnaissance faciale ainsi que l’utilisation de thermomètres connectés ont permis la surveillance de la température et l’identification de personnes à risque d’être positive au COVID19. Les données de géolocalisation ont été largement utilisées pour connaitre les flux des personnes et bloquer certains déplacements. Des robots ont été introduits dans certains hôpitaux, pour accompagner voire renforcer les équipes médicales, assurer une présence auprès des patients et répondre à leurs besoins, décontaminer certains services… Le Data Tracking a été mis en œuvre sans restriction et un choix d’efficacité a été fait au détriment de la protection des données de santé.

Mais au-delà des recours à ces dispositifs fortement visibles et dont les usages ont été pour certains contestables au regard des principes de nos sociétés démocratiques, le recours à l’intelligence artificielle en temps de crise épidémique porte aussi la promesse d’accélération de certains procédés relevant aussi bien du diagnostic que de la recherche. Des méthodes diagnostiques reposant sur la reconnaissance d’images par apprentissage machine permettraient un diagnostic beaucoup plus rapide et efficace sur la base de clichés de tomodensitométrie. L’IA induit aussi un potentiel d’apport majeur concernant l’identification d’éventuels traitements efficaces.

Les options radicales, choisies par certains pays, pour répondre au risque collectif au détriment de la protection des libertés individuelles, semblent très éloignés des principes fondateurs du règlement général sur la protection des données (RGPD) en Europe et, plus largement, des valeurs essentielles de notre médecine personnalisée. Cette gestion de crise illustre l’importance et l’intérêt de la Garantie Humaine de l’IA, consistant dans la mise en place d’une supervision humaine lors du recours à un algorithme d’intelligence artificielle.

2. La Garantie Humaine de l’intelligence artificielle en santé : clé essentielle d’une régulation éthique positive

Les principes au fondement de notre médecine personnalisée en France et en Europe peuvent entrer en confrontation avec un certain nombre de principes éthiques. Dans les deux tomes de la fiction d’anticipation S.A.R.R.A.[1], je décris la dystopie d’une Europe dominée par les géants numériques américains et chinois – PanGoLink et FU-TECH – et qui n’a d’autre recours, face à une pandémie d’Ebola, que de jeter aux oubliettes tous les principes qui l’avaient amenée à établir le règlement général sur la protection des données. Je voudrais exprimer ici ma profonde reconnaissance au jury et à l’équipe du prix vudailleurs.com pour la sélection de ces ouvrages.

L’avis 129 du Comité consultatif national d’éthique[2], émis dans le cadre de la préparation de la révision bioéthique, a identifié ces risques éthiques et notamment ceux d’une délégation pratique de la décision du médecin et du consentement du patient à l’IA. Le principal danger est donc celui de la perte d’un recul critique des soignants et des soignés avec, en arrière-plan, une mécanique algorithmique fondée sur la loi du plus grand nombre, cette dernière pouvant aller à l’encontre d’intérêts d’individus ou de groupes d’individus.

Pour éviter une perspective aussi sinistre, le principe de Garantie Humaine de l’IA est issu d’un mouvement de propositions académiques, citoyennes mais aussi de professionnels de santé. La reconnaissance de ce principe dans l’article 17 de la nouvelle loi bioéthique promulguée le 2 août dernier et sa concrétisation était le sens même du projet porté depuis le départ par Ethik-IA. Ce texte comprend deux normes nouvelles : l’information du patient sur le recours à l’IA dans sa prise en charge, d’une part, et le principe de Garantie Humaine de l’IA lui-même d’autre part.

Le concept de « Garantie Humaine » peut paraître abstrait mais il est, en réalité, très concret. Dans le cas de l’IA, l’idée est d’appliquer les principes de régulation de l’intelligence artificielle en amont et en aval de l’algorithme lui-même en établissant des points de supervision humaine. Non pas à chaque étape, sinon l’innovation serait bloquée. Mais sur des points critiques identifiés dans un dialogue partagé entre les professionnels, les patients et les concepteurs d’innovation. La supervision peut s’exercer avec le déploiement de « collèges de garantie humaine » associant médecins, professionnels paramédicaux et représentants des usagers. Leur vocation serait d’assurer a posteriori une révision de dossiers médicaux pour porter un regard humain sur les options thérapeutiques conseillées ou prises par l’algorithme. L’objectif consiste à s’assurer « au fil de l’eau » que l’algorithme reste sur un développement de Machine Learning à la fois efficace médicalement et responsable éthiquement. Les dossiers à auditer pourraient être définis à partir d’événements indésirables constatés, de critères prédéterminés ou d’une sélection aléatoire. Nous avons tenu, avec Ethik-IA, les premières sessions pilotes de collèges

de garantie humaine sous l’égide de l’Union française pour la santé bucco-dentaire (UFSBD) dans le cas d’une solution d’IA appliquée dans le domaine des soins bucco-dentaires (protocole innovant de l’article 51 de la loi de financement de la Sécurité sociale).

Il est aussi à relever que le principe de garantie humaine a reçu, en 2020 et 2021, des concrétisations dans des cadres très significatifs :

  • D’une part, la Garantie humaine a été incorporée dans la grille d’auto-évaluation des dispositifs médicaux intégrant de l’IA publiée par la Haute Autorité de Santé au mois d’octobre dernier ;
  • D’autre part, le principe de garantie humaine a été repris dans le cadre de la task-force dédiée par l’OMS qui a émis, au mois de juin dernier, une recommandation générale sur la régulation de l’IA en santé ;
  • Enfin, le principe a été repris dans le Livre Blanc sur l’IA publié par la Commission européenne le 19 février 2020. L’article 14 du projet de règlement européen qui en est issu reprend le principe de Garantie Humaine et en fait un standard juridique de régulation pour tous les domaines d’application de l’IA et non plus seulement en santé.

***

Ces reconnaissances successives et de plus en plus larges du principe de Garantie Humaine de l’intelligence artificielle représentent autant d’avancées considérables dans le sens d’une logique de régulation positive du numérique et de l’intelligence artificielle en santé.           Je reçois la sélection de S.A.R.R.A. pour le prix vudailleurs.com également comme une distinction pour cette notion de « Garantie Humaine », issue de la fiction et désormais transposée dans le réel des pratiques d’innovation en santé. Dans une période très éprouvante à bien des égards pour notre système de santé et celles et ceux qui le font vivre au quotidien, il s’agit là sans doute d’une lueur d’espoir pour l’innovation technologique au service des patients.

                                                          [1] Editions de l’Observatoire, novembre 2018.

[1] S.A.R.R.A., une intelligence artificielle (juin 2018) ; S.A.R.R.A., une conscience artificielle (mars 2020), Editions Beta Publisher

[1] https://www.ccne-ethique.fr/fr/actualites/lavis-129-contribution-du-ccne-la-revision-de-la-loi-de-bioethique-est-en-ligne

                                         

                                                          

Postez un commentaire

You don't have permission to register