L’intelligence artificielle (IA) s’invite aujourd’hui dans toutes les discussions et dans tous les secteurs économiques. Epouvantail pour les uns, « Saint Graal » pour les autres, l’IA n’épargne pas le domaine de la santé.
Conscient des enjeux, notamment éthiques, de cette course technologique, le Conseil national de l’Ordre des médecins (CNOM) a publié en janvier 2018 son livre blanc « Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielle ». L’occasion pour nous de revenir sur ce que signifie exactement l’IA en santé, quels sont ses apports mais aussi ses risques potentiels.
Nous entendons chaque jour ce terme d’intelligence artificielle, parfois employé à mauvais escient. Il peut effrayer car il accole les termes d’ « intelligence », c’est-à-dire une capacité mentale et cognitive à évoluer dans son environnement, au terme « artificielle » qui renvoie, certes, à ce qui n’émane pas de la nature mais du travail de l’Homme, mais peut aussi évoquer l’idée de « factice ». D’où, peut-être, certaines réticences à l’égard de ce nouveau concept.
Nouveau ? Pas tant que cela. Le terme existe depuis les années 50. Bien plus complexe qu’il n’y paraît, il a beaucoup évolué au cours des années, au rythme des nouvelles méthodes d’apprentissage (machine learning, deep learning), et nul doute qu’il évoluera encore ces prochaines années.
Autrefois, la définition de l’IA se résumait à celle de l’algorithme1. Aujourd’hui, l’IA peut être définie, plus généralement, comme la capacité d’une machine (c’est-à-dire un « objet » capable d’agir, par lui-même ou sous le contrôle de l’homme) à reproduire des actions ou des fonctions qui sont habituellement celles des êtres humains (homme ou animal).
A cet égard, le développement du deep learning2 a beaucoup contribué à faire évoluer la machine d’un comportement d’imitation et de reproduction d’actions vers un comportement de plus en plus « intelligent ».
On est donc bien loin de la simple « robotique » utilisée parfois, à tort, comme un synonyme de l’IA.
On précisera enfin que les spécialistes distinguent deux types d’IA :
Il est impossible d’être exhaustif, tant les applications « techniques » de l’IA en santé sont diverses.
Comme le rappelle le CNOM dans son livre blanc, on peut schématiquement regrouper, sous la bannière de l’IA, les outils suivants (sans exhaustivité) :
Là aussi, les exemples ne manquent pas : « robots animateurs » en maison de retraite, destinés à stimuler les résidents sur le plan cognitif ou à les « divertir », robots humanoïdes qui interagissent avec des enfants en pédiatrie ou en pédopsychiatrie, « robots d’accueil » entraînés à dialoguer avec les patients et à détecter leurs émotions (!) pour adapter leur discours, coaches virtuels, agents conversationnels en santé mentale, etc.
C’est dans ce domaine que l’intrusion massive de l’IA pose le plus de problème en termes d’éthique. En effet, la relation soignant/patient est au cœur même du soin. S’il est largement admis par tous que l’IA peut faire gagner en efficacité, en précision et en rapidité pour des actes techniques, déléguer à une machine le rôle relationnel du soignant peut apparaître bien plus choquant.
C’est dans ce relationnel que s’établit la relation de confiance, gage de qualité des soins. Confier cet aspect à un robot peut certes présenter des avantages, dans un contexte de pénurie de personnel et/ou de rationalisation des coûts, mais risque aussi de faire perdre un élément essentiel de la prise en charge : le colloque singulier, l’empathie, conduisant à une déshumanisation de la relation.
Conscient de cette possible dérive, le CNOM rappelle dans son livre blanc que « le médecin doit se souvenir qu’il soigne une personne qui est malade et qu’il ne combat pas seulement la maladie dont un individu serait atteint. (…) L’empathie médicale aide à guérir. »
L’IA est indéniablement le sujet du moment. Tous les jours, les médias, spécialistes comme généralistes, se font l’écho de telle ou telle expérimentation, tel ou tel exploit de la machine, même le plus futile. Dans cette avalanche d’informations vont nécessairement se glisser quelques inexactitudes sémantiques, quelques nouvelles « sensationnelles » mais dénuées de tout intérêt scientifique. Elles vont alimenter les fantasmes du public, soit dans le sens d’un enthousiasme débordant et parfois injustifié, soit au contraire dans le sens d’une peur irraisonnée à l’égard de ces machines toujours plus intelligentes et donc potentiellement menaçantes…
Sans aller jusqu’à imaginer des « robots tueurs » qui, comme dans un film de science fiction, se rebelleraient soudainement contre l’humanité, force est de constater que l’IA comporte certains risques, qu’il est difficile de lister :
Ces risques – déjà existants ou potentiels - ne doivent pas conduire à l’immobilisme. D’où l’utilité de rechercher un moyen d’accompagner les développements de l’IA, sans les freiner, mais en limitant les risques de dérives.
Si certains – et notamment des juristes – appellent de leurs vœux une réglementation spécifique à l’IA, la plupart des spécialistes s’accorde plutôt à préférer un « encadrement » plus souple. Ainsi, dans ses 33 recommandations, le CNOM invoque le recours à la « soft law », système de droit souple qui permet de réguler un sujet de manière beaucoup moins rigide et lourde que l’encadrement législatif classique. Ainsi un domaine peut-il se trouver régulé sans pour autant que son développement ne soit freiné par de trop lourdes contraintes.
De plus en plus de voix s’élèvent, y compris parmi ses plus ardents défenseurs, pour demander l’intégration de l’éthique au cœur de l’IA, notamment lorsque les machines ou les robots sont amenés à jouer un rôle social, « humain » aux côtés du patient.
Dans son livre blanc, le CNOM est clair : « Dans ce tourbillon technologique en marche accélérée, nous devons nous proposer – l’Ordre en tout cas – de réussir à organiser et assurer la complémentarité entre l’homme et la machine, le premier conservant la capacité éthique de garder toujours le dernier mot ».
L’éthique, qui doit toujours guider la démarche du professionnel de santé, constituerait sans doute le nécessaire contrepoids à un développement aveugle et sans limite de l’IA. Il serait ainsi fait un compromis acceptable entre les partisans d’une « course à l’IA » et ceux, plus circonspects, qui s’inquiètent de ses possibles dérives.
Le débat ne fait que commencer.
Notes
(1) Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. (Larousse).
(2) De façon très simplifiée, la capacité de la machine à apprendre par l’exemple, par « entraînement », sans avoir été spécifiquement programmée par l’homme pour le faire
(3) Au lieu de partir d’une hypothèse sur laquelle on réalise des croisements de données et des tests, on croise les données pour permettre l’émergence d’hypothèses auxquelles l’homme n’aurait pu penser seul
Indispensable pour vous défendre en cas de mise en cause, le contrat RCP-PJ facilite le règlement de vos litiges d'ordre privé ou professionnel.
Le développement des « datas » dans le domaine de la santé introduit un bouleversement dans le système de santé et l’exploitation des données...