L’IA, omniprésente dans le domaine de la santé et des soins
Dans le domaine médical, l’intelligence artificielle (IA) redéfinit les standards de la décision clinique. Quant aux systèmes d’intelligence artificielle générative (SIAGen), ils génèrent des textes à partir d’auto-apprentissage de nombreuses bases de données. Ces technologies connaissent une croissance exponentielle depuis plusieurs années.
De la radiologie en passant par la dermatologie ou la médecine reproductive, les spécialités médicales ou chirurgicales seront (sont ?) impactées par la nécessité d’appropriation de ces nouveaux outils. Ainsi, par exemple :
- Concernant l’imagerie médicale, Gleamer Copilot permet de détecter des anomalies imperceptibles à l’œil humain afin de réduire les risques d’erreur et de sécuriser la décision technique.
- La dermatoscopie digitale est un appareil de diagnostic, non invasif, permettant d’examiner les structures cutanées invisibles à l’œil nu et d’améliorer la précision du diagnostic dermatologique.
- Dans l’évaluation de la fertilité masculine, des systèmes automatisent l’analyse du sperme avec une précision annoncée de 97%, surpassant les méthodes manuelles traditionnelles.
Cet usage de plus en plus courant interpelle les professionnels de santé et les amène à se poser un certain nombre de questions, sur les usages de l’IA et sur la responsabilité qui en découle.
Suis-je obligé d’utiliser un système d’IA ?
L’article R.4127-32 du code de la santé publique (CSP) énonce que "dès lors qu’il a accepté de répondre à une demande, le médecin s’engage à assurer personnellement au patient des soins consciencieux, dévoués et fondés sur les données acquises de la science, en faisant appel, s’il y a lieu, à l’aide de tiers compétents".
L’IA ne saurait être qualifiée de "tiers compétent" mais elle est une évolution de la science médicale que le médecin ne peut ignorer. L’Académie nationale de médecine, dans son rapport 24-03, a clairement énoncé que la non-utilisation d’une procédure d’IA disponible était contraire à l’éthique et qu’en priver le patient pourrait constituer une perte de chance.
Dois-je informer mon patient que j’utilise une IA ?
L’article L.4001-3 du CSP prévoit que le professionnel de santé qui utilise un dispositif médical comportant un traitement de données algorithmique doit s’assurer que le patient a été informé et qu’il est averti de l’interprétation qui en résulte. Les concepteurs d’un traitement algorithmique doivent permettre l’explicabilité du fonctionnement aux professionnels de santé qui l’utilisent.
Dans les recommandations de son rapport 24-03, l’Académie de médecine insiste sur le fait que le temps consacré au colloque singulier patient/soignant doit être préservé, voire renforcé, quels que soient les systèmes numériques utilisés. Elle sensibilise également le médecin à la protection des données des patients qu’il importe et qu’il gère, rendant cruciales les conditions d’hébergement et la traçabilité du consentement et de l’information du patient au regard de cette utilisation.
Ma responsabilité est-elle engagée si l’IA fournit de faux résultats ?
Actuellement, le régime de responsabilité médicale n’est pas modifié, le projet de directive sur la responsabilité en matière d’IA ayant été abandonné en février 2025 par la Commission européenne en raison de nombreux désaccords entre États membres.
Il existe cependant un règlement européen de 2024 concernant l’intelligence artificielle (l’IA Act) dont l’objectif est d’établir un cadre juridique uniforme concernant notamment l’utilisation des systèmes d’intelligence artificielle. Son article 14 ‘Contrôle humain’ exige qu’un contrôle effectif par des personnes physiques soit mis en place pendant la période d’utilisation du système d’IA.
Ce texte explicite les manières dont l’utilisateur de l’IA (appelé "le déployeur") doit pouvoir assurer ce contrôle en ayant la possibilité :
- de comprendre correctement les capacités et les limites pertinentes du système d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement, y compris en vue de détecter et de traiter les anomalies, les dysfonctionnements et les performances inattendues ;
- d’avoir conscience d’une éventuelle tendance à se fier automatiquement ou excessivement aux sorties produites par un système d’IA à haut risque ;
- d’interpréter correctement les sorties du système d’IA à haut risque, compte tenu par exemple des outils et méthodes d’interprétation disponibles ;
- de décider, dans une situation particulière, de ne pas utiliser le système d’IA à haut risque ou d’ignorer, remplacer ou inverser la sortie du système d’IA à haut risque ;
- d’intervenir dans le fonctionnement du système d’IA à haut risque ou d’interrompre le système au moyen d’un bouton d’arrêt ou d’une procédure similaire permettant au système de s’arrêter de manière sécurisée.
Le médecin reste donc maître de son diagnostic et il ne doit pas accepter des résultats insuffisants ou erronés donnés par l’IA.
Cette attitude serait critiquable sur la base de l’article L.1110-5 du CSP qui prévoit que le médecin ne doit pas faire courir au patient des risques disproportionnés.
En conclusion, c’est toujours la responsabilité du médecin qui sera recherchée.
Le fabricant peut-il être mis en cause si le système d’IA est défectueux ?
Les systèmes d’IA sont effectivement soumis à la directive de 2024 relative à la responsabilité du fait des produits défectueux. Ce texte européen prévoit que la personne qui estime avoir subi un dommage causé par un produit défectueux doit présenter "des faits et des éléments de preuve suffisants pour étayer la plausibilité de sa demande en réparation".
Il appartiendra ensuite au fabricant de divulguer les éléments de preuve pertinents dont il dispose afin de prouver que son produit présentait toutes les garanties de sécurité requises.
En outre, l’article 10 prévoit trois cas pour lesquels la défectuosité du produit est présumée (mais que le fabricant pourra tenter de renverser) :
- le fabricant ne divulgue pas les éléments de preuve pertinents ;
- le demandeur démontre que le produit n’est pas conforme aux exigences obligatoires en matière de sécurité des produits prévues par le droit de l’Union ou le droit national ;
- le demandeur démontre que le dommage a été causé par un dysfonctionnement manifeste du produit lors d’une utilisation raisonnablement prévisible ou dans des circonstances ordinaires.
Il faudra cependant attendre quelques mois pour connaître l’application que les tribunaux feront de la charge de la preuve car la directive ne s’applique pas aux produits mis sur le marché ou en service avant le 9 décembre 2026.

