France : le personnel soignant peut désormais utiliser l’IA, mais sous strictes conditions

France : le personnel soignant peut désormais utiliser l’IA, mais sous strictes conditions Source: Gettyimages.ru
Suivez RT en français surTelegram

L’intelligence artificielle entre officiellement dans les pratiques médicales en France. La Haute autorité de santé autorise désormais son usage par le personnel soignant, à condition de respecter des règles de prudence, de vérification des sources, de confidentialité des données et sans jamais se reposer entièrement sur ces outils numériques.

Les outils d’intelligence artificielle générative comme ChatGPT, CoPilot ou Mistral AI peuvent désormais être utilisés par les soignants en France, mais uniquement dans un cadre rigoureusement encadré. C’est le message principal d’un document publié le 30 octobre 2025 par la Haute autorité de santé.

Selon la HAS, « les systèmes d’IA générative peuvent être un levier d’amélioration pour favoriser la qualité dans le système de santé », à condition d’être employés de manière « raisonnée ». Ces technologies, capables de générer des textes, images ou vidéos à partir de simples requêtes, s’imposent déjà dans le quotidien des professionnels.

L’autorité reconnaît plusieurs usages utiles : synthèses scientifiques, aide à la gestion des ressources, ou encore simplification du discours médical pour les patients. Ces pratiques, bien qu’encore en cours de structuration, sont déjà visibles dans les secteurs sanitaire et médico-social.

Vigilance face aux dérives de l’IA générative

Malgré ce potentiel, la HAS met en garde contre plusieurs risques. Le phénomène d’« hallucination » est particulièrement surveillé : l’IA peut générer des informations incorrectes, parfois très convaincantes. Les professionnels sont donc appelés à vérifier systématiquement les contenus, en croisant les sources et en les consultant « dès que nécessaire » pour s’assurer de leur fiabilité.

Autre point crucial : la confidentialité des données. L’institution insiste sur le fait qu’aucune information personnelle ou relevant du secret médical ne doit figurer dans les requêtes faites à l’IA. « Il faut vérifier dans chacune des requêtes qu’aucune information permettant l’identification directe ou indirecte n’est partagée », précise la HAS.

Elle recommande aussi de ne jamais s’appuyer exclusivement sur ces systèmes, afin de ne pas affaiblir les compétences humaines. L’exemple donné est celui d’une infirmière aux urgences : même assistée par une IA, elle doit continuer à trier les patients seule afin de rester opérationnelle en cas de panne du système.

Un cadre pédagogique en construction

Pour structurer cette transition numérique dans le secteur médical, la HAS propose une méthode en quatre axes baptisée A.V.E.C. Il s’agit d’abord d’apprendre, en comprenant le fonctionnement des systèmes d’IA et en se formant à leur usage de manière adaptée aux besoins concrets des professionnels. Ensuite, il faut vérifier systématiquement le contenu généré, sans jamais le considérer comme totalement fiable, tout en restant attentif à ne pas partager d’informations sensibles. La troisième étape consiste à estimer, c’est-à-dire à réévaluer régulièrement la performance de ces outils dans la pratique quotidienne. Enfin, la HAS insiste sur la nécessité de communiquer avec d’autres professionnels pour partager les retours d’expérience et éviter l’isolement dans les pratiques numériques.

Ce document ne représente qu’une première étape. D’autres recommandations sont prévues, notamment une fiche à destination des usagers. Beaucoup de patients ont déjà recours à l’IA pour poser des questions sur leur santé, s’exposant à des conseils erronés. La HAS entend donc encadrer ces pratiques à l'avenir.

Cette publication vise à établir un « cadre de confiance » pour les usages professionnels de l’IA. Mais dans un système de santé français marqué par des pénuries et des tensions structurelles, l’introduction massive d’outils étrangers pose question. S’il est présenté comme un progrès, ce virage technologique reste fortement dépendant d’acteurs privés provenant de l’étranger, en particulier américains, ce qui interroge sur la maîtrise réelle de ces outils au service des patients.

Raconter l'actualité

Suivez RT en français surTelegram

En cliquant sur "Tout Accepter" vous consentez au traitement par ANO « TV-Novosti » de certaines données personnelles stockées sur votre terminal (telles que les adresses IP, les données de navigation, les données d'utilisation ou de géolocalisation ou bien encore les interactions avec les réseaux sociaux ainsi que les données nécessaires pour pouvoir utiliser les espaces commentaires de notre service). En cliquant sur "Tout Refuser", seuls les cookies/traceurs techniques (strictement limités au fonctionnement du site ou à la mesure d’audiences) seront déposés et lus sur votre terminal. "Tout Refuser" ne vous permet pas d’activer l’option commentaires de nos services. Pour activer l’option vous permettant de laisser des commentaires sur notre service, veuillez accepter le dépôt des cookies/traceurs « réseaux sociaux », soit en cliquant sur « Tout accepter », soit via la rubrique «Paramétrer vos choix». Le bandeau de couleur indique si le dépôt de cookies et la création de profils sont autorisés (vert) ou refusés (rouge). Vous pouvez modifier vos choix via la rubrique «Paramétrer vos choix». Réseaux sociaux Désactiver cette option empêchera les réseaux sociaux de suivre votre navigation sur notre site et ne permettra pas de laisser des commentaires.

OK

RT en français utilise des cookies pour exploiter et améliorer ses services.

Vous pouvez exprimer vos choix en cliquant sur «Tout accepter», «Tout refuser» , et/ou les modifier à tout moment via la rubrique «Paramétrer vos choix».

Pour en savoir plus sur vos droits et nos pratiques en matière de cookies, consultez notre «Politique de Confidentialité»

Tout AccepterTout refuserParamétrer vos choix