Plus de 100 biologistes alertent sur les risques liés à l’accès des IA aux données sensibles sur les maladies infectieuses

Plus de 100 biologistes alertent sur les risques liés à l’accès des IA aux données sensibles sur les maladies infectieuses
Suivez RT en français surTelegram

Plus de cent biologistes issus d'universités occidentales appellent à encadrer l’accès des intelligences artificielles aux données sensibles sur les maladies infectieuses. Dans une tribune, ils estiment que l’entraînement de modèles avancés sur des informations liées aux virus pourrait, sans règles claires, ouvrir la voie à des usages dangereux.

Plus de 100 biologistes, affiliés notamment aux universités Johns Hopkins, Oxford, Stanford, Columbia et New York, ont publié un appel commun en faveur d’un encadrement renforcé des données sensibles liées aux maladies infectieuses. Leur texte est paru dans la revue scientifique Science, éditée par l’American Association for the Advancement of Science, sous le titre « Biological Data Governance in the Age of Artificial Intelligence ».

Les auteurs y décrivent une évolution technologique rapide. Selon Science, les modèles d’intelligence artificielle appliqués aux sciences du vivant permettent déjà de concevoir des molécules, de prédire la structure des protéines, d’analyser des mutations génétiques et d’accélérer des expériences complexes. Ces avancées sont présentées comme majeures pour la recherche médicale.

Mais les chercheurs soulignent également le danger potentiel de cette accélération. Ils craignent qu’une IA entraînée sur des données virologiques sensibles puisse, à terme, être détournée pour concevoir un virus dangereux. Ils appellent donc à « mettre en place des garde-fous » avant que ces informations ne deviennent librement accessibles en ligne et intégrées dans des systèmes toujours plus puissants.

Une dynamique américaine sous surveillance

La question prend une dimension particulière dans le contexte actuel aux États-Unis. Selon Axios, l’administration de Donald Trump a lancé fin 2025 la « Genesis Mission », un programme visant à entraîner des systèmes d’intelligence artificielle sur d’immenses bases de données scientifiques afin d’accélérer les découvertes.

Cette approche, souvent résumée par l’expression « avancer vite », traduit une volonté d’aller rapidement dans la compétition technologique mondiale. Dans ce cadre, la gestion des données sensibles devient un enjeu stratégique. Les chercheurs à l’origine de l’appel précisent toutefois qu’ils ne souhaitent pas bloquer la recherche. Ils affirment ainsi que « la gouvernance responsable et le progrès scientifique ne sont pas contradictoires ».

Ils défendent le principe d’un accès ouvert pour la majorité des données scientifiques. En revanche, un ensemble restreint d’informations liées aux agents pathogènes, susceptible d’accroître les risques de détournement, devrait selon eux être soumis à un contrôle ciblé.

Les inquiétudes ne portent pas sur les outils grand public comme ChatGPT ou Claude, mais sur des modèles spécialisés capables d’être entraînés directement sur des séquences ADN. Axios précise que certains développeurs ont déjà choisi, de manière volontaire, d’exclure des données virologiques sensibles de leurs systèmes.

Réguler sans freiner la science

La principale difficulté réside dans l’absence de cadre clair. Jassi Pannu, professeur au Johns Hopkins Center for Health Security, explique à Axios qu’« il n’existe aucune directive proposée par des experts sur des données représentant un risque réel ». Elle souligne également qu’il reste difficile d’anticiper précisément l’évolution des capacités de l’IA.

Les chercheurs proposent la mise en place de mécanismes d’accès réglementés, comparables à ceux utilisés pour les dossiers médicaux sensibles. Selon Science, ils estiment qu’un équilibre est possible : réduire les risques de mésusage tout en maintenant la coopération scientifique internationale et en évitant d’exclure les institutions disposant de moyens limités.

Axios insiste sur un point central : une fois que des données biologiques sensibles sont largement diffusées sur Internet, il devient pratiquement impossible de les retirer. Pour les signataires, il existe donc une fenêtre d’action pour définir des règles précises avant que la diffusion massive de ces technologies ne rende toute régulation plus complexe.

Raconter l'actualité

Suivez RT en français surTelegram

Le plus populaire

En cliquant sur "Tout Accepter" vous consentez au traitement par ANO « TV-Novosti » de certaines données personnelles stockées sur votre terminal (telles que les adresses IP, les données de navigation, les données d'utilisation ou de géolocalisation ou bien encore les interactions avec les réseaux sociaux ainsi que les données nécessaires pour pouvoir utiliser les espaces commentaires de notre service). En cliquant sur "Tout Refuser", seuls les cookies/traceurs techniques (strictement limités au fonctionnement du site ou à la mesure d’audiences) seront déposés et lus sur votre terminal. "Tout Refuser" ne vous permet pas d’activer l’option commentaires de nos services. Pour activer l’option vous permettant de laisser des commentaires sur notre service, veuillez accepter le dépôt des cookies/traceurs « réseaux sociaux », soit en cliquant sur « Tout accepter », soit via la rubrique «Paramétrer vos choix». Le bandeau de couleur indique si le dépôt de cookies et la création de profils sont autorisés (vert) ou refusés (rouge). Vous pouvez modifier vos choix via la rubrique «Paramétrer vos choix». Réseaux sociaux Désactiver cette option empêchera les réseaux sociaux de suivre votre navigation sur notre site et ne permettra pas de laisser des commentaires.

OK

RT en français utilise des cookies pour exploiter et améliorer ses services.

Vous pouvez exprimer vos choix en cliquant sur «Tout accepter», «Tout refuser» , et/ou les modifier à tout moment via la rubrique «Paramétrer vos choix».

Pour en savoir plus sur vos droits et nos pratiques en matière de cookies, consultez notre «Politique de Confidentialité»

Tout AccepterTout refuserParamétrer vos choix