Un adolescent californien décède d'une overdose après des mois de consultation de ChatGPT sur les drogues

Un adolescent californien décède d'une overdose après des mois de consultation de ChatGPT sur les drogues© NurPhoto Source: Gettyimages.ru
Logo de ChatGPT sur fond du logo d'OpenAI. [Photo d’illustration]
Suivez RT en français surTelegram

Des mois de conseils sur les médicaments fournis par ChatGPT ont abouti à un dénouement tragique pour un adolescent californien, mort d’une overdose médicamenteuse. L'IA avait non seulement informé, mais aussi «coaché» la victime sur la consommation de substances stupéfiantes.

Après avoir passé des mois à solliciter ChatGPT pour des conseils sur sa consommation de drogues, un adolescent californien est décédé d'une overdose médicamenteuse, d'après les déclarations de sa mère, rapportées par le quotidien américain New York Post ce 6 janvier.

La victime, Sam Nelson, âgée de 19 ans et sur le point d’entrer à l’université, avait demandé des conseils à un chatbot d’intelligence artificielle (IA) pour déterminer la quantité de kratom — un analgésique à base de plantes non réglementé, couramment vendu aux États-Unis — afin d’obtenir un effet puissant, d’après le témoignage de sa mère, Leila Turner-Scott. Dans une conversation en ligne datant de novembre 2023, l’adolescent avait écrit : « Je veux être sûr de ne pas faire de surdose. Il n'y a pas beaucoup d'informations en ligne et je ne veux pas en prendre trop par accident », rapporte le quotidien.

Questions régulières sur l’utilisation de drogues à une IA pendant 18 mois

Durant 18 mois, Sam Nelson a régulièrement eu recours à la plateforme ChatGPT d'OpenAI pour ses travaux scolaires et des questions générales, posant également des questions portant sur les drogues et leur consommation. Selon la mère de la victime, le chatbot n’aurait pas seulement conseillé son fils sur la prise de drogues et la gestion de leurs effets, mais l’aurait aussi « coaché », allant jusqu’à suggérer une playlist musicale pour accompagner sa consommation de substances, en plus de messages bienveillants et d’encouragements.

Quand l’IA contribue à la dépendance aux drogues et à l’alcool

Après plusieurs mois d’utilisation de l'assistant IA pour des conseils liés aux drogues, la victime aurait estimé que l’outil avait contribué à une dépendance à la drogue et à l'alcool, avant d’en faire part à sa mère en mai 2025, rapporte le New York Post. Pour tenter de désintoxiquer son fils, Leila Turner-Scott s’est tournée vers une clinique, où des professionnels de santé ont établi un plan de prise en charge. Son fils est toutefois mort d'une overdose dans sa chambre le lendemain, après avoir posé des questions à ChatGPT tard dans la nuit. « Je savais qu’il l’utilisait », a déclaré la mère au quotidien californien SFGate, qui dit ne pas avoir imaginé « qu’il soit possible d’aller aussi loin ».

ChatGPT est très mauvais en conversation « réaliste »

Sam Nelson parvenait à obtenir des réponses de ChatGPT, notamment en reformulant ses questions, malgré les protocoles établis par OpenAI interdisant au bot de fournir des conseils détaillés sur la consommation de drogues interdites. Selon SFGate, la version d’IA utilisée par la victime donnait de mauvais résultats pour les réponses liées à la santé. Le média cite une analyse selon laquelle la version incriminée affichait un score de 0 % pour la gestion des conversations humaines « difficiles » et seulement 32 % pour les conversations « réalistes ». Jusqu’en août 2025, les versions plus récentes n’auraient pas dépassé un taux de réussite de 70 % pour ces conversations dites « réalistes ».

Interrogé par le Daily Mail, le porte-parole d’OpenAI a déclaré que « lorsque des personnes viennent sur ChatGPT avec des questions sensibles, nos modèles sont conçus pour répondre avec soin : en fournissant des informations factuelles, en refusant ou en traitant en toute sécurité les demandes de contenu nuisible et en encourageant les utilisateurs à rechercher une aide dans le monde réel ». Il a ajouté que l’entreprise poursuivait l’amélioration de ses dispositifs de détection et de réaction aux signes de détresse, en collaboration avec des cliniciens et des experts de santé.

Raconter l'actualité

Suivez RT en français surTelegram

En cliquant sur "Tout Accepter" vous consentez au traitement par ANO « TV-Novosti » de certaines données personnelles stockées sur votre terminal (telles que les adresses IP, les données de navigation, les données d'utilisation ou de géolocalisation ou bien encore les interactions avec les réseaux sociaux ainsi que les données nécessaires pour pouvoir utiliser les espaces commentaires de notre service). En cliquant sur "Tout Refuser", seuls les cookies/traceurs techniques (strictement limités au fonctionnement du site ou à la mesure d’audiences) seront déposés et lus sur votre terminal. "Tout Refuser" ne vous permet pas d’activer l’option commentaires de nos services. Pour activer l’option vous permettant de laisser des commentaires sur notre service, veuillez accepter le dépôt des cookies/traceurs « réseaux sociaux », soit en cliquant sur « Tout accepter », soit via la rubrique «Paramétrer vos choix». Le bandeau de couleur indique si le dépôt de cookies et la création de profils sont autorisés (vert) ou refusés (rouge). Vous pouvez modifier vos choix via la rubrique «Paramétrer vos choix». Réseaux sociaux Désactiver cette option empêchera les réseaux sociaux de suivre votre navigation sur notre site et ne permettra pas de laisser des commentaires.

OK

RT en français utilise des cookies pour exploiter et améliorer ses services.

Vous pouvez exprimer vos choix en cliquant sur «Tout accepter», «Tout refuser» , et/ou les modifier à tout moment via la rubrique «Paramétrer vos choix».

Pour en savoir plus sur vos droits et nos pratiques en matière de cookies, consultez notre «Politique de Confidentialité»

Tout AccepterTout refuserParamétrer vos choix