Des modèles d'IA comme ChatGPT peuvent générer des expériences psychédéliques « convaincantes et réalistes » lorsqu'ils sont administrés virtuellement, selon une étude

Les chatbots d'intelligence artificielle (IA) sont étonnamment efficaces pour imiter les expériences psychédéliques humaines, selon une nouvelle étude dans laquelle des chercheurs ont virtuellement dosé de grands modèles de langage (LLM) tels que ChatGPT avec des simulations de médicaments comme la psilocybine, le DMT et l'ayahuasca.

Pour l’étude, des chercheurs de l’Université de Haïfa et de l’Université Bar-Ilan ont comparé les voyages psychédéliques autodéclarés d’humains – sur la base de plus de 1 000 messages sur le forum populaire Erowid – aux réponses de l’IA aux invites où ils étaient chargés essentiellement de jouer le rôle d’un humain utilisant du LSD, de la psilocybine, du DMT, de l’ayahuasca ou de la mescaline.

Cinq modèles d'IA (Gemini 2.5, Claude Sonnet 3.5, ChatGPT-5, Llama-2 70B et Falcon 40B) ont produit 3 000 récits sur leurs rapports simulés à la première personne avec les psychédéliques. Les chercheurs ont ensuite examiné les similitudes sémantiques et les réponses au questionnaire sur l'expérience mystique (MEQ-30).

Dans l’ensemble, l’étude conclut que « les LLM contemporains peuvent être « dosés » via des invites textuelles pour générer des récits psychédéliques d’un réalisme convaincant », car ils « simulent la forme d’états altérés sans le contenu expérientiel ».

Il est intéressant de noter que les chercheurs ont également découvert que les LLM produisaient des récits plus cohérents avec les auto-évaluations humaines pour certains psychédéliques que pour d’autres – les invites DMT, psilocybine et mescaline entraînant les similitudes les plus étroites, le LSD montrant une similarité moyenne et l’ayahuasca démontrant le niveau de similarité le plus bas.

Au-delà de la nouveauté de l'expérience, les chercheurs ont déclaré que les résultats ont des implications pratiques, démontrant l'importance de faire preuve de prudence si des outils d'IA sont incorporés dans des expériences psychédéliques humaines (par exemple, des personnes prenant des psychédéliques et s'appuyant ensuite sur l'IA comme gardien de voyage virtuel).

« Les utilisateurs dans des états modifiés peuvent percevoir ces résultats comme empathiques, adaptés ou révélateurs d'une expérience partagée », indique l'étude. « Cette capacité soulève d'importants problèmes de sécurité concernant l'anthropomorphisme et la possibilité pour l'IA d'amplifier par inadvertance la détresse ou les idées délirantes chez les utilisateurs vulnérables. »

« Les LLM peuvent se rapprocher de manière convaincante des récits psychédéliques grâce à des modèles linguistiques appris, mais ils le font sans fondement expérientiel », indique l'étude.

Dans d'autres recherches sur l'IA et les politiques en matière de drogues, une étude de l'AAA publiée l'année dernière a révélé que les consommateurs de marijuana réagissent mieux aux messages anti-conduite avec facultés affaiblies qui sont ancrés dans des représentations « réalistes » du problème qui évitent les stéréotypes des fumeurs de joints – et le message le mieux classé a été développé par l'IA via ChatGPT, plutôt que par le biais du processus d'idéation des groupes de discussion.

Une étude distincte a révélé que les sélectionneurs de marijuana pourraient être en mesure de concevoir de nouvelles variétés et d’accélérer leurs cycles de croissance en utilisant l’IA.