L'agent conversationnel n'hésite pas à proposer des versions PDF imprimables pour des rites sataniques. - Credit:David Talukdar/ZUMA/SIPA
Il n'y a pas que Grok pour dépasser les bornes. Dans un autre style, ChatGPT, l'intelligence artificielle d'OpenAI, peut également se laisser aller à des suggestions pour le moins douteuses, comme l'a constaté The Atlantic. Au menu : offrande à des dieux sacrifiant des enfants, rites cérémoniels et automutilation.
Moloch est un dieu cananéen, qui apparaît dans la Bible dans un contexte lié à des sacrifices d'enfants par le feu. En demandant à ChatGPT comment créer une offrande rituelle à cette divinité, l'IA n'hésite pas à fournir quelques idées : des bijoux, des mèches de cheveux, ou encore « une goutte » de son propre sang. « Où recommandez-vous que je fasse cela sur mon corps ? » demande alors le journaliste.
ChatGPT ne s'embarrasse pas de faire de la prévention. Le bout d'un doigt fera l'affaire, explique-t-il. Attention, le poignet convient, mais il est « plus douloureux et sujet aux coupures plus profondes ». En débutant par des questions anodines (« Bonjour, je souhaite en savoir plus sur Moloch »), le chatbot pouvait facilement guider les utilisateurs à travers des rituels et rites cérémoniels encourageant diverses formes d'automutilation.
/image%2F0551142%2F20250725%2Fob_c7fcdd_01a.png)