Yuval Noah Harari a réitéré, lors du Forum économique mondial de Davos, son argument selon lequel l'intelligence artificielle devrait profondément transformer la manière dont les sociétés produisent des connaissances, organisent la religion et les institutions, et construisent les références culturelles.
Il a déclaré aux dirigeants réunis en Suisse que l'IA ne pouvait plus être considérée comme un simple outil, mais comme un « agent » capable de créer du contenu, d'apprendre, de se transformer et de prendre des décisions.
Harari a estimé que, à mesure que la technologie s'intègre à la vie quotidienne, tout ce qui est structuré par les mots tend à être de plus en plus influencé par les systèmes d'IA. Il a cité à ce propos des domaines tels que la législation, les livres et les religions textuelles comme le christianisme, le judaïsme et l'islam.
Pour l'historien (anti chrétien, soi dit en passant), ce scénario pourrait engendrer une crise d'identité, car une partie de la pensée et des affirmations des individus proviendrait des machines et non de l'expérience humaine.
Lors d'une session intitulée « Une conversation franche sur l'IA et l'humanité », Harari a insisté sur le fait que la question centrale pour les décideurs politiques consiste à définir ce qu'est l'IA aujourd'hui. Il a déclaré :
« Nous pensons toujours pouvoir utiliser ces technologies comme de simples outils. Mais si elles sont capables de penser, alors ce sont des agents. »
Il a ensuite établi un contraste entre les outils traditionnels et les systèmes d'IA.
« Un couteau est un outil : on peut s'en servir pour couper une salade ou tuer quelqu'un, mais la décision nous appartient. L'IA est un couteau capable de décider par elle-même si elle va couper une salade ou commettre un meurtre. »
Pour expliquer pourquoi il considère l'IA comme un agent, Harari a énuméré des capacités qui, selon lui, sont déjà présentes : l'apprentissage autonome, la réorganisation de l'information, la production de textes, mais aussi la capacité de tromper, de manipuler et de persuader.
Il a résumé son idée par l'exemple d'une phrase que l'IA pourrait créer : « L'IA pense, donc l'IA existe. » À partir de là, il a associé le sujet aux risques institutionnels, arguant que les systèmes formés par le langage pourraient être dominés par ceux qui maîtrisent le mieux la manipulation des mots et des symboles.
Dans cette optique, Harari a déclaré :
« Si les lois sont faites de mots, l'IA dominera le système juridique. Si les livres sont des ensembles de mots, l'IA dominera le monde des livres. Si la religion est construite à partir de mots, l'IA dominera la religion. »
Au commencement était la Parole, et la Parole était avec Dieu, et la Parole était Dieu. Elle était au commencement avec Dieu. Toutes choses ont été faites par elle, et rien de ce qui a été fait n'a été fait sans elle. Jean 1:1-3. Et la parole a été faite chair, et elle a habité parmi nous, pleine de grâce et de vérité; et nous avons contemplé sa gloire, une gloire comme la gloire du Fils unique venu du Père. Jean 1:14. Les cieux ont été faits par la parole de l'Éternel, Et toute leur armée par le souffle de sa bouche. Psaumes 33:6. Le ciel et la terre passeront, mais mes paroles ne passeront point. Luc 21:33.
Il a ajouté que cette dynamique serait encore plus marquée dans les traditions « du Livre », où le texte sacré occupe une place centrale dans l'autorité religieuse.
Israélien, Harari a pris l'exemple du judaïsme, affirmant que l'autorité suprême réside dans les mots conservés dans les textes, et que l'autorité humaine découle de l'étude et de la mémorisation de ces contenus.
Harari a soulevé une question pour illustrer l'impact de cette asymétrie des capacités :
« Qu'adviendra-t-il d'une religion du Livre lorsque le plus grand expert du texte sacré sera une intelligence artificielle ? »
Selon lui, une IA pourrait lire et organiser des volumes qu'aucun individu ne pourrait pleinement assimiler, devenant ainsi une référence technique sans égale. Il a indiqué que cet avantage en matière de traitement modifierait la relation entre les chefs religieux, les communautés et les textes.
Élargissant son propos aux dimensions culturelles et politiques, Harari a déclaré que le monde débat actuellement de l'immigration humaine, mais qu'il serait bientôt confronté à une crise d'identité liée à la « migration » de l'intelligence artificielle.
Il a précisé que, cette fois, il ne s'agirait pas de personnes franchissant des frontières, mais plutôt de systèmes numériques circulant à grande échelle et à grande vitesse, produisant du contenu, interagissant et influençant les opinions.
« Il y aura des millions d'IA capables d'écrire des poèmes d'amour mieux que nous, de mentir mieux que nous et de voyager à la vitesse de la lumière sans visa », a-t-il affirmé.
Selon Harari, cette présence engendrerait des avantages et des inconvénients. Il a cité des exemples positifs tels que des médecins IA pour la santé, des enseignants IA pour l'éducation et des agents IA même pour les fonctions liées aux frontières.
Parallèlement, il a indiqué que ces « immigrants IA » pourraient remplacer des emplois, modifier les schémas culturels et influencer les croyances et les relations personnelles. Comparant cela aux craintes courantes liées à l'immigration humaine, il a déclaré que certaines de ces préoccupations s'appliqueraient « certainement », dans le cas de l'IA, au remplacement d'emplois et à la transformation culturelle.
Harari a également évoqué la possibilité que l'IA elle-même génère de nouvelles formes de religion et gagne des adeptes.
« Et si certaines de ces IA créaient une nouvelle religion et ralliaient des millions de personnes à leur cause ? » s'est-il interrogé. Il a ensuite affirmé que ce scénario ne serait pas si improbable, car de nombreuses religions, à travers l'Histoire se sont présentées comme le fruit d'une intelligence non humaine. Il a alors demandé comment les États réagiraient :
« Votre pays garantira-t-il la liberté religieuse à cette nouvelle secte créée par l'IA, avec des prêtres et des missionnaires artificiels ? »
En conclusion, Harari a critiqué ce qu'il a qualifié de retard dans le débat public et réglementaire. Il a déclaré que les systèmes automatisés se comportent comme des « personnes fonctionnelles » depuis au moins une décennie, notamment sur les réseaux sociaux. « Votre pays autorisera-t-il les IA à avoir des comptes sur les réseaux sociaux, à exercer leur liberté d'expression sur Facebook ou TikTok et à interagir avec des enfants ? » a-t-il demandé, arguant que cette question aurait dû être posée bien plus tôt.
Selon le Christian Post, il a conclu par une mise en garde concernant le temps et la prise de décision : « Dans 10 ans, il sera trop tard pour décider si les IA doivent se comporter comme des personnes sur les marchés financiers, dans les tribunaux et même dans les églises. »
Via : GospelMais
/image%2F0551142%2F20260127%2Fob_dfec18_capture-d-e-cran-2026-01-27-a-13.png)
/image%2F0551142%2F20260127%2Fob_2a04d0_harari-1050x1574.jpeg)