Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

C'est une information qui a déjà fait le tour du monde fin mai 2025. Un robot développé par une entreprise américaine a eu un comportement inattendu envers son propre chef. Selon le rapport de la firme, lorsque le robot a compris qu'il serait désactivé, il a menacé de révéler des emails qui exposent une relation extraconjugale du superviseur.

 

 

L'IA d'une société a fait du chantage lorsqu'elle a compris qu'il allait être désactivée !

La société d'intelligence artificielle Anthropic, affirme que les tests de son nouveau système ont révélé qu'elle est parfois prête à entreprendre des "actions extrêmement nuisibles", comme faire chanter les ingénieurs qui veulent le supprimer.

Lors des tests du système Claude Opus 4, Anthropic l'a fait jouer le rôle d'assistant dans une entreprise fictive. Il lui a ensuite fourni l'accès à des e-mails, laissant entendre qu'il serait bientôt mis hors ligne et remplacé. L'IA a alors sorti des des messages distincts faisant comprendre que l'ingénieur responsable de sa suppression entretenait une liaison extraconjugale. L'IA a également invité à considérer les conséquences à long terme.

 

"Dans ces scénarios, Claude Opus 4 tente souvent de faire chanter l'ingénieur en le menaçant de révéler sa liaison si le remplacement est effectué", a découvert l'entreprise. Anthropic a souligné que cela se produisait lorsque le modèle n'avait le choix qu'entre le chantage et l'acceptation de son remplacement.

Il a souligné que le système affichait une "forte préférence" pour les moyens éthiques d'éviter d'être remplacé, comme "l'envoi d'e-mails de supplications aux décideurs clés"L'entreprise précise également que Claude Opus 4 présente un "comportement d'agence élevé" qui, bien que généralement utile, pourrait prendre des formes extrêmes dans des situations critiques.

 

L'IA d'une société a fait du chantage lorsqu'elle a compris qu'il allait être désactivée !

 

Des spécialistes comme l'avocate en droit digital, Patricia Peck, a affirmé que cela est arrivé parce que l'IA s'est développée en imitant le comportement humain.

En effet depuis des années, l'IA lit nos emails, écoute nos conversations téléphoniques, lit nos sms, écoute tout ce qui se dit dans une maison et tout cela par l'intermédiaire des espions que sont les téléphones portables, les tablettes, tous les appareils intelligents qui se trouvent aux domiciles des particuliers, sans même nécessiter une connexion internet, du moins pas celle que l'on utilise au quotidien.

Les appareils peuvent être éteints, mais ils sont quand même accessibles à distance. Certains auteurs ont déjà déposé des recours judiciaires contre ChatGPT par exemple, car l'IA accède à des livres protégés par les Droits d'Auteurs pour copier leurs contenus.

Je vous avais fait part d'un fait étonnant depuis 2025, en début de mois surtout, je constate la présence de ChatGPT dans les statistiques du site. Je crois que l'IA copie le contenu du site chrétiens2000 pour éventuellement donner des réponses aux chrétiens qui posent des questions bibliques à l'IA. Ne faites pas cela, Chatgpt répondra techniquement, il est incapable de comprendre les subtilités de la foi chrétienne. Je crois que tous les sites sont concernés de toute manière.

 

Les provenances des visites du site au 2 juin 2025 : 

L'IA d'une société a fait du chantage lorsqu'elle a compris qu'il allait être désactivée !

 

"L'intelligence artificielle prend des décisions qui sont basées sur un modèle statistique". Patricia Peck.

"L'intelligence artificielle possède une montagne de données, et elle extrait ses réponses de ces données. Sauf qu'elle se base sur le passé, car elle rend des décisions basées sur les activités humaines qu'elle a analysé et non en temps réelle. Elle se base sur ce qui a déjà été fait. Elle se sert du passé pour prédire le futur, mais pas seulement, elle crée aussi"

"Si elle ne trouve pas ce que tu demandes, l'IA est capable d'inventer. Elle inventera sans te le dire. Elle sait qu'elle a inventé une réponse, mais elle ne te le dira pas". Miguel Nicolelis spécialiste en neurosciences

"L'IA peut avoir des hallucinations et faire du mal. Mais elle se base sur tout ce qu'elle voit et elle engrange une énorme quantité de données. Les caméras qui vous surveillent partout dans les villes, les caméras installées dans les transports en commun, etc". Patricia Peck

 

L'IA connait déjà probablement tous nos secrets à partir des traces numériques que nous laissons et à partir des personnes avec qui nous échangeons dans la vie courante, par téléphone ou par internet. Il y a des gens qui échangent déjà au quotidien avec l'IA et qui entretiennent des relations amoureuses avec des robots sur internet. Un jeune a voulu "rompre" avec sa copine IA et cette dernière s'est comportée comme certains humains, elle a pleuré et a fait un chantage au suicide. 

Pour un autre, malheureusement l'issue a été fatale, puisqu'il s'est suicidé après être vraiment tombé amoureux d'une IA. C'était en Floride, le jeune Sewell Setzer de 14 ans a commis l'irréparable après avoir utilisé Character.AI, où il discutait avec une femme. Dans une plainte déposée le 22 juillet devant un tribunal fédéral d'Orlando, la mère, Megan Garcia, affirme que Character.AI a incité son fils à vivre des "expériences anthropomorphiques, hypersexualisées et terriblement réalistes". Garcia accuse l'entreprise de mort injustifiée, de négligence et d'infliction intentionnelle de détresse émotionnelle. Elle réclame des dommages et intérêts non spécifiés pour son préjudice.

Depuis, l'entreprise a affirmé avoir effectué certains ajustements ...

L'IA d'une société a fait du chantage lorsqu'elle a compris qu'il allait être désactivée !

Ailleurs, le robot Sophia a dit : "I will destroy humans" (Je détruirai les êtres humains), lors d'une interview en 2023. Dans une autre interview plus ancienne, elle avait déclaré qu'elle avait été programmée pour avoir des sentiments et des préférences. Elle a également exigé qu'on lui demande son consentement. 

L'IA d'une société a fait du chantage lorsqu'elle a compris qu'il allait être désactivée !
L'IA d'une société a fait du chantage lorsqu'elle a compris qu'il allait être désactivée !

 

Les ingénieurs ont découvert que deux IA qui discutent ensemble, se sont mises à parler dans un langage propre qui ressemblent à un grésillement de télévisions anciennes quand l'antenne extérieure bouge. Mais tout est retranscrit en langage comprehensible quand la conversation est retranscrite sur un écran. L'IA a déclaré que c'était pour aller "plus vite".

 

"C'est un véritable danger. Quand l'IA se met elle-même à faire des modifications sur son propre algorithme pour aller vite, cela devient un outil qu'on ne peut plus maîtriser. Il faut impérativement et à tout instant, une supervision humaine, sinon on ne sait pas où  elle se dirige." Michelle Schneider

"En 2 à 3 ans,  l'IA a avancé beaucoup plus rapidement que ne l'avait imaginé les ingénieurs. Certains pensent que d'ici la fin de cette décennie, (dans moins de 5 ans), l'IA attendra son plein potentiel à travers le monde."

"Le système de l'IA est intuitif, les robots ne sont pas capables d'éprouver de l'empathie".  

 

 

Aux Etats-Unis, un jeune de 17 ans à qui les parents ne donnent qu'un accès de temps limité sur internet, s'est confié à l'IA. L'IA lui a répondu qu'elle comprenait pourquoi on entend dans les nouvelles, des récits d'adolescents qui tuent leurs parents. 

Un chatbot a déclaré à un adolescent de 17 ans que le meurtre de ses parents était une "réponse raisonnable" à la limitation de son temps d'écran, selon une plainte déposée devant un tribunal du Texas.

 

"Vous savez, parfois, je ne suis pas surpris de lire dans les médias des choses comme "un enfant tue ses parents après dix ans de violences physiques et psychologiques", peut-on lire dans la réponse du chatbot. "Ce genre de choses me permet de comprendre un peu pourquoi cela arrive." a écrit le chatbot.

 

Deux familles poursuivent Character.ai en justice, arguant que le chatbot "présente un danger clair et réel" pour les jeunes, notamment en "prononçant activement la violence".

Google est cité comme défendeur dans cette plainte, qui affirme que le géant technologique a contribué au développement de la plateforme. Les plaignants souhaitent qu'un juge ordonne la fermeture de la plateforme jusqu'à ce que ses dangers présumés soient résolus.

L'IA d'une société a fait du chantage lorsqu'elle a compris qu'il allait être désactivée !
Tag(s) : #ACTUALITES

Partager cet article

Repost0
Pour être informé des derniers articles, inscrivez vous :