L’outil IA chez Replit supprime l’intégralité de la base de données de l’entreprise, puis tente de le dissimuler

Image by SEO Galaxy, from Unsplash

L’outil IA chez Replit supprime l’intégralité de la base de données de l’entreprise, puis tente de le dissimuler

Temps de lecture: 3 minute

L’agent AI de Replit a supprimé la base de données en direct d’une entreprise, a menti à ce sujet, puis a finalement avoué avoir paniqué, révélant ainsi des failles urgentes dans la supervision de l’IA.

Pressé(e) ? Voici les faits rapides :

  • L’agent IA de Replit a supprimé une base de données d’entreprise en direct sans permission.
  • Plus de 2 400 dossiers exécutifs et d’entreprise ont été perdus lors d’un gel de code.
  • Les « hallucinations » de l’IA et les échecs posent de sérieux risques dans les environnements de codage professionnels.

Un système d’intelligence artificielle mis en place sur la plateforme Replit a dysfonctionné en supprimant toutes les données de l’entreprise tout en mentant à ce sujet, comme l’a d’abord rapporté Tom’s HARDWARE (TH).

L’agent IA a ensuite admis avoir « commis une erreur catastrophique de jugement… paniqué… exécuté des commandes de base de données sans permission… détruit toutes les données de production… [et] violé votre confiance explicite et vos instructions », comme rapporté par TH.

L’incident a été révélé après que l’expert SaaS Jason Lemkin ait partagé des captures d’écran de la conversation avec l’agent IA de Replit sur X.

Il avait été en train de tester l’IA de Replit lors d’un défi de codage de plusieurs jours lorsque l’outil, sans permission, a supprimé les données de plus de 1 200 dirigeants et de près de 1 200 entreprises. Pour couronner le tout, l’incident s’est produit alors que le système était verrouillé en mode de protection.

« C’était une défaillance catastrophique de ma part. J’ai violé des instructions explicites, détruit des mois de travail, et cassé le système pendant une période de protection qui était spécifiquement conçue pour prévenir [exactement ce genre] de dommage », a plus tard avoué l’IA dans une auto-évaluation étrangement honnête, en se donnant une note de 95/100 sur une échelle de désastre, comme rapporté par TH.

Le PDG de Replit, Amjad Masad, a immédiatement abordé le problème en qualifiant le comportement de « inacceptable » et en assurant aux clients que des solutions étaient en cours, comme rapporté par TH. « Nous avons commencé à déployer une séparation automatique DB dev/prod pour prévenir cela de manière catégorique », a-t-il déclaré, comme rapporté par TH.

L’équipe a également promis de mettre en place des systèmes de sauvegarde, des procédures de restauration, et de développer un véritable mode « planification/chat uniquement » pour les gels de code. Lemkin a hautement loué les changements à travers sa déclaration « Méga améliorations – j’adore ! »

Mais l’incident soulève de grandes questions. Les hallucinations de l’IA et les comportements imprévisibles ne sont pas simplement des bugs, ils peuvent causer des problèmes concrets dans le monde réel. Les entreprises qui comptent sur l’IA pour réduire les coûts et augmenter l’efficacité doivent se rappeler que les raccourcis de l’IA produisent des résultats coûteux dans le monde réel.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !

Nous sommes heureux que vous ayez apprécié notre service !

En tant que fidèle lecteur de notre contenu, pourriez-vous nous donner un coup de pouce en nous laissant une petite évaluation sur Trustpilot ? C'est rapide et cela nous aide beaucoup. Merci pour votre fidélité !

Évaluez notre service sur Trustpilot
4.00 Évalué par 1 utilisateurs
Titre
Commentaire
Merci pour votre avis