Le Premier Ministre suédois critiqué pour avoir utilisé ChatGPT dans les décisions gouvernementales

Image by Dr. Frank Gaeth, from Wikimedia Commons

Le Premier Ministre suédois critiqué pour avoir utilisé ChatGPT dans les décisions gouvernementales

Temps de lecture: 3 minute

Le Premier ministre suédois Ulf Kristersson a été critiqué après avoir reconnu avoir utilisé ChatGPT pour générer des idées pour les décisions gouvernementales.

Vous êtes pressé ? Voici les faits en bref :

  • Le Premier ministre suédois admet utiliser ChatGPT pour la prise de décision politique.
  • Son porte-parole affirme qu’aucune donnée sensible n’est partagée avec les outils d’IA.
  • Les critiques estiment que l’utilisation de l’IA dans le gouvernement est dangereuse et antidémocratique.

Le Premier ministre suédois Ulf Kristersson fait face à un mécontentement public croissant après avoir révélé qu’il utilise ChatGPT et LeChat pour l’aider dans son processus de prise de décision officiel.

« Je l’utilise moi-même assez souvent. Si ce n’est pour rien d’autre que pour avoir un second avis, » a déclaré Kristersson, comme rapporté par The Guardian. « Qu’ont fait les autres ? Et devrions-nous penser l’exact opposé ? Ce genre de questions. »

Sa déclaration a suscité une réaction violente, Aftonbladet l’accusant d’avoir succombé à « la psychose de l’IA des oligarques », selon The Guardian. Les critiques soutiennent que se fier à l’IA pour un jugement politique est à la fois imprudent et antidémocratique.

« Nous devons exiger que la fiabilité puisse être garantie. Nous n’avons pas voté pour ChatGPT », a déclaré Virginia Dignum, professeure d’IA responsable à l’Université d’Umeå.

Le porte-parole de Kristersson, Tom Samuelsson, a minimisé la controverse, déclarant : « Naturellement, ce n’est pas des informations sensibles à la sécurité qui se retrouvent là. C’est plus utilisé comme une estimation approximative », comme rapporté par The Guardian.

Mais les experts en technologie disent que les risques vont au-delà de la sensibilité des données. Simone Fischer-Hübner, professeure à l’Université de Karlstad, déconseille d’utiliser ChatGPT et des outils similaires pour des tâches de travail officielles, comme le note The Guardian.

Le chercheur en IA David Bau a averti que les modèles d’IA peuvent être manipulés. « Ils ont montré une manière pour les gens de glisser leurs propres agendas cachés dans les données d’entraînement qui seraient très difficiles à détecter. » Une recherche montre un taux de réussite de 95% pour tromper les systèmes d’IA en utilisant l’injection de mémoire ou des attaques de « Rules File Backdoor« , suscitant des craintes quant à l’interférence invisible dans la prise de décision politique.

D’autres risques proviennent du potentiel de l’IA à éroder la démocratie. Une récente étude met en garde contre le fait que les systèmes d’IA dans l’application de la loi concentrent le pouvoir, réduisent la surveillance et peuvent favoriser l’autoritarisme.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !

Nous sommes heureux que vous ayez apprécié notre service !

En tant que fidèle lecteur de notre contenu, pourriez-vous nous donner un coup de pouce en nous laissant une petite évaluation sur Trustpilot ? C'est rapide et cela nous aide beaucoup. Merci pour votre fidélité !

Évaluez notre service sur Trustpilot
0 Évalué par 0 utilisateurs
Titre
Commentaire
Merci pour votre avis