
Image by Dr. Frank Gaeth, from Wikimedia Commons
Le Premier Ministre suédois critiqué pour avoir utilisé ChatGPT dans les décisions gouvernementales
Le Premier ministre suédois Ulf Kristersson a été critiqué après avoir reconnu avoir utilisé ChatGPT pour générer des idées pour les décisions gouvernementales.
Vous êtes pressé ? Voici les faits en bref :
- Le Premier ministre suédois admet utiliser ChatGPT pour la prise de décision politique.
- Son porte-parole affirme qu’aucune donnée sensible n’est partagée avec les outils d’IA.
- Les critiques estiment que l’utilisation de l’IA dans le gouvernement est dangereuse et antidémocratique.
Le Premier ministre suédois Ulf Kristersson fait face à un mécontentement public croissant après avoir révélé qu’il utilise ChatGPT et LeChat pour l’aider dans son processus de prise de décision officiel.
« Je l’utilise moi-même assez souvent. Si ce n’est pour rien d’autre que pour avoir un second avis, » a déclaré Kristersson, comme rapporté par The Guardian. « Qu’ont fait les autres ? Et devrions-nous penser l’exact opposé ? Ce genre de questions. »
Sa déclaration a suscité une réaction violente, Aftonbladet l’accusant d’avoir succombé à « la psychose de l’IA des oligarques », selon The Guardian. Les critiques soutiennent que se fier à l’IA pour un jugement politique est à la fois imprudent et antidémocratique.
« Nous devons exiger que la fiabilité puisse être garantie. Nous n’avons pas voté pour ChatGPT », a déclaré Virginia Dignum, professeure d’IA responsable à l’Université d’Umeå.
Le porte-parole de Kristersson, Tom Samuelsson, a minimisé la controverse, déclarant : « Naturellement, ce n’est pas des informations sensibles à la sécurité qui se retrouvent là. C’est plus utilisé comme une estimation approximative », comme rapporté par The Guardian.
Mais les experts en technologie disent que les risques vont au-delà de la sensibilité des données. Simone Fischer-Hübner, professeure à l’Université de Karlstad, déconseille d’utiliser ChatGPT et des outils similaires pour des tâches de travail officielles, comme le note The Guardian.
Le chercheur en IA David Bau a averti que les modèles d’IA peuvent être manipulés. « Ils ont montré une manière pour les gens de glisser leurs propres agendas cachés dans les données d’entraînement qui seraient très difficiles à détecter. » Une recherche montre un taux de réussite de 95% pour tromper les systèmes d’IA en utilisant l’injection de mémoire ou des attaques de « Rules File Backdoor« , suscitant des craintes quant à l’interférence invisible dans la prise de décision politique.
D’autres risques proviennent du potentiel de l’IA à éroder la démocratie. Une récente étude met en garde contre le fait que les systèmes d’IA dans l’application de la loi concentrent le pouvoir, réduisent la surveillance et peuvent favoriser l’autoritarisme.