L’étude met en garde : l’IA pourrait amplifier la polarisation des médias sociaux
L’intelligence artificielle pourrait exacerbé la polarisation sur les réseaux sociaux, avertissent les chercheurs et étudiants de Concordia, suscitant des inquiétudes concernant la liberté d’expression et la désinformation.
Pressé(e) ? Voici les faits en bref :
- Les algorithmes d’IA peuvent propager la division en utilisant uniquement le nombre d’abonnés et les publications récentes.
- Les bots d’apprentissage par renforcement s’adaptent rapidement pour exploiter les vulnérabilités des médias sociaux.
- Les experts avertissent que les plateformes risquent soit la censure, soit la manipulation non contrôlée.
Bien que la polarisation sur les réseaux sociaux ne soit pas un phénomène nouveau, les chercheurs et les militants étudiants de l’Université Concordia préviennent que l’intelligence artificielle pourrait aggraver considérablement le problème.
« Au lieu de nous montrer des images de ce qui se passe ou du contenu des journalistes qui en font état, nous voyons plutôt un art AI trop dramatisé sur des sujets qui devraient nous préoccuper politiquement […] Cela éloigne vraiment les gens et supprime la responsabilité », a déclaré Danna Ballantyne, coordinatrice des affaires extérieures et de la mobilisation pour l’Union des étudiants de Concordia, comme rapporté par The Link.
Ses préoccupations font écho à une nouvelle recherche de Concordia, où le professeur Rastko R. Selmic et l’étudiant au doctorat Mohamed N. Zareer ont montré comment les bots d’apprentissage par renforcement peuvent alimenter la division en ligne. « Notre objectif était de comprendre quel seuil l’intelligence artificielle peut avoir sur la polarisation et les réseaux sociaux, et de le simuler […] pour mesurer comment cette polarisation et ce désaccord peuvent survenir. » a déclaré Zareer, comme rapporté par The Link.
Les résultats suggèrent que les algorithmes n’ont pas besoin de données privées pour susciter la division, où des signaux de base comme le nombre d’abonnés et les publications récentes suffisent. « C’est inquiétant, parce que [bien que] ce n’est pas un simple robot, c’est toujours un algorithme que vous pouvez créer sur votre ordinateur […] Et quand vous disposez d’assez de puissance de calcul, vous pouvez affecter de plus en plus de réseaux », a expliqué Zareer à The Link.
Cela reflète un corpus de recherche plus large montrant comment l’apprentissage par renforcement peut être utilisé pour pousser les communautés à se séparer. L’étude menée par Concordia a utilisé le Double-Deep Q-learning et a démontré que les agents IA adverses peuvent « s’adapter de manière flexible aux changements au sein du réseau, lui permettant d’exploiter efficacement les vulnérabilités structurelles et d’amplifier les divisions parmi les utilisateurs », comme l’a noté la recherche.
En effet, le Double-Deep Q-learning est une technique d’IA où un bot apprend des actions optimales par essais et erreurs. Il utilise des réseaux neuronaux profonds pour gérer des problèmes complexes et deux estimations de valeur pour éviter de surestimer les récompenses. Sur les réseaux sociaux, il peut stratégiquement diffuser du contenu pour augmenter la polarisation avec un minimum de données.
Zareer a averti que les décideurs politiques font face à un équilibre difficile. « Il y a une ligne fine entre la surveillance et la censure, et la tentative de contrôler le réseau », a-t-il dit à The Link. Trop peu de surveillance permet aux bots de manipuler les conversations, tandis que trop de surveillance peut risquer de supprimer la liberté d’expression.
Pendant ce temps, des étudiants comme Ballantyne craignent que l’IA efface l’expérience vécue. « L’IA efface complètement cela », a-t-elle dit à The Link.