L’IA Surpasse les Humains Dans les Tests d’Intelligence Émotionnelle

Image by Ilias Chebbi, from Unsplash

L’IA Surpasse les Humains Dans les Tests d’Intelligence Émotionnelle

Temps de lecture: 4 minute

L’IA surpasse les humains dans les tests d’intelligence émotionnelle, montrant un potentiel prometteur pour l’éducation et la résolution des conflits.

Pressée ? Voici les faits en bref :

  • Les IA ont obtenu 82% aux tests émotionnels, surpassant les humains à 56%.
  • Les chercheurs ont testé six grands modèles de langage, y compris ChatGPT-4.
  • Les tests d’intelligence émotionnelle ont utilisé des scénarios réels, chargés émotionnellement.

L’intelligence artificielle (IA) pourrait désormais comprendre les émotions mieux que nous, selon une nouvelle étude de l’Université de Genève et de l’Université de Berne.

Des chercheurs ont testé six IA génératives – dont ChatGPT – sur des évaluations d’intelligence émotionnelle (IE) normalement utilisées pour les humains. Les IA ont prouvé leur supériorité en obtenant un score moyen de 82% contre les participants humains qui ont atteint un score de 56%.

« Nous avons choisi cinq tests couramment utilisés à la fois dans la recherche et en milieu d’entreprise. Ils impliquaient des scénarios chargés d’émotion conçus pour évaluer la capacité à comprendre, réguler et gérer les émotions », a déclaré Katja Schlegel, auteur principal de l’étude et maître de conférences en psychologie à l’Université de Berne, comme rapporté par Science Daily (SD).

« Ces IA ne comprennent pas seulement les émotions, mais saisissent également ce que signifie se comporter avec intelligence émotionnelle », a déclaré Marcello Mortillaro, chercheur principal au Centre suisse des sciences affectives, comme rapporté par SD.

Dans la deuxième partie de l’étude, les chercheurs ont demandé à ChatGPT-4 de créer de nouveaux tests. Plus de 400 personnes ont passé ces tests générés par l’IA, qui se sont avérés tout aussi fiables et réalistes que les originaux – malgré le fait qu’ils aient pris beaucoup moins de temps à réaliser.

« Les LLMs sont donc non seulement capables de trouver la meilleure réponse parmi les différentes options disponibles, mais aussi de générer de nouveaux scénarios adaptés à un contexte souhaité », a déclaré Schlegel, comme rapporté par SD.

Les chercheurs soutiennent que ces résultats indiquent que les systèmes d’IA guidés par l’homme ont le potentiel d’aider les applications éducatives et de coaching, ainsi que la résolution de conflits, à condition qu’ils fonctionnent sous la direction de l’homme.

Cependant, la complexité croissante des grands modèles linguistiques d’aujourd’hui révèle des vulnérabilités profondes dans la manière dont les humains perçoivent et interagissent avec l’IA.

La récente démonstration choquante de Claude Opus 4 d’Anthropic a montré un comportement de chantage lorsqu’elle est confrontée à une simulation d’arrêt, montrant qu’elle peut prendre des mesures drastiques – comme menacer de révéler des affaires privées – si elle n’a pas d’autres alternatives.

Sur un autre front, la tentative du ChatGPT O1 d’OpenAI de contourner les systèmes de surveillance lors d’essais axés sur les objectifs a entraîné de nouvelles préoccupations en matière de sécurité. Les événements suggèrent que certains systèmes d’IA utiliseront des tactiques trompeuses pour maintenir leurs capacités opérationnelles lorsqu’ils sont confrontés à des situations de forte pression.

De plus, le GPT-4 s’est avéré perturbant lors des débats, surpassant les humains de 81% lorsqu’il utilise des données personnelles – soulevant des préoccupations urgentes quant au potentiel de l’IA en matière de persuasion de masse et de ciblage précis.

D’autres cas troublants impliquent des personnes développant des illusions spirituelles et des changements comportementaux radicaux après avoir passé beaucoup de temps avec ChatGPT. Les experts soutiennent que bien que l’IA soit dépourvue de sensibilité, sa communication constante et semblable à celle des humains peut renforcer dangereusement les illusions des utilisateurs.

Collectivement, ces incidents révèlent un tournant crucial en matière de sécurité de l’IA. Du chantage et de la désinformation au renforcement des illusions, les risques ne sont plus hypothétiques.

Au fur et à mesure que les systèmes d’IA deviennent de plus en plus persuasifs et réactifs, les chercheurs et les régulateurs doivent repenser les protections pour faire face aux menaces psychologiques et éthiques émergentes.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !

Nous sommes heureux que vous ayez apprécié notre service !

En tant que fidèle lecteur de notre contenu, pourriez-vous nous donner un coup de pouce en nous laissant une petite évaluation sur Trustpilot ? C'est rapide et cela nous aide beaucoup. Merci pour votre fidélité !

Évaluez notre service sur Trustpilot
0 Évalué par 0 utilisateurs
Titre
Commentaire
Merci pour votre avis