Selon une étude de l'Université Aalto, l'utilisation d'outils d'intelligence artificielle (IA) pourrait nous faire mal évaluer nos propres capacités cognitives. En général, les gens ont tendance à se juger "un peu meilleurs que la moyenne", phénomène particulièrement visible chez les personnes qui obtiennent de moins bons résultats lors de tests cognitifs, appelé effet Dunning-Kruger. Cela signifie que les personnes ayant de faibles compétences surévaluent souvent leurs capacités, alors que celles ayant des compétences plus élevées ont tendance à les sous-estimer.

Entretien avec un robot IA, négociation

Note de la source de l'image : l'image a été générée par IA, le service de licence est Midjourney

Cependant, cette nouvelle étude de l'Université Aalto montre que ce phénomène ne s'applique pas lorsqu'il s'agit de modèles linguistiques de grande taille (comme ChatGPT). Les chercheurs ont constaté que, indépendamment du niveau d'expertise en IA des utilisateurs, tous surévaluaient généralement leur performance lorsqu'ils utilisaient l'IA. En particulier, les utilisateurs qui pensaient avoir un plus haut niveau d'expertise en IA étaient encore plus enclins à présenter une confiance excessive.

Les chercheurs affirment que cette découverte est surprenante, car on s'attend généralement à ce que les personnes ayant une expertise en IA se comportent mieux et soient plus capables d'évaluer précisément leurs performances lorsqu'elles interagissent avec l'IA. Mais c'est exactement le contraire qui se produit. L'étude souligne que, bien que les utilisateurs de ChatGPT obtiennent de meilleurs résultats sur les tâches, ils sont généralement trop confiants dans leurs performances.

En outre, l'étude met également en évidence l'importance de l'expertise en IA, soulignant que les outils d'IA actuels ne favorisent pas efficacement les capacités métacognitives (c'est-à-dire la conscience du processus de pensée) des utilisateurs, ce qui pourrait entraîner une « baisse intellectuelle » lors de l'obtention d'informations. Par conséquent, les chercheurs appellent à développer de nouveaux plateformes encourageant les utilisateurs à réfléchir à leur processus de pensée.

Dans l'expérience, l'équipe de recherche a demandé à environ 500 participants d'utiliser l'IA pour effectuer des tâches de raisonnement logique du test d'entrée à l'école de droit (LSAT). Les résultats de l'expérience ont montré que la plupart des utilisateurs n'ont posé qu'une seule question à ChatGPT et n'ont pas approfondi la réflexion ou vérifié les réponses fournies par l'IA. Les chercheurs décrivent ce phénomène comme « le transfert cognitif », qui pourrait limiter la capacité des utilisateurs à évaluer correctement leurs compétences.

Pour résoudre ce problème, les chercheurs suggèrent que l'IA puisse poser activement aux utilisateurs des questions sur leur capacité à expliquer davantage leur raisonnement, afin de les encourager à participer plus profondément à l'interaction avec l'IA et d'améliorer ainsi leurs capacités de pensée critique.

Points clés :

🔍 La plupart des gens surestiment leurs performances cognitives lorsqu'ils utilisent l'IA, surtout ceux ayant un haut niveau d'expertise en IA.  

🤖 Les personnes utilisant des outils d'IA comme ChatGPT ont généralement une mauvaise perception de leurs compétences.  

📈 L'étude recommande que l'IA favorise les capacités métacognitives des utilisateurs, encourageant une réflexion et une analyse plus profondes.