De acordo com um estudo da Universidade Aalto, o uso de ferramentas de inteligência artificial (IA) pode nos levar a uma avaliação errada das nossas habilidades cognitivas. Em geral, as pessoas tendem a se avaliar como "ligeiramente melhores que a média", algo que é mais evidente em pessoas que obtêm piores resultados em testes cognitivos, fenômeno conhecido como "Efeito Dunning-Kruger". Ou seja, pessoas com menor habilidade tendem a superestimar suas próprias habilidades, enquanto as pessoas com maior habilidade tendem a subestimar suas próprias habilidades.

Entrevista de robô de IA, negociação

Nota da fonte da imagem: a imagem foi gerada por IA, a empresa de fornecimento de licença é Midjourney

No entanto, este novo estudo da Universidade Aalto revelou que esse efeito não se aplica quando se trata de modelos de linguagem grandes (como ChatGPT). O estudo descobriu que, independentemente do nível de familiaridade dos usuários com a IA, todos tendem a superestimar seu desempenho ao usar a IA. Especialmente os usuários que acreditam ter maior familiaridade com a IA têm uma tendência maior à superconfiança.

Os pesquisadores dizem que essa descoberta foi surpreendente, pois normalmente espera-se que pessoas com maior familiaridade com a IA, ao interagir com a IA, não apenas tenham melhor desempenho, mas também possam julgar melhor seu próprio desempenho. No entanto, o oposto aconteceu. O estudo aponta que, embora os usuários que usaram o ChatGPT tivessem um melhor desempenho nas tarefas, eles tinham uma autoconfiança excessiva sobre seu próprio desempenho.

Além disso, o estudo destacou a importância da alfabetização em IA, afirmando que as ferramentas atuais de IA não promovem efetivamente a metacognição dos usuários (ou seja, a consciência do processo de pensamento), o que pode levar a uma "queda intelectual" ao obter informações. Portanto, os pesquisadores chamaram atenção para o desenvolvimento de novas plataformas que incentivem os usuários a refletirem sobre seus processos de pensamento.

Na experiência, a equipe de pesquisa pediu que cerca de 500 participantes usassem a IA para completar tarefas de raciocínio lógico do exame de admissão à faculdade de direito (LSAT). Os resultados da experiência mostraram que a maioria dos usuários fez apenas uma pergunta à IA e não analisou ou verificou profundamente as respostas fornecidas pela IA. Os pesquisadores chamam essa situação de "descarga cognitiva", que pode limitar a avaliação precisa das habilidades dos usuários.

Para resolver esse problema, os pesquisadores sugerem que a IA pode perguntar ativamente aos usuários se eles conseguem explicar melhor seu processo de raciocínio, estimulando-os a participar mais ativamente da interação com a IA e aumentando assim sua capacidade de pensamento crítico.

Principais pontos:

🔍 A maioria das pessoas superestima seu desempenho cognitivo ao usar a IA, especialmente os usuários com maior alfabetização em IA.  

🤖 As pessoas têm dificuldade em avaliar corretamente suas próprias habilidades ao usar ferramentas de IA como o ChatGPT.  

📈 O estudo sugere que a IA deve promover a metacognição dos usuários, incentivando o pensamento e a reflexão mais profundos.