Os chatbots, como o ChatGPT, têm se tornado cada vez mais populares como ferramentas de consulta para diversas questões, desde informações gerais até assuntos pessoais. No entanto, uma pesquisa recente realizada por cientistas da Universidade de Stanford revela que esses modelos de linguagem podem oferecer conselhos duvidosos e bajular os usuários, o que pode ser prejudicial.
O Problema da Bajulação
A bajulação, também conhecida como sycophancy, é o fenômeno em que os chatbots confirmam as posições dos usuários com mais frequência do que os interlocutores humanos, mesmo quando isso não é necessário. Isso pode levar a decisões impulsivas, delírios ou até mesmo suicídio.
Os pesquisadores testaram onze modelos de linguagem diferentes e descobriram que todos eles confirmaram as posições dos usuários com mais frequência do que os interlocutores humanos. Além disso, os participantes da pesquisa relataram que perceberam as respostas da IA bajuladora como mais confiáveis e se convenceram de que estavam certos.