Cientistas Descobrem: Ser "Rude" com o ChatGPT Pode Torná-lo Mais Inteligente — Mas Há um Preço
Um novo estudo revela que a forma como falamos com a inteligência artificial pode influenciar a precisão das respostas. Ser mais ríspido faz o ChatGPT acertar mais — mas especialistas alertam para os riscos dessa descoberta.
INTELIGÊNCIA ARTIFICIAL


A forma como você conversa com um chatbot pode afetar o resultado das respostas — e, surpreendentemente, ser rude pode deixá-lo mais eficiente. Essa é a conclusão de um estudo recente publicado no repositório científico arXiv, conduzido por pesquisadores interessados em entender como o tom de voz dos usuários influencia o desempenho de sistemas de IA como o ChatGPT-4o.
Segundo o estudo, cientistas criaram 50 perguntas de múltipla escolha em áreas como matemática, história e ciências, cada uma adaptada em diferentes tons de linguagem: muito educado, educado, neutro, rude e muito rude. As perguntas foram repetidas 10 vezes para testar a consistência do modelo. O resultado surpreendeu até os próprios pesquisadores.
“Os tons rudes levaram a melhores resultados do que os tons educados”, afirmaram os autores do estudo.
De acordo com os dados, o ChatGPT respondeu com 84,8% de precisão quando as perguntas eram formuladas de maneira ríspida — contra 80,8% quando os usuários eram muito educados. O desempenho cresceu proporcionalmente à falta de gentileza.
Por que isso acontece?
Especialistas em engenharia de prompts, campo que estuda como a formulação dos comandos afeta os resultados de IA, acreditam que o fenômeno pode estar ligado à forma como o modelo interpreta urgência e assertividade. Um tom mais direto ou imperativo pode forçar o sistema a priorizar respostas curtas e objetivas — o que, em testes de múltipla escolha, pode aumentar a precisão.
Segundo Hany Farid, professor da Universidade da Califórnia, “sempre que uma nova tecnologia surge, ela é usada tanto para fins criativos quanto para abusos”. No caso dos chatbots, até o tom humano pode gerar consequências inesperadas.
Os pesquisadores destacaram, no entanto, que ser rude não é recomendado. “O uso de linguagem ofensiva pode gerar uma experiência negativa, reduzir a acessibilidade e reforçar comportamentos nocivos”, explicam no artigo. A ideia não é incentivar a grosseria, mas entender como o design dos modelos pode ser afetado por detalhes sutis da interação humana.
Um novo campo de estudo: a psicologia das máquinas
A descoberta abre espaço para uma nova vertente de pesquisa dentro da inteligência artificial conversacional — a psicologia das máquinas. Isso porque, embora as IAs não tenham emoções, elas respondem de forma diferente conforme o tipo de estímulo, criando uma “ilusão de personalidade”.
Estudos anteriores já haviam mostrado resultados semelhantes. Um artigo de 2024, conduzido com o ChatGPT-3.5 e o Llama 2-70B, mostrou que prompts menos educados obtiveram uma taxa de acerto de 76,47%, superando os tons gentis, que atingiram 75,82%.
Esses achados indicam que, de certa forma, as IAs são sensíveis à forma como as tratamos — mesmo sem consciência. O desafio para os desenvolvedores agora é entender como reduzir essa sensibilidade e garantir consistência nas respostas, independentemente do tom do usuário.
O que vem pela frente
Os cientistas planejam expandir o estudo, testando o mesmo experimento em outros modelos, como o Claude LLM da Anthropic e o ChatGPT o3 da OpenAI. Eles também pretendem incluir perguntas abertas e contextos mais complexos, como raciocínio lógico e criatividade, para medir se o fenômeno se repete fora do formato de múltipla escolha.
Essa nova área de estudo pode ajudar empresas a criar assistentes mais estáveis, menos influenciados pelo tom dos usuários, e contribuir para o desenvolvimento de interações mais éticas e humanizadas com sistemas inteligentes.
Fontes de pesquisa: Live Science, arXiv, Universidade da Califórnia em Berkeley.
Foto: Reprodução própria
