O Teste de Turing é um jogo de imitação onde uma pessoa conversa, via texto, tanto com outro ser humano quanto com um computador.
Elas podem fazer as perguntas que desejarem antes de terem que decidir qual é o humano e qual é a máquina.
Em 2014, um chatbot de IA chamado Eugene Goostman convenceu 33% dos juízes de que era humano no Teste de Turing — ultrapassando o limite estabelecido pelos organizadores da competição.
Desde então, ferramentas mais avançadas teriam passado no Teste de Turing.
Máquinas já 'pensam' como humanos? — Foto: BBC/Getty Images
Podemos distinguir se estamos conversando com outro ser humano ou com uma inteligência artificial (IA)?
Durante muito tempo, esta tem sido uma das perguntas feitas pelas pessoas ao avaliarem o quão inteligentes os computadores realmente são.
Ela se origina do Teste de Turing, elaborado pelo matemático e cientista da computação inglês Alan Turing em 1950 — transformando, pela primeira vez, o pensamento filosófico sobre a inteligência das máquinas em um teste empírico.
De acordo com o teste, se o comportamento de um computador fosse indistinguível do de um humano, então ele seria considerado como alguém que exibe um comportamento "inteligente".
Alan Turing criou um teste que mede o quão indistinguíveis as máquinas são dos humanos — Foto: BBC/Getty Images
Mas quando um chatbot de IA supostamente passou no teste pela primeira vez em 2014, em vez de ser um momento decisivo, isso alimentou uma controvérsia.
O Teste de Turing é um jogo de imitação onde uma pessoa conversa, via texto, tanto com outro ser humano quanto com um computador.
Elas podem fazer as perguntas que desejarem antes de terem que decidir qual é o humano e qual é a máquina.
Turing previu que, até o ano 2000, os computadores seriam capazes de se passar por humanos após cinco minutos de questionamento, em pelo menos 30% das vezes.
O Teste de Turing avalia se um ser humano consegue distinguir entre uma máquina e outro ser humano após fazer perguntas por mensagem de texto — Foto: BB
Em 2014, um chatbot de IA chamado Eugene Goostman convenceu 33% dos juízes de que era humano no Teste de Turing — ultrapassando o limite estabelecido pelos organizadores da competição.
Comunicando-se em inglês, ele adotou a personalidade de um menino ucraniano de 13 anos.
Markus Pantsar, filósofo e palestrante convidado na Universidade RWTH Aachen, na Alemanha, diz que isso significava que ele não estava "jogando o jogo de forma justa".
O ChatGPT 4.5 passou no Teste de Turing em 2025, segundo pesquisa de Jones — Foto: BBC/Getty Images
Desde então, ferramentas mais avançadas teriam passado no Teste de Turing.
Em um artigo publicado no início de 2025, Jones descobriu que o ChatGPT 4.5 da OpenAI foi julgado como humano em 73% das vezes — com mais frequência do que o seu homólogo humano. O Llama 3.1 da Meta foi julgado como humano em 56% das vezes.
Acho difícil argumentar que os modelos não passaram no teste, dado que são julgados como humanos significativamente mais vezes do que as pessoas
— diz ele.
Mas alguns permanecem céticos sobre se isso prova que os computadores realmente podem pensar.
Em 1980, o filósofo John Searle propôs um experimento mental chamado "o argumento do quarto chinês".
Ele funciona assim: um homem inglês que não entende chinês é trancado em um quarto com alguns caracteres chineses e instruções em inglês sobre como usá-los.
Pessoas fora do quarto passam bilhetes para ele com perguntas escritas em chinês, e ele usa as instruções para formular respostas, também em chinês.
Para quem está de fora, pareceria que o homem sabe falar chinês, mas ele não entende verdadeiramente o que está dizendo.
Alguns argumentam que o mesmo poderia ser dito sobre os computadores, que são meramente programados para dar respostas apropriadas.
Você pode abrir qualquer bot de IA e pedir primeiro que ele explique como funciona um relógio analógico, e ele explicará com precisão
— diz ele.
Mas se você pedir para ele gerar a imagem de um relógio marcando uma hora específica, os modelos de IA atuais provavelmente falharão.
Outros, como Pantsar, pensam que o Teste de Turing coloca ênfase demais na capacidade do computador de enganar o juiz.
O comportamento inteligente real pode incluir enganar, mas, fundamentalmente, essa não é a parte principal
— argumenta ele.
Pantsar criou o Teste de Inteligência Baseado em Comunidade (CBIT) — uma das muitas alternativas propostas ao longo dos anos.
Ao contrário do Teste de Turing, realizado em laboratório, no cenário dele um sistema de IA é colocado dentro de uma comunidade existente — por exemplo, uma comunidade online de matemáticos — sem o conhecimento deles.
Depois de algum tempo, os membros são testados para verificar se perceberam que se tratava de uma máquina ou não.
comportando-se de maneira humana
— Ainda há algum nível de decepção, mas Pantsar acredita que a maior parte do teste envolveria o sistema , e não "personificando" humanos — o que ele afirma ser uma distinção importante.
A inteligência deve ser avaliada em circunstâncias naturais — o tipo de ambiente em que realmente interagimos
— argumenta o filósofo.
Ele diz que seu teste também incentiva os desenvolvedores a focarem em se um sistema de IA é útil ao criá-lo, em vez de se ele passaria ou não em um teste de enganação.
Mappouras, por outro lado, elaborou um teste que, segundo ele, analisa uma medida de inteligência mais concreta.
propor algum novo conhecimento científico e explicá-lo
— Ele acredita que a inteligência artificial geral — um conceito teórico onde uma máquina tem a mesma capacidade intelectual que um humano — seria alcançada se uma máquina pudesse , desde que ela já conheça toda a informação necessária.
Apesar das críticas, alguns acreditam que o Teste de Turing ainda tem um lugar na pesquisa moderna de IA.
algum tipo de inteligência dinâmica e flexível
— Jones diz que o fato de ele ser aberto e as perguntas não serem claramente definidas permite testar .
Independentemente do teste utilizado, Pantsar acredita que, à medida que os sistemas de IA continuam a se desenvolver, é provável que se tornem indistinguíveis das pessoas.
E ser capaz de provar isso, argumenta, justificaria a necessidade de marcos legais que obriguem a IA a se declarar como IA — por razões de responsabilidade.
Se eu publicasse um artigo que contivesse alguns dados errôneos, eu seria o responsável por isso
— diz Pantsar. "Mas se for um artigo escrito por IA, ninguém é responsável."
Jones acredita que é importante medir quão bem uma máquina consegue imitar um humano, o que torna o Teste de Turing ainda relevante hoje.
Passamos muito tempo interagindo com pessoas na internet
— diz ele.
E, cada vez mais, as pessoas estão começando a ter essa experiência de... entrar em uma discussão com uma conta no Twitter e perceber: 'Na verdade, não estou falando com um ser humano'.
Uma das coisas que o Teste de Turing faz, eu acho, é acompanhar essa capacidade de ver qual a probabilidade de isso acontecer
— acrescenta.
De segunda a sábado, as notícias que você não pode perder diretamente no seu e-mail.
Acordo levou mais de 25 anos para ser aprovado; veja linha do tempo
'Não acho que será necessário', diz Trump sobre chance de capturar Putin
Carne, arroz, feijão... O que esperar da inflação do prato feito em 2026
Renovação automática da CNH exige infrações e pontos zerados; entenda
Jovem que se perdeu no Pico Paraná tentou seguir rios, tática que não é segura
Venezuelanos vivem com medo da prisão e tem celulares fiscalizados
Guru do chavismo: o controverso indiano que é cultuado por Maduro e Delcy