ChatGPT 4.5 passou no teste de Turing, indica estudo

Um novo estudo conduzido pela Universidade da Califórnia em San Diego apontou que a inteligência artificial GPT-4.5, desenvolvida pela OpenAI, foi confundida com um ser humano com mais frequência do que participantes reais em um experimento baseado no famoso teste de Turing.

A descoberta levanta novas questões sobre os limites da IA e a forma como interagimos com ela no dia a dia.

O que é o Teste de Turing e para que ele serve?

O Teste de Turing é um experimento criado em 1950 pelo matemático britânico Alan Turing, considerado um dos pais da computação. Ele propôs um método para avaliar se uma máquina consegue imitar o comportamento humano de forma convincente durante uma conversa.

Na prática, o teste envolve um avaliador humano que interage, por meio de texto, com dois interlocutores ocultos: um humano e uma inteligência artificial. Se o avaliador não conseguir distinguir quem é a máquina e quem é a pessoa, ou se confundir a IA com um humano em pelo menos 50% das vezes, considera-se que a IA “passou” no teste.

🔍 Para que serve o Teste de Turing?

A principal função do teste é medir o grau de naturalidade e inteligência de uma IA no uso da linguagem. Ele não avalia se a máquina entende como um ser humano, mas sim se soa como um.

Isso ajuda a identificar o avanço das tecnologias de linguagem artificial e sua capacidade de interação em contextos reais, como atendimento ao cliente, assistentes virtuais, entre outros.

Reprodução/Wikimédia Commons

Como funcionou o teste com o GPT 4.5?

Cerca de 300 voluntários participaram de um experimento no qual precisavam conversar, em paralelo, com dois interlocutores: um humano e uma IA.

Ao final, deveriam indicar qual dos dois era o ser humano. O que surpreendeu foi o resultado: quando o GPT-4.5 era orientado a simular uma personalidade específica (como a de um jovem antenado em cultura pop), ele foi identificado como humano em 73% dos casos.

O índice ultrapassa com folga os 50% tradicionalmente usados como linha de corte para que uma IA “passe” no teste de Turing. O dado mais curioso? Os próprios humanos tiveram um desempenho inferior, sendo confundidos com IA com mais frequência do que o próprio chatbot.

Os resultados indicam que modelos de linguagem como o GPT-4.5 estão ficando cada vez melhores em soar como humanos em interações casuais, especialmente quando adotam personagens definidos

Além do GPT-4.5, o experimento avaliou também outros modelos, como o GPT-4o (versão mais recente da OpenAI), o LLaMA 3 da Meta, e até o antiquado ELIZA — um dos primeiros chatbots da história.

A performance caiu drasticamente para os modelos que não foram instruídos a assumir um papel específico: o GPT-4.5, por exemplo, teve apenas 36% de acerto quando atuou sem persona. Já o GPT-4o obteve meros 21%.

O que a pesquisa significa?

Embora os cientistas ressaltem que esse tipo de teste não comprova que a IA “entende” como os humanos, os resultados demonstram o quanto esses sistemas evoluíram na capacidade de imitar comportamentos humanos em diálogo. A habilidade abre espaço para debates mais profundos sobre ética, manipulação e confiança na era digital.

A linha entre o que é humano e o que é artificial está se tornando cada vez mais difícil de identificar. Eisso pode ser cada vez mais perigoso em contextos como disseminação de fake news, golpes digitais e interações comerciais automatizadas.

Leia também:

  • IA entra em consultas médicas e fortalece relação com pacientes
  • Você já pode usar o ChatGPT como assistente padrão no Android
  • Grok, IA de Elon Musk, aponta dono como espalhador de fake news

IA está no seu ponto mais “inofensivo” e só vai melhorar daqui em diante

Os pesquisadores alertam que, embora os modelos atuais ainda tenham limitações, eles estão apenas começando a mostrar seu verdadeiro potencial. E como já superam seres humanos em aspectos específicos da interação, os próximos avanços prometem deixar essa distinção ainda mais sutil.

Por enquanto, o estudo está disponível em um servidor de pré-publicações científicas, mas já foi submetido para avaliação em revista especializada. A expectativa é que os dados ganhem validação formal em breve, reforçando o debate sobre os riscos e oportunidades do uso da IA em larga escala.

Fonte: Cornell University

Conteúdo Relacionado
Bill Gates: "humanos não serão necessários para a maioria das coisas em 10 anos"

Futuro inevitável?

Bill Gates: “humanos não serão necessários para a maioria das coisas em 10 anos”

Adicionar aos favoritos o Link permanente.