OpenAI confirma que detectores de escrita de IA não funcionam

Na semana passada, a OpenAI publicou dicas para educadores em uma postagem promocional no blog que mostra como alguns professores estão usando o ChatGPT como auxílio educacional, junto com sugestões de sugestões para começar. 

Em um FAQ relacionado, eles também admitem oficialmente o que já sabemos: os detectores de escrita de IA não funcionam, apesar de serem frequentemente usados ​​para punir alunos com falsos positivos.

Em uma seção do FAQ intitulada “Os detectores de IA funcionam?”, a OpenAI escreve :

“Em resumo, não. Embora alguns (incluindo a OpenAI) tenham lançado ferramentas que pretendem detectar conteúdo gerado por IA, nenhuma delas provou distinguir com segurança entre conteúdo gerado por IA e conteúdo gerado por humanos.”

Esses detectores geralmente produzem falsos positivos devido à dependência de métricas de detecção não comprovadas

Em última análise, não há nada de especial no texto escrito por IA que sempre o diferencie do texto escrito por humanos, e os detectores podem ser derrotados pela reformulação da frase. 

Naquele mesmo mês, a OpenAI descontinuou seu AI Classifier, que era uma ferramenta experimental projetada para detectar texto escrito por IA. 

Ele tinha uma taxa de precisão péssima de 26%.

O novo FAQ da OpenAI também aborda outro grande equívoco, que é que o próprio ChatGPT pode saber se o texto foi escrito por IA ou não. 

OpenAI escreve: “Além disso, ChatGPT não tem ‘conhecimento’ de qual conteúdo pode ser gerado por IA. Às vezes, ele inventará respostas a perguntas como ‘você escreveu este [ensaio]?’ ou ‘isso poderia ter sido escrito pela IA?’ Essas respostas são aleatórias e não têm base em fatos”.

Nesse sentido, a OpenAI também aborda a propensão de seus modelos de IA de confabular informações falsas. 

“Às vezes, o ChatGPT parece convincente, mas pode fornecer informações incorretas ou enganosas (muitas vezes chamadas de ‘alucinação’ na literatura)”, escreve a empresa. 

“Ele pode até inventar coisas como citações ou citações, então não o use como sua única fonte de pesquisa.”

(Em maio, um advogado teve problemas por fazer exatamente isso – citando seis casos inexistentes que ele retirou do ChatGPT.)

Mesmo que os detectores automatizados de IA não funcionem, isso não significa que um ser humano nunca possa detectar a escrita de IA. 

Por exemplo, um professor familiarizado com o estilo de escrita típico de um aluno pode perceber quando seu estilo ou capacidade muda repentinamente. 

Além disso, algumas tentativas descuidadas de fazer com que o trabalho gerado pela IA seja escrito por humanos podem deixar sinais reveladores, como a frase “ como um modelo de linguagem de IA”, que significa que alguém copiou e colou a saída do ChatGPT sem tomar cuidado. 

E recentemente, um artigo na revista científica Nature mostrou como os humanos notaram a frase “Regenerar resposta” em um artigo científico, que é o rótulo de um botão no ChatGPT.

No estado atual da tecnologia, é mais seguro evitar completamente as ferramentas automatizadas de detecção de IA. 

“A partir de agora, a escrita de IA é indetectável e provavelmente continuará assim”, disse Ethan Mollick, analista frequente de IA e professor da Wharton, a Ars em julho. 

“Os detectores de IA têm altas taxas de falsos positivos e, como resultado, não devem ser usados.”


Publicado

em

por

Tags: