Você Não Vai Acreditar Como é Fácil Enganar a IA da OpenAI: Diga Adeus às Marcas d’Água do ChatGPT com este Truque Simples!
Ei, pessoal! Hoje, vamos mergulhar em um tema que está fervendo no mundo da IA: a facilidade absurda de remover as marcas d’água das imagens do ChatGPT.
Sim, você leu certo.
E quem está dizendo isso não sou apenas eu, mas a própria Forbes em um artigo bombástico que você não pode perder.
Então, vamos lá. Recentemente, a OpenAI decidiu adicionar marcas d’água nos metadados das imagens criadas pelo seu DALL-E 3 em ChatGPT.
A ideia era boa, na teoria.
Queriam nos ajudar a distinguir entre o que é real e o que é fruto da nossa querida IA, especialmente depois de algumas polêmicas envolvendo deepfakes de celebridades, como a Taylor Swift.
Mas, adivinha? A execução deixou a desejar.
Acontece que remover essas marcas d’água é tão fácil que até o próprio ChatGPT pode te ensinar a fazer isso.
Sim, é isso mesmo.
Tudo o que você precisa é de uma captura de tela da imagem, e voilà, os metadados evaporam, deixando os serviços de verificação de credenciais, como o Content Credentials Verify, a ver navios.
A Forbes, em seu artigo “The Ridiculously Easy Way To Remove ChatGPT’s Image Watermarks”, detalha esse processo e levanta questões importantes sobre a eficácia dessas marcas d’água.
Eles até arrastaram uma imagem gerada pelo ChatGPT para o Content Credentials Verify, revelando que a imagem foi gerada pelo serviço de IA.
Mas, com uma simples captura de tela, essa informação desaparece.
Agora, por que isso é importante?
Bem, vivemos em uma era onde a desinformação pode se espalhar mais rápido do que notícias verdadeiras.
Ferramentas como marcas d’água em metadados são tentativas de nos dar alguma segurança digital, um jeito de verificar a origem do que vemos online.
Mas, se essas ferramentas podem ser tão facilmente contornadas, onde isso nos deixa?
A OpenAI até admite que os metadados como o C2PA não são a solução definitiva para os problemas de proveniência.
Eles podem ser removidos, seja acidental ou intencionalmente.
Isso nos faz pensar: como podemos confiar no que vemos online?
Mas, olha, nem tudo é desespero.
A OpenAI e outras empresas estão constantemente buscando maneiras de melhorar a segurança e a confiabilidade das informações digitais.
E nós, como consumidores de conteúdo, precisamos estar sempre questionando e verificando as informações que recebemos.
Então, o que você acha?
Estamos caminhando para um futuro onde será impossível distinguir entre real e artificial, ou haverá sempre uma maneira de verificar a autenticidade do conteúdo digital?
E não se esqueça: em um mundo de IA e deepfakes, um olhar crítico é o seu melhor amigo.
Fique ligado para mais novidades e análises sobre o mundo fascinante da tecnologia e IA. Até a próxima, pessoal!