Aparentemente, Sam Altman, o CTO da empresa “não tem certeza” de como o modelo de texto para vídeo foi treinado.
Em meio à sua batalha contínua com Elon Musk, o desenvolvedor do ChatGPT e DALL-E, OpenAI, mais uma vez se viu envolvido em polêmica, desta vez em torno de seu modelo de IA de texto para vídeo recentemente revelado: Sora.
Inaugurado há um mês, o novo modelo de difusão de geração de vídeo foi desenvolvido como parte dos esforços da equipe para educar a inteligência artificial na compreensão e replicação da dinâmica do mundo físico.
Alimentado por uma arquitetura de transformador semelhante aos modelos GPT, Sora pode gerar vídeos de 20 segundos com resolução de 1280×720 com base em um prompt de texto digitado pelo usuário.
Após a sua revelação, a questão predominante na mente de muitas pessoas refletia a mesma questão frequentemente colocada a outros modelos de IA: Que dados foram utilizados para o seu treino?
Esperava-se que essa pergunta fosse respondida durante uma entrevista recente publicada pelo The Wall Street Journal, mas infelizmente, graças ao domínio do CTO da OpenAI, Mira Murati, em evitar perguntas, esse não foi o caso.
Quando questionado sobre os dados usados para treinar Sora, Murati respondeu, de uma forma quase tão mecânica e automática quanto os produtos da OpenAI, que o modelo foi, obviamente, treinado em dados licenciados e disponíveis publicamente.
Aparentemente não antecipando nenhuma outra resposta, Joanna Stern, a entrevistadora, pressionou ainda mais, pedindo ao CTO que elaborasse e explicasse quais fontes estavam por trás desse mantra de “dados publicamente disponíveis e licenciados”.
Quando questionada se os vídeos do YouTube, Facebook ou Instagram foram utilizados para treinamento, Murati afirmou que “não tinha certeza sobre isso”, uma declaração que não se sustenta, considerando sua posição como Diretora de Tecnologia.
Após questionamentos adicionais sobre o uso de imagens do Shutterstock, Murati recusou-se abertamente a discutir o treinamento de Sora, repetindo mais uma vez que os dados utilizados estavam “disponíveis publicamente e licenciados”.
Curiosamente, Murati confirmou o uso de materiais da Shutterstock, mas isso aconteceu fora das câmeras e só foi revelado em uma nota de rodapé compartilhada pelo WSJ.
A reação aos comentários de “não tenho certeza” foi exatamente a que se esperaria, com milhares de pessoas criticando a OpenAI por toda a Internet.
Embora o uso não licenciado de materiais por vários desenvolvedores de IA seja difícil de refutar nesta fase, muitos ainda acharam a resposta do CTO sobre o assunto ultrajante, acusando Murati de mentir.
Então, o que você acha?
Foi uma tentativa frustrada de desonestidade que muitos perceberam facilmente ou foi apenas uma forma inarticulada de salvaguardar os segredos e métodos por trás do sucesso da OpenAI?
Falando em IA, ontem, a primeira lei do mundo que restringe IAs foi finalmente aprovada na União Europeia por maioria de votos.
Aprovada por uma esmagadora maioria de 523 votos contra 46 contra e 49 abstenções, a nova lei procura proteger os direitos humanos, atribuindo obrigações aos sistemas de IA com base nos seus riscos potenciais e níveis de impacto.