A Apple restringiu o uso do modelo de linguagem de inteligência artificial ChatGPT, juntando-se a outras empresas que estão preocupadas com vazamentos.
Essa decisão surge em meio a crescentes preocupações sobre o potencial dos modelos de linguagem de IA serem usados para criar vídeos deepfake e outras formas de desinformação.
O ChatGPT é uma variante do modelo de linguagem GPT-3, elogiado por sua capacidade de gerar linguagem semelhante à humana.
No entanto, o modelo também foi criticado por sua possibilidade de disseminar desinformação e por sua falta de transparência em relação ao seu funcionamento.
A decisão da Apple de restringir o uso do ChatGPT faz parte de um esforço mais amplo da empresa para fortalecer sua segurança e proteger sua propriedade intelectual.
Essa medida segue ações semelhantes de outras empresas de tecnologia, incluindo a Microsoft e a OpenAI, que também restringiram o acesso aos seus modelos de linguagem de IA.
Além das preocupações com deepfakes e desinformação, também há receios de que os modelos de linguagem de IA possam ser usados para criar golpes convincentes de phishing e outras formas de crime cibernético.
Um dos principais desafios dos modelos de linguagem de IA, como o ChatGPT, é que eles geralmente são treinados em grandes conjuntos de dados de texto que podem conter vieses e outras formas de conteúdo problemático.
Isso pode levar os modelos a reproduzir e amplificar esses vieses, o que pode ter sérias consequências em áreas como contratação, empréstimos e justiça criminal.
Para lidar com essas questões, pesquisadores estão trabalhando no desenvolvimento de modelos de IA mais transparentes e responsáveis, que possam ser auditados e corrigidos em relação aos vieses.
Apesar das preocupações em torno dos modelos de linguagem de IA, eles também são vistos como uma área chave de inovação e crescimento na indústria de tecnologia.
Empresas como a OpenAI e o Google investiram pesadamente no desenvolvimento desses modelos, que estão sendo usados em uma ampla gama de aplicações, desde chatbots e assistentes virtuais até criação de conteúdo e tradução.
À medida que os modelos de linguagem de IA se tornam mais avançados e sofisticados, é provável que desempenhem um papel cada vez mais importante na moldagem do futuro da comunicação e da informação.
No entanto, à medida que o uso desses modelos se torna mais difundido, também há uma crescente necessidade de regulação e supervisão.
Governos e grupos da indústria estão lidando com o desafio de equilibrar os benefícios potenciais dos modelos de linguagem de IA com os riscos que eles representam, e estão explorando maneiras de garantir que esses modelos sejam usados de forma responsável e ética.
Isso inclui esforços para desenvolver padrões de transparência e responsabilidade, bem como diretrizes para o uso responsável de modelos de linguagem de IA em áreas como jornalismo e publicidade.
Informação do site Wall Street Journal.