Samsung proíbe uso de ChatGPT para funcionários após uso indevido do chatbot

Segundo a CNBC, a Samsung restringiu temporariamente o uso de ferramentas de inteligência artificial generativa, como ChatGPT, devido a preocupações com riscos de segurança.

ChatGPT é um chatbot de IA viral desenvolvido pela empresa americana OpenAI, que é apoiada pela Microsoft.

Funcionários de uma das maiores divisões da Samsung foram informados da medida em um memorando no final de abril, após casos de uso indevido da tecnologia terem sido relatados.

A Bloomberg revelou que alguns funcionários haviam carregado código confidencial no ChatGPT, levando à restrição.

A Samsung ainda não lançou seu próprio produto de IA generativa, mas está explorando maneiras de aprimorar a produtividade e eficiência dos funcionários por meio da IA generativa.

No entanto, a empresa aconselhou os funcionários a tomar precauções ao usar o ChatGPT e outros produtos fora do trabalho e a não inserir informações pessoais ou relacionadas à empresa nos serviços.

A Samsung não está sozinha na restrição do uso da IA generativa.

O banco de investimento americano JPMorgan e a Amazon também alertaram os funcionários contra o upload de informações confidenciais, incluindo código, no ChatGPT.

As empresas estão avaliando maneiras de usar a IA generativa dentro de seus negócios.

O ChatGPT pode ajudar engenheiros a gerar código de computador, por exemplo, para acelerar suas tarefas.

Desenvolvedores de software do Goldman Sachs estão usando a IA generativa para ajudar a gerar código.

Em uma pesquisa da Samsung realizada no mês passado, 65% dos entrevistados disseram estar preocupados com os riscos de segurança ao usar serviços de IA generativa.

A restrição da tecnologia pela Samsung destaca a necessidade de as empresas serem vigilantes e cautelosas ao usar essas poderosas ferramentas, especialmente ao lidar com informações confidenciais.


Publicado

em

por