Os funcionários da Samsung estão proibidos de usar tecnologias de inteligência artificial como ChatGPT, Bard e Bing. A proibição veio depois de um vazamento de dados sensíveis da empresa, noticiado pela Bloomberg, nesta segunda-feira (1).
O vazamento ocorreu quando funcionários da companhia usaram o ChatGPT para tentar melhorar o código-fonte de um software usado na avaliação de equipamentos semicondutores (chips) da empresa.
- Você quer ficar informado sobre os impactos da I.A. no mundo dos investimentos? Assine nossa nova Newsletter semanal. É grátis.
Para evitar novos problemas do gênero, a companhia, sediada na Coreia do Sul, decidiu proibir o uso de ferramentas de inteligência artificial no trabalho. Isso porque as informações compartilhadas com os chatbots são armazenadas em servidores externos, o que facilitaria vazamentos de dados internos.
A Samsung já havia demonstrado preocupação com o uso de ferramentas de IA no mês passado, quando fez uma pesquisa interna com seus funcionários, na qual 65% dos entrevistados disseram acreditar que esses serviços representam um risco de segurança.
Em relação ao vazamento, a Samsung mencionou aos funcionários saber a respeito do interesse nas plataformas de chatbot dentro da empresa: “O interesse em plataformas de inteligência artificial generativa, como o ChatGPT, tem crescido interna e externamente. Embora esse interesse se concentre na utilidade e eficiência dessas plataformas, também há crescentes preocupações com os riscos de segurança apresentados pela inteligência artificial generativa”, disse um representante da companhia.
- Você quer ficar informado sobre os impactos da I.A. no mundo dos investimentos? Assine nossa nova Newsletter semanal. É grátis.
Imagem: Divulgação