Pouco tempo depois de os funcionários da Samsung terem recebido autorização para aceder ao ChatGPT nas máquinas de trabalho, surgem pelo menos três relatos de terem alimentado o algoritmo de IA com informação sensível
Em pelo menos três ocasiões distintas, funcionários da Samsung ‘vazaram’ informação sensível para o ChatGPT. A empresa está já a investigar os três colaboradores e pretende construir a sua própria versão do bot para evitar que este tipo de situações se repita.
Segundo o The Economist Korea, um trabalhador pediu ao chatbot para verificar dados sensíveis no código de uma base de dados para erros, outro pediu uma otimização de código fonte e um terceiro colocou uma gravação de uma reunião online e pediu ao bot para gerar a minuta.
Para restringir este tipo de falhas, além da investigação interna e dos alertas, a Samsung vai limitar o tamanho dos pedidos dos utilizadores a um kilobyte, ou seja, 1024 caracteres de texto.
A política de utilização do ChatGPT é bastante explícita e refere que, a não ser que os utilizadores retirem inequivocamente o consentimento, todos os comandos introduzidos no bot são usados para o continuar a treinar. A OpenAI pede aos utilizadores que não coloquem informação sensível nos pedidos feitos ao bot e relembra que a única forma de eliminar informação identificável é apagar a conta, um processo que pode demorar até quatro semanas.