O ChatGPT pode expor conversas privadas de usuários, incluindo informações sigilosas, como login, senhas ou dados empresários — pelo menos é o que afirmou o site estadunidense Ars Technica. O portal compilou sete denúncias de leitores, que alegam que informações e chats salvos de outras pessoas apareceram repentinamente em suas contas. A OpenAI, empresa responsável pela ferramenta de inteligência artificial (IA), defende-se dizendo que esses usuários tiveram acesso a dados alheios justamente porque suas contas foram invadidas por hackers, que fizeram essas buscas na plataforma.
Chase Whiteside é um dos usuários que denunciou o ChatGPT ao Ars Technica. O estadunidense mandou diversos prints para o site e garantiu que as conversas que apareceram em seu perfil não eram suas — e que também pareciam ser de internautas diferentes. Havia registros de tela, inclusive, com uma lista com várias informações de login, que pareciam corresponder a um sistema usado por funcionários de um site de medicamentos.
Após a repercussão do caso, a OpenAI alegou que não houve um vazamento de bate-papos privados, mas um roubo da conta de Chase Whiteside. Assim, as conversas que surgiram no perfil do usuário teriam aparecido devido ao uso indevido da conta por um invasor. Segundo um representante da OpenAI, o login invasor veio do Sri Lanka, sendo que Chase mora no Brooklyn, Estados Unidos.
Depois desta informação, Chase alterou a sua senha, embora não acreditasse que a conta havia sido invadida. O usuário afirma ainda que sua antiga senha do ChatGPT apresentava nove caracteres, mesclando letras maiúsculas, minúsculas e caracteres especiais — que configuram uma senha relativamente segura.
Vale ressaltar que o chatbot da OpenAI fornece poucos mecanismos de segurança para usuários protegerem suas contas. Não há, por exemplo, a possibilidade de verificar a localização de IP de logins recentes. A empresa não se manifestou especificamente contra as denúncias dos outros seis usuários.
Com informações de Ars Technica e The Byte
Comentarios