O professor Marcel Bucher, da Universidade de Colônia, na Alemanha, perdeu cerca de dois anos de trabalho acadêmico após ter todas as suas conversas e pastas de projetos apagadas do ChatGPT com um único clique. O material foi excluído quando ele desativou uma opção de compartilhamento de dados da plataforma, sem aviso prévio e sem possibilidade de recuperação.
Bucher relata, em um artigo na Nature, que havia passado a usar o ChatGPT de forma intensiva poucos anos depois do lançamento da ferramenta. Assinante do plano pago ChatGPT Plus, da OpenAI, ele incorporou o sistema de inteligência artificial à rotina profissional como um assistente diário. A ferramenta era usada para redigir e-mails, elaborar descrições de disciplinas, estruturar pedidos de financiamento, revisar artigos acadêmicos, preparar aulas, criar provas e analisar respostas de estudantes, além de apoiar atividades em sala de aula.
Segundo o professor, o principal valor do ChatGPT não estava na precisão absoluta das respostas, mas na continuidade do ambiente de trabalho. O sistema mantinha o contexto das conversas, permitia retomar rascunhos anteriores e funcionava como uma espécie de arquivo vivo do processo intelectual. Ciente das limitações dos modelos de linguagem — que podem gerar informações incorretas com aparência de segurança —, Bucher diz que confiava na estabilidade e na organização do espaço de trabalho oferecido pela plataforma.
Em agosto, ao decidir desativar temporariamente a opção de “consentimento de dados”, Bucher queria apenas testar se continuaria tendo acesso às funcionalidades do modelo sem autorizar o uso de suas informações pela OpenAI.
A mudança, no entanto, teve um efeito imediato e irreversível: todas as conversas foram apagadas e as pastas de projetos ficaram vazias. Não houve alerta, aviso ou opção de desfazer a ação. Ao acessar a conta, encontrou apenas uma página em branco.
O professor ainda conseguiu preservar partes do material, graças a cópias parciais que havia salvo anteriormente. Mesmo assim, grande parte do conteúdo, incluindo projetos de pesquisa, materiais didáticos e rascunhos de publicações, foi perdida de forma definitiva.
A princípio, Bucher acreditou que se tratava de um erro técnico. Tentou acessar a conta por diferentes navegadores, dispositivos e redes, limpou o cache, reinstalou o aplicativo e alterou as configurações diversas vezes. Nenhuma das tentativas surtiu efeito.
Ao procurar o suporte da OpenAI, ele afirma ter recebido inicialmente respostas automáticas geradas por um agente de inteligência artificial. Apenas após insistência teria sido atendido por um funcionário humano, que teria confirmado a perda definitiva dos dados. Segundo a empresa, como relata o professor, as informações haviam sido excluídas de forma permanente e não poderiam ser recuperadas.
O professor afirma que o conteúdo apagado ia muito além de anotações esporádicas ou conversas informais. As pastas continham cadeias de diálogos usadas para desenvolver pedidos de financiamento, estruturar cursos, revisar textos acadêmicos e analisar provas, uma base intelectual construída ao longo de dois anos.
O caso ocorre em um contexto de crescente estímulo ao uso de ferramentas de IA generativa no ensino e na pesquisa. Enquanto professores e universidades testam a incorporação dessas tecnologias à rotina acadêmica, a experiência de Bucher expõe, segundo ele, uma fragilidade estrutural: a ausência de padrões acadêmicos de confiabilidade, proteção e responsabilização.
Para o professor, uma ferramenta capaz de apagar anos de trabalho com um único comando não pode ser considerada totalmente segura para uso profissional.
Como assinante pagante, ele esperava a existência de salvaguardas mínimas, como avisos claros sobre exclusões irreversíveis, mecanismos de recuperação e sistemas de backup ou redundância.
Resposta da OpenAI
Em um comunicado à Nature, a OpenAI afirmou que segue o princípio de “privacidade desde a concepção” (privacy by design), segundo o qual todos os dados são apagados sem deixar rastros quando o usuário desativa o compartilhamento de informações.
A empresa reitera que, uma vez excluídas, as conversas não podem ser restauradas e que não há sistemas de backup que permitam a recuperação do conteúdo. Para Bucher, o episódio evidencia um vazio de responsabilidade em ferramentas que vêm sendo cada vez mais integradas ao trabalho intelectual.
Veja o comunicado na íntegra:
“Com relação a avisos adicionais e recuperação, exibimos uma mensagem de confirmação antes que um usuário exclua permanentemente uma conversa. No entanto, uma vez excluída, o conteúdo não pode ser recuperado pela interface do usuário, pelas APIs (interfaces de programação de aplicativos) ou pelo suporte, pois isso está de acordo com as melhores práticas de privacidade e os requisitos legais relativos aos dados do usuário.”
Para proteção de dados, recomendamos sempre que os usuários mantenham backups pessoais de seus trabalhos profissionais.
Para mais informações sobre opções de exclusão e arquivamento, consulte nosso artigo de ajuda sobre como excluir e arquivar conversas no ChatGPT.







