Professor perde dois anos de trabalho após desativar uma função no ChatGPT

Fonte: Redação

O professor Marcel Bucher, da Universidade de Colônia, na Alemanha, perdeu cerca de dois anos de trabalho acadêmico após ter todas as suas conversas e pastas de projetos apagadas do ChatGPT com um único clique. O material foi excluído quando ele desativou uma opção de compartilhamento de dados da plataforma, sem aviso prévio e sem possibilidade de recuperação.

Bucher relata, em um artigo na Nature, que havia passado a usar o ChatGPT de forma intensiva poucos anos depois do lançamento da ferramenta. Assinante do plano pago ChatGPT Plus, da OpenAI, ele incorporou o sistema de inteligência artificial à rotina profissional como um assistente diário. A ferramenta era usada para redigir e-mails, elaborar descrições de disciplinas, estruturar pedidos de financiamento, revisar artigos acadêmicos, preparar aulas, criar provas e analisar respostas de estudantes, além de apoiar atividades em sala de aula.

Segundo o professor, o principal valor do ChatGPT não estava na precisão absoluta das respostas, mas na continuidade do ambiente de trabalho. O sistema mantinha o contexto das conversas, permitia retomar rascunhos anteriores e funcionava como uma espécie de arquivo vivo do processo intelectual. Ciente das limitações dos modelos de linguagem — que podem gerar informações incorretas com aparência de segurança —, Bucher diz que confiava na estabilidade e na organização do espaço de trabalho oferecido pela plataforma.

Em agosto, ao decidir desativar temporariamente a opção de “consentimento de dados”, Bucher queria apenas testar se continuaria tendo acesso às funcionalidades do modelo sem autorizar o uso de suas informações pela OpenAI.

A mudança, no entanto, teve um efeito imediato e irreversível: todas as conversas foram apagadas e as pastas de projetos ficaram vazias. Não houve alerta, aviso ou opção de desfazer a ação. Ao acessar a conta, encontrou apenas uma página em branco.

O professor ainda conseguiu preservar partes do material, graças a cópias parciais que havia salvo anteriormente. Mesmo assim, grande parte do conteúdo, incluindo projetos de pesquisa, materiais didáticos e rascunhos de publicações, foi perdida de forma definitiva.

A princípio, Bucher acreditou que se tratava de um erro técnico. Tentou acessar a conta por diferentes navegadores, dispositivos e redes, limpou o cache, reinstalou o aplicativo e alterou as configurações diversas vezes. Nenhuma das tentativas surtiu efeito.

Ao procurar o suporte da OpenAI, ele afirma ter recebido inicialmente respostas automáticas geradas por um agente de inteligência artificial. Apenas após insistência teria sido atendido por um funcionário humano, que teria confirmado a perda definitiva dos dados. Segundo a empresa, como relata o professor, as informações haviam sido excluídas de forma permanente e não poderiam ser recuperadas.

O professor afirma que o conteúdo apagado ia muito além de anotações esporádicas ou conversas informais. As pastas continham cadeias de diálogos usadas para desenvolver pedidos de financiamento, estruturar cursos, revisar textos acadêmicos e analisar provas, uma base intelectual construída ao longo de dois anos.

O caso ocorre em um contexto de crescente estímulo ao uso de ferramentas de IA generativa no ensino e na pesquisa. Enquanto professores e universidades testam a incorporação dessas tecnologias à rotina acadêmica, a experiência de Bucher expõe, segundo ele, uma fragilidade estrutural: a ausência de padrões acadêmicos de confiabilidade, proteção e responsabilização.

Para o professor, uma ferramenta capaz de apagar anos de trabalho com um único comando não pode ser considerada totalmente segura para uso profissional.

Como assinante pagante, ele esperava a existência de salvaguardas mínimas, como avisos claros sobre exclusões irreversíveis, mecanismos de recuperação e sistemas de backup ou redundância.

Resposta da OpenAI

Em um comunicado à Nature, a OpenAI afirmou que segue o princípio de “privacidade desde a concepção” (privacy by design), segundo o qual todos os dados são apagados sem deixar rastros quando o usuário desativa o compartilhamento de informações.

A empresa reitera que, uma vez excluídas, as conversas não podem ser restauradas e que não há sistemas de backup que permitam a recuperação do conteúdo. Para Bucher, o episódio evidencia um vazio de responsabilidade em ferramentas que vêm sendo cada vez mais integradas ao trabalho intelectual.

Veja o comunicado na íntegra:

“Com relação a avisos adicionais e recuperação, exibimos uma mensagem de confirmação antes que um usuário exclua permanentemente uma conversa. No entanto, uma vez excluída, o conteúdo não pode ser recuperado pela interface do usuário, pelas APIs (interfaces de programação de aplicativos) ou pelo suporte, pois isso está de acordo com as melhores práticas de privacidade e os requisitos legais relativos aos dados do usuário.”

Para proteção de dados, recomendamos sempre que os usuários mantenham backups pessoais de seus trabalhos profissionais.

Para mais informações sobre opções de exclusão e arquivamento, consulte nosso artigo de ajuda sobre como excluir e arquivar conversas no ChatGPT.

Compartilhe:

WhatsApp
Facebook
Twitter
LinkedIn
Pinterest
Telegram
+ Relacionadas