科学家称调整ChatGPT数据设置后两年研究记录消失,引发对存储风险关注

richlovec 1500_400 (1)
 

一名科学家表示,他在过去两年间持续整理的研究笔记、分析内容与草稿想法,在一次与ChatGPT相关的设置调整后从可访问历史中消失,导致其无法找回自称“全部工作记录”。该事件在网络传播后引发讨论,也被部分报道视为对将对话式AI工具当作主要存储载体的风险提醒。

调整设置后对话历史不可访问

据当事人第一人称叙述,这名名为Jan的研究人员长期将ChatGPT对话界面当作“活的笔记本”,把持续更新的研究记录输入并依赖历史线程回溯与完善。其后,他更改了与对话存储和使用相关的设置,随即发现此前积累的对话线程从历史记录中移除,无法恢复。

Jan在回顾中称,他此前更多关注大型语言模型可能生成错误信息的风险,但未预料到一次配置变更会导致与该工具的全部历史记录消失。他表示,这些被视为实验室日志的对话一旦从服务端存储中删除,“无法恢复”。

“数据同意”选项被指触发记录消失

相关报道指出,此次记录丢失并非系统故障或网络攻击所致,而与一项面向用户的数据控制选项有关。Jan称,他曾试用ChatGPT的“数据同意”设置,该功能用于决定对话是否可用于训练底层模型;在他更改该设置后,既有对话线程从其可访问历史中被移除,进而造成研究记录缺失。

报道提到,Jan未进行并行备份,并将损失归因于其对“数据同意”选项的使用方式。报道同时指出,该选项在隐私、产品改进与存储行为之间的关联,可能使用户在缺乏充分提示的情况下失去对关键内容的唯一访问路径。

学术工作流向对话式工具迁移引发讨论

Jan的经历也引发对研究工作流程变化的关注。其叙述称,过去两年间,他利用对话的连续性在同一线程中推进想法与记录,认为这种“可回到原处继续构建”的体验,使其更倾向于把对话界面当作长期工作空间。

事件传播后,网络讨论出现不同反应。部分评论聚焦于研究人员将重要档案托付给消费级AI产品的做法;也有报道强调,这类使用方式并非个例,并将该事件作为对依赖聊天机器人保存笔记、草稿或代码记录人群的提醒。报道作者Victor Tangermann在一篇文章中提及Jan“丢失”两年“细致”工作,并将原因指向其对相关设置的调整;该报道发布时间为格林威治标准时间上午9:45。

事件引出备份与设置理解问题

围绕该事件的讨论还集中在两点:其一,便捷的检索与“记忆”体验可能让用户将对话界面误认为稳定的长期存储系统;其二,用户对平台设置项的实际影响缺乏充分理解,可能在操作后产生不可逆后果。Jan在叙述中也提到,他对模型能力边界保持谨慎,但对其作为存储载体的可靠性缺少同等程度的警惕。

此外,有观点认为,随着更多研究人员将思考与记录迁移至对话界面,相关机构既有的数据保留与备份规范可能面临更新需求。Jan的案例被视为一个极端但具有代表性的提醒:当关键研究记录仅依赖单一平台或单一入口时,设置变更带来的访问中断可能造成难以弥补的损失。


分享:


发表评论

登录后才可评论。 去登录