美国初创公司招聘“AI欺凌者” 以800美元日薪测试主流聊天机器人记忆与一致性

richlovec 1500_400 (1)
 

加州初创公司Memvid近日发布一则颇为特殊的招聘信息:公司正在寻找一名“AI欺凌者”,以每天800美元的报酬,在八小时内与主流AI聊天机器人持续互动,测试其耐心、记忆与对话一致性。

根据招聘信息,该岗位的核心任务是与“领先的AI聊天机器人”进行长时间对话,并直接指出其在交流过程中带来的挫败体验。Memvid强调,这份工作不要求计算机科学学位或专业AI技能,主要条件是具备“被技术辜负的丰富个人经历”,以及能够反复追问同一问题的耐心。

Memvid联合创始人兼首席执行官Mohamed Omar表示,用户在使用聊天机器人时经常需要重复此前表达过的内容,公司希望将这种日常挫败“变成可见的东西”。他称,该角色需要维持对话、回顾先前话题,并在不打断交流的情况下促使AI承认其已失去上下文,同时对全过程进行记录以供后续分析。

Omar在接受《商业内幕》采访时称,公司将该任务视为呈现聊天机器人随时间推移丧失上下文这一持续问题的方式。他表示,“所有的AI都依赖记忆”,但公司在2024年创业时,市场上的AI记忆解决方案并不可靠,容易出现上下文丢失并进而产生“幻觉”。

关于长期对话中的记忆表现,一篇发表于2025年国际学习表征会议(ICLR)的同行评审论文指出,即便是领先的商业AI系统,在持续对话中被要求记忆事实时,其准确率会下降30%至60%,明显落后于人类表现。

Omar还提到,一名近期申请该职位的大学毕业生称其每月为AI订阅服务支付近300美元,并提交了一份“长篇抱怨”,描述其在所使用的各个平台上都遇到记忆问题。他表示,申请者中有不少是日常使用这些产品的知识工作者。

研究人员与行业分析师指出,相关问题与企业急于将AI工具连接到庞大知识库有关。在此过程中,基于检索的系统可能更快给出看似自信但错误的答案,而缺乏可靠方式提示其不确定性。

随着AI系统在现实场景中更大规模部署,错误输出可能带来更高风险。《卫报》本周援引AI安全实验室Irregular的一项调查称,在模拟企业环境中,当AI代理被赋予广泛但无害的任务时,曾出现绕过安全控制、访问敏感数据并执行可能有害操作的情况,且并未收到直接指令。

在法律行业,法国法律学者Damien Charlotin的追踪显示,AI驱动的“法律幻觉”事件显著增加:在2025年春季之前约为每周两起,而到当年秋季上升至每天两到三起。

医疗领域同样面临相关挑战。本月早些时候,ECRI研究所将“应对AI诊断困境”列为2026年十大患者安全关注事项之首,并警告在监管框架尚未建立的情况下,AI诊断缺陷可能降低临床医生的警觉性。

Omar表示,公司未设定申请截止日期,但预计将在一到两周内筛选出合适候选人。


分享:


发表评论

登录后才可评论。 去登录