用自己的声音训练 AI,会发生什么?
一项由康奈尔科技博士生主导的研究指出,超个性化的辅助交流人工智能(AAC AI),在提升沟通效率的同时,也可能削弱用户的身份特征,并在某些情况下带来隐私侵犯的风险。这一结论来自研究者亲自用自己的真实语音数据训练系统的长期实践。
使用辅助与替代交流(AAC)的博士生托比亚斯·温伯格(Tobias Weinberg),在意识到可以用个人语音数据训练模型后,萌生了这项研究的想法。“反正我已经在打字,那不如看看还能做到什么程度,”他回忆说。
与许多依赖假设用户或实验室模拟的研究不同,温伯格没有让他人承担隐私和身份风险,而是用自己的语音数据来追问一个核心问题:“训练一台机器成为你,究竟意味着什么?”
“我,机器人?”:研究的起点与背景
这个问题最终发展为题为《我,机器人?》(I, Robot?)的研究项目,并于 2026 年 4 月在人机交互领域顶级会议 CHI 2026 上发表。研究聚焦于:当超个性化人工智能被用于辅助交流时,它能带来什么样的承诺,又伴随哪些风险。
该研究由康奈尔科技 Matter of Tech 实验室完成,作者包括:
- 托比亚斯·温伯格(Tobias Weinberg),康奈尔科技博士生;
- Thijs Roumen,康奈尔科技助理教授;
- Ricardo Gonzalez Penuela,康奈尔科技信息科学博士生;
- Stephanie Valencia,马里兰大学助理教授。
七个月记录,三个月实测:AI 介入前就已改变行为
在为期七个月的时间里,温伯格持续记录自己的真实 AAC 交流数据,并用这些数据训练了一个语言模型。随后,他又在日常对话中连续三个月使用这一高度个性化的系统。
出乎他意料的是,仅仅是“被记录”这一事实,就在 AI 真正介入之前改变了他的说话方式。
“我没想到会有这种不适感,”温伯格说。“一旦知道自己在录音,我就不再只是单纯地说话,而是在为未来的数据集‘策划’内容,这直接影响了我在对话中的自由感。”
他的导师、康奈尔鲍尔斯计算与信息科学学院成员 Thijs Roumen 指出,这种张力非常关键:“托比在意的是,他希望自己的语音被记录和被他人感知的方式,与他实际交流的方式之间,存在一种有趣但紧张的关系。这种张力影响了录音过程,引发自我审查,也改变了与模型共处时对情境的敏感度。”
被“净化”的自我:非正式表达率先消失
在长期录音与训练过程中,最先被过滤掉的,是那些非正式、情绪化的表达——例如黑色幽默、八卦、抱怨和发泄等。温伯格刻意避免这些内容进入数据集,以防模型在职业或正式场合生成不合时宜的文本。
结果是,AI 学到的是一个被他称为“净化版的自己”的形象。
“这让我产生了一个至今仍没有明确答案的问题,”他说,“你能否在不同时构建一个针对自己语音的监控系统的前提下,打造一个真正个性化的 AAC 系统?”

情境被抹平:社交线索的缺失与设计难题
在现实生活中,很多话语是否合适,取决于具体情境:
- 在某些场合可以开玩笑,在另一些场合则必须严肃;
- 面对不同对象,表达方式和内容也会截然不同。
但一旦语音数据被大规模收集、汇总并抽离出原本的场景,这些赋予话语意义的社交线索往往会消失。Roumen 指出,这正是此类 AI 系统设计中的一个根本性挑战。
“我们的研究结果表明,超个性化 AAC 需要极其细致的情境信息,”Roumen 说。“你在和谁说话、对话的目的是什么、所处的环境如何,这些因素都会决定系统给出的建议是否合适。”
结构化场景表现出色,复杂社交场景却“带偏话题”
在结构化、相对稳定的环境中,这个个性化模型表现良好:
- 帮助他更顺畅地组织语言;
- 提高表达效率;
- 在需要清晰阐述观点时尤为有用。
但在快速变化的社交场合,问题就显现出来了。温伯格发现,模型有时会把对话推向他并不想去的方向。
“在酒吧里、话题快速切换的时候,或者在工作与私人生活混杂的对话中,模型往往会沿着它熟悉的模式走,而不是我当下真正想说的话,”他说。
不止是 AAC 用户的问题:普遍的自我审查与隐私风险
研究团队强调,这些影响并不仅限于 AAC 领域。
“我们观察到的所有问题——自我审查、隐私侵犯、身份被重塑——都是在一个由我为自己构建、完全由我控制、而且我可以随时关闭的系统中发生的。大多数用户并不具备这样的控制条件,”温伯格指出。
在他看来,当下业界正快速推动这类系统的大规模部署,但一些基础性问题尚未解决:
- 如何在不侵犯隐私的前提下捕捉必要的情境信息?
- 系统如何判断何时、何地、在谁面前应该给出建议?
- 又如何让用户真正掌控这套“调节自己言语”的技术?
技术飞速发展,社会与伦理准备却滞后
Roumen 认为,技术本身的进步速度远快于社会和伦理框架的建设。
“我们的工作一方面展示了个性化人工智能在辅助交流方面的巨大潜力,另一方面也清楚地暴露了其中的风险,”他说。“在这些系统被大规模部署之前,我们需要更认真地思考:
- 何时应该停止录音?
- 如何在不伤害隐私的前提下保留必要的情境信息?
- 又如何确保用户始终对自己的声音拥有最终控制权?”
这项研究提醒人们,当人工智能越来越“像你”时,它不仅在帮你说话,也在悄然影响你是谁,以及你被如何听见。