前OpenAI研究员在ChatGPT广告测试周辞职:批评公司“重蹈Facebook覆辙”

richlovec 1500_400 (1)
 

OpenAI在2026年2月9日开始在对话式AI「ChatGPT」中测试广告展示功能。同一周,曾在该公司任职的研究员Zoë Hitzig公开宣布辞职,并在2月11日发表于《纽约时报》(The New York Times,NYT)的评论文章中,以《OpenAI Is Making the Mistakes Facebook Made. I Quit.》(OpenAI正在重蹈Facebook的覆辙,我选择离开)为题,表达了对广告模式引入的强烈担忧。

Zoë Hitzig.jpg

曾参与模型构建与定价、安全方针制定

根据这篇评论文章,Hitzig在OpenAI工作了约两年,期间主要参与AI模型的构建、价格设计(pricing),以及早期安全性政策的制定等工作。

她在文中强调,自己并不认为「广告本身就是不道德或不合伦理」;真正令她不安的是OpenAI当前所选择的整体战略方向。她认为,在现有产品形态和数据基础上引入广告,会带来深层次的结构性风险。

担忧基于私密对话的广告可能操纵用户

Hitzig指出,ChatGPT已经在前所未有的规模上,承接了用户极为私密的对话内容——包括个人烦恼、医疗焦虑、宗教与信仰观念等。用户在与系统互动时,往往会毫无保留地倾诉这些信息。

在她看来,如果以这些对话记录为基础构建广告商业模式,就很可能形成一种极具操纵性的环境:平台可以在高度了解用户心理状态和脆弱点的前提下,向其投放极为精准的广告,从而放大对用户行为和决策的影响力。

OpenAI称广告将清晰标注且不影响回答内容

与Hitzig的批评几乎同步,OpenAI宣布在ChatGPT中启动广告展示测试。根据公司说明,广告会显示在回答内容的下方,并以清晰的方式标注为广告,同时声称广告不会影响模型给出的回答内容。

从商业角度看,广告被视为覆盖生成式AI高昂运算成本的一种潜在收入来源。然而,Hitzig认为,将问题简单归结为「要么上广告,要么限制访问」的二选一,是一种错误的框架。

她在文章中提出了若干替代路径,例如:通过企业级服务收入对个人用户进行交叉补贴;建立拥有独立监督权的治理结构;以及采用由独立机构管理用户数据的「数据信托」(trust)模式等。她主张,应在商业可持续与公共利益之间寻找更具责任感的制度设计,而非直接依赖广告驱动。

以Facebook为前车之鉴

在评论中,Hitzig回顾了Facebook(现Meta)在广告模式驱动下的发展轨迹。她指出,Facebook在早期曾提出一系列关于数据管理和用户控制权的原则,但在以广告收入和互动率(engagement)最大化为目标的过程中,这些原则逐步被削弱甚至被抛弃。

她认为,广告模式天然会形成强烈的激励结构:平台越能抓住用户注意力、越能精细刻画用户画像,就越能提高广告变现能力。这种结构会不断推高平台在数据收集、内容分发和用户行为影响方面的「边界」,从而侵蚀最初设定的安全与伦理底线。

Hitzig担心,OpenAI在引入广告后,可能会在类似的激励机制驱动下,一步步偏离其在安全、隐私和用户控制方面的原始承诺,最终重蹈Facebook的覆辙。

在8亿周活用户规模上导入广告的风险

目前,ChatGPT的每周使用者被认为已达到约8亿人规模。在如此庞大的用户基础上引入广告模式,使得这一决策不仅是单一公司的商业选择,也具有广泛的社会影响。

如何在承担生成式AI巨额运算成本的同时,保证公众对这类基础工具的广泛、可负担的访问,是整个行业共同面临的难题。OpenAI选择通过广告来部分解决这一问题,引发了关于隐私、操纵风险、治理结构以及长期激励的持续争论。

围绕ChatGPT广告化路径的讨论,预计在未来一段时间内仍将持续,并可能影响其他AI企业在商业模式和治理框架上的选择。


分享:


发表评论

登录后才可评论。 去登录