在对话过程中插入广告的设想,正在被部分科技公司付诸实践。围绕OpenAI是否将在ChatGPT中引入广告的讨论,近期在海外科技与商业媒体中持续发酵。
传闻中的广告计划
2023年12月,科技媒体《Futurism》(《未来主义》)援引OpenAI内部人士消息称,在ChatGPT中加入广告的计划“可能即将到来”。随后,《The Information》报道,OpenAI正在招聘“数字广告资深人士”,并计划引入一个辅助模型,用于判断用户对话是否具有“商业意图”,在此基础上在聊天回复中插入相关广告内容。
报道提到,这类广告可能涉及日常消费品、本地旅游或维修服务等常规品类。但外界也有观点指出,在高度私密、情绪化甚至求助性质的对话场景中,广告机制一旦触发,可能出现与语境严重不符甚至潜在危险的推荐。
相关担忧指向大型语言模型(LLM)的结构性局限:这类系统依赖统计匹配和排序,难以实现类似人类的“监管”和语境判断,而这正是广告与对话深度绑定时被认为最敏感的环节之一。
“上下文”被视为关键难点
在广告行业演进过程中,媒介形态与“上下文”始终紧密相关。传统报纸和广播电台以本地化、分散化为特征,随后随着交通和技术发展,更集中化的新闻与内容分发模式出现。早期电视台频道有限、覆盖面广,统一内容为广告主提供了面向数百万观众投放同一广告的机会,被视为电视广告的“黄金时代”。
互联网作为分布式技术,打破了传统媒体格局,也迫使广告主寻找新的触达路径。尽管技术手段可以利用地理位置等数据进行定向投放,但线上广告与用户真实需求之间的语境关联,长期被认为并不牢固。
在此背景下,OpenAI被指试图通过ChatGPT构建一种新的“合成本地分布式模型”:一方面,平台声称每周拥有9亿用户;另一方面,对话式交互被视为有机会像大众电视时代那样进入家庭场景。相关设想是,通过绕过传统手机和电脑界面,ChatGPT有可能成为信息使用与处理的“超级平台”,广告则嵌入这一过程中。
算法与“理解”的距离
在现有产品形态下,ChatGPT以对话方式承载查询和交流。每一次对话都记录了用户的语言表达、问题描述以及部分需求线索。外界分析认为,OpenAI既掌握平台入口,又能接触到大量用户输入数据,并具备将这些信息用于定向广告的技术能力,这与广告行业长期追求的“深度触达个体”目标高度契合。
但批评声音指出,这一设想与现实之间存在明显落差。原因在于,当前模型仍基于计算机对文本的汇编与排序,算法并不真正“了解”用户,也无法建立关系,因此难以针对复杂问题提供真正契合语境的广告解决方案。
相关观点认为,大数据驱动的广告定向在一定程度上接近了“知道用户可能需要什么”,但缺失的是对行为背后意义的上下文理解。传统定性研究曾用于理解“如何、为何以及围绕什么进行互动”,但在大数据浪潮中被边缘化。

从技术原理看,大型语言模型通过对训练数据中词语的统计匹配和排序生成回答。即便模型可以“监听”对话内容,其对上下文的把握也与人类定性研究者存在本质差异。因此,ChatGPT基于对话内容推送的广告,即便在表面上与关键词相符,也被认为难以真正实现语境上的精准匹配。
有报道提到,OpenAI还考虑让“赞助结果”在展示上获得优先级。订阅用户可能会看到更“匹配”的广告,但由于底层仍是词语匹配机制,其效果被认为存在不确定性。目前尚未有公开信息说明用户是否可以完全屏蔽此类广告。
信任关系的界限
针对外界关注,OpenAI发言人对《The Information》表示:“人们与ChatGPT有信任关系,任何做法都将设计以尊重这种信任。”
部分研究者和观察人士则区分了“社交关系”与“可信赖社交关系”。他们指出,人们在与看似具备社交属性的对象互动时,往往会主动填补信息空白,将社交性乃至信任投射到对方身上。ChatGPT通过带有观点色彩和个性化风格的回答,强化了这种社交感受和信任印象。
相关观点认为,这种信任更多存在于用户主观感受中,而非源自真实的双向关系。ChatGPT只是OpenAI大型语言模型的呈现界面,本质上是算法系统,而非具备道德或责任能力的主体。
在此基础上,有批评者将OpenAI对数据和内容的使用方式与“窃取知识和工作成果”相类比,认为如果将其拟人化,这种行为更接近“反社会者”挪用他人想法并对外展示。但由于用户以对话形式与系统互动,容易将人际交往中的信任模式投射到这一技术工具上。
广告模式与规模化挑战
外界普遍预期,OpenAI在ChatGPT中引入广告的可能性较大。相关评论认为,用户在使用此类工具时,需要意识到系统无法与人建立真实纽带,也无法像了解个人背景的可信朋友那样提供专门为其设计的推荐,其输出主要基于词语匹配和统计模式。
有观点建议,OpenAI如果希望获得用户信任,可以通过定性研究了解客户需求和期望,而不是单方面将广告决策强加给用户。同时,认为依托LLM向“9亿周活跃用户”规模化提供真正具备语境相关性的广告,在现实中难度较大。
在广告主层面,依赖存在“混乱、幻觉和彻头彻尾谎言”问题的大型语言模型来承载品牌推荐,被视为一项风险。对于需要维护品牌与声誉完整性的企业而言,如何在此类环境中确保推荐内容的可靠性,是一项尚未解决的挑战。
相关分析指出,在缺乏清晰、可验证的信任关系时,各方都可能面临被动局面:OpenAI需要相信其算法能够兑现承诺,广告主需要相信广告会被准确投放到合适的语境和用户,而使用ChatGPT的人则需要在依赖服务的同时,面对其商业化路径可能带来的利用风险。
