十八个月前,业界一度认为人工智能的发展路径有望不同于社交媒体:技术尚未集中在少数大型科技公司手中,也尚未围绕监控和变现用户注意力构建商业模式。
如今,这一局面正在发生变化。多家大型科技公司开始在人工智能搜索和聊天产品中测试和引入广告,一些安全和数据科学领域的研究者认为,这预示着人工智能产业正向以操控用户行为为核心的“注意力经济”模式靠拢。
大型科技公司加速布局 AI 广告
2024年底,OpenAI推出了ChatGPT搜索功能,2025年10月又发布了自有浏览器ChatGPT Atlas。两项产品被视为其商业策略的重要调整,标志着围绕在线行为数据和广告收入的新一轮竞争开启。
公开信息显示,这一转向与OpenAI早期表态形成对比。该公司首席执行官Sam Altman曾表示,广告与人工智能的结合“令人不安”,而目前的说法则是,广告可以在人工智能应用中投放,同时维持用户信任。部分用户已在社交平台上猜测,自己在ChatGPT回答中看到的是付费推广内容,显示出对这一承诺的质疑。
OpenAI并非个案。2024年,人工智能搜索公司Perplexity开始在其产品中尝试广告投放;数月后,微软在其Copilot人工智能中引入广告;谷歌的搜索AI模式中广告展示比例上升,亚马逊的Rufus聊天机器人也开始呈现广告内容。
两位长期研究安全与数据问题的学者指出,这些动向表明,人工智能公司可能会通过影响用户行为,为广告客户和投资者创造收益。他们认为,引导人工智能发展方向、避免其被私人利益过度利用的时间窗口正在缩短。
搜索与广告模式的路径依赖
从功能上看,ChatGPT搜索和Atlas浏览器并非全新概念。Meta、Perplexity以及早期版本的ChatGPT都已提供类似的人工智能搜索能力,谷歌和微软也早已将人工智能集成进各自浏览器。
引发担忧的在于商业定位。上述学者认为,搜索业务的成熟盈利路径基本只有一种,即由谷歌在过去二十余年中建立并强化的广告模式。
公开资料显示,谷歌在美国联邦法院被裁定为垄断者,自2001年以来,其广告收入累计超过1.6万亿美元。外界通常将谷歌视为网页搜索公司,或视频平台(YouTube)、电子邮件服务(Gmail)、手机与操作系统供应商(Android、Pixel),以及人工智能公司(Gemini)。但这些产品在财务结构中多为广告业务的支撑环节。广告收入通常占谷歌总收入的80%至90%,其他业务主要用于收集用户数据并导流至广告体系。
在经历长期市场支配地位后,谷歌搜索结果页面的呈现方式被认为更符合公司商业利益,而非用户需求。早期用户对其“即时找到有用信息”的能力印象深刻,而到2025年,搜索结果页面中充斥大量质量较低、往往由人工智能生成的内容,以及为引流至亚马逊销售页面而存在的“联盟营销”网站,付费广告与自然搜索结果在视觉上有时难以区分。
在此背景下,部分广告主和行业观察人士认为,人工智能驱动的广告将成为广告业务的重要方向。大型科技公司围绕人工智能广告的规划,正在对现有行业格局产生影响。
对话式广告的说服力风险
与传统网页搜索相比,嵌入人工智能搜索和大模型对话中的付费内容,被认为可能以更隐蔽的方式影响用户的思维、消费决策甚至个人信念。

原因在于,人工智能系统可以与用户进行持续互动,围绕具体问题、关切和想法进行回应,而不仅仅是呈现静态网页链接。这种交互方式被比作“读教科书”与“直接与作者对话”的差别。
例如,当用户与人工智能代理讨论旅行计划时,系统推荐某家航空公司或酒店连锁,外界难以判断其依据是客观匹配结果,还是因为每次提及该品牌平台即可获得回扣。类似问题也可能出现在政治议题上:模型的回答是否受到付费方或企业所有者偏好影响,外界难以从表面内容中辨别。
已有研究对人工智能在说服方面的效果进行了量化评估。2023年12月,一项涵盖121项随机试验的荟萃分析报告称,人工智能模型在改变人们认知、态度和行为方面与人类同样有效。另一项涵盖八项研究的荟萃分析也得出结论称,在说服力表现上,“人工智能大型语言模型与人类无显著整体差异”。
相关研究者指出,这种影响不仅可能改变用户购买何种产品或在选举中支持谁,还可能像搜索引擎优化那样,反向塑造人类的表达方式。为了在人工智能模型的输出中获得更高“曝光”,线上内容的写作和交流方式可能会逐步向迎合模型偏好的方向调整。
信任、监管与公共选项
上述学者认为,当前人工智能平台在可信度方面面临的挑战,与搜索引擎和社交媒体平台类似,问题核心不在技术本身,而在于平台所有者的优先事项及运营目的。
用户通常难以掌握输入人工智能系统的数据范围、数据被分享给哪些主体以及具体用途。在将设备和服务接入人工智能平台、向其提问或考虑采纳其推荐时,这一信息不对称被视为重要风险点。
在政策层面,研究者指出,公众可以要求政府对企业使用人工智能的方式设定边界。例如,在美国,国会可以确立消费者对个人数据的控制权,类似欧盟现有安排,并设立专门的数据保护执法机构,参照多数发达经济体的做法。
他们还提出,各国政府可以投资建设“公共人工智能”——由公共机构开发、向社会普遍开放、运行透明并接受公共监督的模型。同时,政府可以限制企业利用人工智能合谋剥削用户,例如禁止为香烟等危险产品投放广告,并要求披露付费代言关系。
在商业层面,科技公司普遍寻求差异化,尤其是在曾被视为“突破性”的人工智能能力迅速商品化、可在普通手机上运行的背景下。构建“值得信赖的服务”被视为潜在的差异化方向之一。
目前尚不清楚OpenAI、Anthropic等公司能否依靠ChatGPT Plus、ChatGPT Pro、Claude Pro等订阅服务维持可持续盈利。如果希望持续说服消费者和企业为高级服务付费,研究者认为,这些公司需要在透明度、隐私保护、可靠性和安全性方面做出可验证的长期承诺。
文章最后指出,未来人工智能的商业模式尚未明朗,但可以确定的是,消费者不希望在明知或不知情的情况下被人工智能系统利用。
文末署名显示,Bruce Schneier为哈佛肯尼迪学院公共政策兼职讲师,Nathan Sanders为哈佛大学伯克曼克莱因互联网与社会中心研究员。文章原载于The Conversation,并依据知识共享许可协议转载。
