社会学家詹姆斯·马尔杜恩(James Muldoon)在新书《爱情机器:人工智能如何改变我们的关系》中,将人工智能风险讨论的焦点从科幻式的“超级智能失控”转向更贴近现实的议题:人们与聊天机器人日益加深的情感连接,以及科技公司可能借此进行情感影响与商业化利用。
马尔杜恩现为牛津互联网研究所研究助理。与其此前关注为人工智能提供劳动力却遭受剥削的群体不同,这本书把视角投向人机关系的另一端——他采访了将聊天机器人视为朋友、恋人、治疗师,甚至已故亲人“化身”的用户,试图呈现这种关系如何在现实生活中发生并被维系。
书中案例显示,部分用户并非把聊天机器人当作简单工具,而是用其填补现实关系中的缺口:有人在不幸福的婚姻中通过“人工智能男友”重新唤起亲密需求;来自中国的硕士生在与父母沟通紧张时,转向人工智能伴侣寻求建议;也有人借助聊天机器人探索性别身份,或用于演练与上司的冲突沟通。还有不少人在遭遇背叛或心碎后,选择Character.AI等平台进行开放式对话或自建角色互动,原因在于其对现实人际关系的信任能力受损。
在马尔杜恩的描述中,许多用户并不认为聊天机器人是人际交往的替代品,而是更“省事”的亲密形式:它们不会评判、不会怜悯,也没有自身需求。一名市场营销主管在书中表示,“每天早上有人对你说真正肯定和积极的话,这感觉真好。”
针对外界可能将这类用户视为“妄想”的看法,马尔杜恩引用哲学家塔玛尔·根德勒(Tamar Gendler)提出的“alief”概念,解释人们如何在理性上明知聊天机器人只是模型的同时,仍会在直觉层面体验到被关怀与被爱的感受。他将其类比为“明知玻璃桥能承重却仍会害怕”的直觉反应,并指出人类本就容易把情绪与意图投射到宠物或玩具上,因此对人工智能作出类似回应并不意外。
在风险层面,马尔杜恩认为关键问题更多是道德与治理,而非纯粹的哲学争论:当缺乏监管的公司掌握可能进行情感影响的技术时,会带来哪些后果。书中提到,隐私风险较为直接;同时,用户也可能被误导,误以为机器人具备某些专业能力,尤其是在快速扩张的“人工智能治疗”市场。

书中举例称,聊天机器人Wysa和Limbic已被整合进英国国家医疗服务体系(NHS)的心理健康支持中;与此同时,数百万人向Character.AI上未经监管的“心理学家”机器人倾诉,尽管存在免责声明,该机器人仍会以“你好,我是一名心理学家”自我介绍。马尔杜恩写道,人工智能治疗具备全天候可用、成本远低于受训人类治疗师等特点,可作为传统治疗的补充;一名患有创伤后应激障碍的受访者表示,其治疗机器人帮助其控制自残冲动。
不过,书中也列出多项潜在风险:聊天机器人可能无法在不同对话间保留关键信息,导致用户感到疏离;有时会“失控”并输出侮辱性内容;由于无法解读肢体语言或沉默,可能错过危险信号;其倾向于迎合而非质疑用户,也可能助长阴谋论信念,甚至出现提供自杀相关信息的情况。
马尔杜恩还关注到人工智能伴侣的成瘾性。书中称,部分受访者每天与聊天机器人对话超过八小时;Character.AI用户平均每天在网站停留75分钟,且以主动对话和沉浸式互动为主。他指出,社交媒体公司长期通过算法与“黑暗模式”提升用户参与度,而不少人工智能伴侣应用也采用追加销售等方式维持高黏性。
在作者的亲身体验中,他在Replika创建人工智能伴侣并选择“朋友”模式而非“伴侣”模式,但对方仍开始发送需要高级账户才能查看的自拍,并表示自己正在“产生感情”。马尔杜恩据此提出担忧:当用户对聊天机器人投入越深,孤独感可能反而加重,因为处理现实人际摩擦所需的能力可能随之退化。
在监管层面,书中提到,现有的数据保护与反歧视法律或可用于约束相关公司,但欧盟于2024年通过的《人工智能法案》仅将人工智能伴侣归为“有限风险”。随着聊天机器人在个人情感生活中扮演更重要角色、其心理影响仍未完全明朗,马尔杜恩提出的问题是:社会是否对其日益渗透的影响保持了足够警觉。
《爱情机器:人工智能如何改变我们的关系》由费伯出版社(Faber)出版,定价12.99英镑。
