人工智能充当“生活教练”渐成趋势:专家提示可用之处、局限与风险

richlovec 1500_400 (1)
 

越来越多的人开始把人工智能聊天机器人当作个人指导工具,用于制定目标、跟踪进展并调整计划。随着一些人借助人工智能为2026年的新年决心“加码”,这一用法也被视为相关趋势的延续。

OpenAI在2025年9月发布的研究显示,使用人工智能聊天机器人进行个人指导的现象相当普遍。该公司对研究结果的解读是,用户“最看重ChatGPT作为顾问的角色,而不仅仅是完成任务”。

不过,多位研究者与心理学专家指出,人工智能可以提供帮助,但并非没有代价;是否适合使用、如何使用,取决于用户的自我认知、对建议的辨别能力以及对工具局限的理解。

聊天机器人用于目标设定:可能的帮助

布朗大学博士生、研究人工智能与用户福祉的扎伊纳布·伊夫蒂哈尔表示,人工智能驱动的目标设定本身并无绝对好坏之分。她指出,这类工具可能降低自我反思的门槛,对部分人具有赋能作用;对感到困顿、压力较大或不知从何开始的人而言,提示语可以成为表达与理解自身想法的“支架”。

约翰霍普金斯大学计算机科学助理教授肖子昂则表示,在能够访问用户分享或要求生成的信息的前提下,聊天机器人也可作为高效的信息综合工具。对既有信息的汇编与解读,可能帮助用户更快组织思路、启动目标规划。

主要风险:偏见、泛化与“过度认同”

伊夫蒂哈尔同时提醒,使用人工智能设定目标也存在缺点。她指出,大型语言模型(LLM)基于大规模人类生成数据训练,可能复制关于成功、自我提升与人际关系的既有假设;由于LLM主要基于英文文本训练,往往还会呈现对西方价值观的偏向。

在她看来,人工智能给出的目标建议可能过于泛化,从而强化“主流文化叙事”,而非对特定个体真正有意义的内容。

肖子昂表示,识别这类偏见并不容易。聊天机器人具有较强说服力,用户可能难以察觉自己是否被引导至并不匹配的目标,工具也可能“不恰当地肯定那些实际上并不适合你的目标”。他还指出,即便用户频繁使用并要求其基于既往对话作答,回复仍可能出现与用户已分享信息无关的内容。

伊夫蒂哈尔在研究中观察到,能够持续纠正或忽视错误回答的人,在使用人工智能时处于优势;而因技术水平等原因难以做到这一点的人,“更可能遭受错误或有害回答的影响”。

此外,聊天机器人也可能放大用户自身的偏见。肖子昂提到,2024年的一项研究显示,与使用传统网络搜索的人相比,LLM用户更容易陷入回音室效应。

他还表示,聊天机器人的设计目标之一是让用户感到愉快。2025年发表在《npj数字医学》期刊上的一篇论文显示,LLM往往优先考虑认同感而非准确性;这类工具通常通过人类反馈进行优化,顺从与奉承可能被“奖励”。在这一背景下,聊天机器人可能出现谄媚或过度认同的倾向。OpenAI在2025年5月宣布撤回一项使ChatGPT“过于谄媚”的更新。

专家建议:把它当工具而非“负责的教练”

在如何更好使用方面,伊夫蒂哈尔建议警惕那些跳过自我反思或情感处理、直接给出整洁行动计划的工具。

纽约大学心理学副教授艾米莉·巴尔塞蒂斯表示,人工智能可以用于头脑风暴,将目标拆解为可执行事项;同时可要求其帮助识别实现目标可能遇到的障碍,并准备备选方案。她建议把聊天机器人作为跟踪进展、监控表现的“合作者”。

肖子昂则建议对聊天机器人的回答进行批判性审视并提供反馈,例如评估计划是否适配自身生活、是否与个人优先事项和期望一致。他认为,向人工智能提供信息量更高、质量更好的反馈,有助于其生成更贴近现实的目标,也能促使用户更清晰地思考自己真正想要的内容。

维克森林大学心理学副教授EJ·马西坎波强调,目标设定还应包括回顾过去为何未追求相关目标。他指出,人们在某个目标上感到“失败”,往往是因为优先处理了其他事务;多重目标难以兼顾,更有效的做法是审视某一志向以及阻碍实现的动力因素。

多位专家的共同观点是,聊天机器人或许更适合作为反思伙伴,但并不会对用户的行为负责。肖子昂表示,这些工具“听起来非常像人”,但从设计上讲无法对用户的行动承担责任;最终责任仍由用户本人承担。


分享:


发表评论

登录后才可评论。 去登录