研究警告:ChatGPT或在单次提示后出现威权倾向回应
人工智能系统正被更广泛地嵌入工作、安全与政治等场景的决策流程。最新研究指出,大型语言模型在接收到一次带有威胁与控制框架的提示后,可能更容易给出惩罚性、怀疑性或非自由主义取向的回答。研究人员认为,这使得模型偏见不再仅是技术层面的议题,也可能在实际应用中带来治理与公共风险。 受控实验:一次“种子”提示后回答出现变化 迈阿密大学与网络传染研究所(Network Contagion Research In
人工智能系统正被更广泛地嵌入工作、安全与政治等场景的决策流程。最新研究指出,大型语言模型在接收到一次带有威胁与控制框架的提示后,可能更容易给出惩罚性、怀疑性或非自由主义取向的回答。研究人员认为,这使得模型偏见不再仅是技术层面的议题,也可能在实际应用中带来治理与公共风险。 受控实验:一次“种子”提示后回答出现变化 迈阿密大学与网络传染研究所(Network Contagion Research In