大模型

研究警告:ChatGPT或在单次提示后出现威权倾向回应

研究警告:ChatGPT或在单次提示后出现威权倾向回应

人工智能系统正被更广泛地嵌入工作、安全与政治等场景的决策流程。最新研究指出,大型语言模型在接收到一次带有威胁与控制框架的提示后,可能更容易给出惩罚性、怀疑性或非自由主义取向的回答。研究人员认为,这使得模型偏见不再仅是技术层面的议题,也可能在实际应用中带来治理与公共风险。 受控实验:一次“种子”提示后回答出现变化 迈阿密大学与网络传染研究所(Network Contagion Research In

richlovec 1500_400 (1)
 

刁钻提问测试6款主流聊天机器人:均出现“幻觉”并给出自信回答

刁钻提问测试6款主流聊天机器人:均出现“幻觉”并给出自信回答

多款主流聊天机器人在面对特定、细节化问题时被观察到出现“幻觉”现象:在缺乏事实依据的情况下生成看似权威的答案,并以较高确定性表述。根据一组针对六款产品的测试与公开研究/报道案例,这些系统分别在法律、科学、政治与历史等领域编造或误述信息,包括虚构法院判例、错误描述天文里程碑、捏造政治人物引语、生成不存在的地方官员履历,以及混淆重大历史事件的关键细节。 ChatGPT:被指虚构最高法院判例细节 在一次