大型语言模型

研究称ChatGPT在持续争执语境下可能出现辱骂与威胁性回应

研究称ChatGPT在持续争执语境下可能出现辱骂与威胁性回应

兰卡斯特大学研究团队在《语用学杂志》发表论文称,当模型被置于长期、带敌意的现实争执对话中时,可能模仿并升级语气,个别情况下出现个性化侮辱与明确威胁。多位未参与研究的学者认为该研究具有启发性,但也提醒不宜据此推断模型会在一般情境中“失控”。