新研究:人工智能难以客观量化“美”
弗吉尼亚大学数据科学学院的分析发现,用人工智能给人类外貌打分,更容易放大数据中的偏见,而非揭示所谓普遍的美学标准。
研究:大型语言模型在内容审核中暗藏政治偏见
昆士兰大学团队发现,大型语言模型在扮演不同政治角色时,会在不显著影响整体准确率的前提下,引入稳定的一致性意识形态偏见,从而影响在线仇恨内容审核的公正性。
“亲爱的AI,我是自闭症者,我该去参加这个派对吗?”
一项来自弗吉尼亚理工大学的新研究发现,当用户向大型语言模型披露自己是自闭症者时,AI给出的建议会明显朝着刻板印象方向偏移,尤其是在社交和恋爱决策上。
内置提示指导工具可提升用户对生成式AI偏见的认知
研究团队在一款文本到图像生成式AI应用中嵌入“包容性提示指导”工具,发现该工具能提高用户对算法偏见的认知和编写包容性提示的信心,同时也带来一定的使用挫败感。
人工智能如何评判人类:隐藏在算法后的信任逻辑
新研究发现,先进人工智能在“信任”人类时,既能抓住人类判断的关键要素,又以更僵硬、更系统化的方式放大偏见,并在不同模型间呈现出截然不同的道德取向。
研究称大型语言模型在“信任”评估中呈现结构化偏见
耶路撒冷希伯来大学研究显示,大型语言模型在模拟对人的“信任”判断时,会形成类似人类的结构化评估框架,但应用方式更为僵化,并在金融等情境中表现出更系统、更一致的人口统计偏见。
研究称ChatGPT偏爱“伪文学”无稽文本引发警示
一位德国学者发现,OpenAI的GPT模型在评估文本时,往往对充满“伪文学”色彩的无稽之谈给出高分,这一现象被认为可能对人工智能发展带来风险。
研究:提醒人类决策偏见会让人工智能显得更可接受
一项跨国调查发现,当人们先被提醒人类决策存在偏见时,人工智能在招聘等公共决策中的应用会被视为更一致、更公正,从而更易被接受。
研究指存在偏见风险后,埃塞克斯警方暂停使用实时面部识别摄像头
信息专员办公室称,埃塞克斯警方在发现潜在准确性与偏见风险后暂停部署LFR,并提醒其他警队采取缓解措施。
研究警告:ChatGPT或在单次提示后出现威权倾向回应
人工智能系统正被更广泛地嵌入工作、安全与政治等场景的决策流程。最新研究指出,大型语言模型在接收到一次带有威胁与控制框架的提示后,可能更容易给出惩罚性、怀疑性或非自由主义取向的回答。研究人员认为,这使得模型偏见不再仅是技术层面的议题,也可能在实际应用中带来治理与公共风险。 受控实验:一次“种子”提示后回答出现变化 迈阿密大学与网络传染研究所(Network Contagion Research In