大模型

Anthropic被曝批量购入二手书扫描后销毁,用于训练Claude模型

Anthropic被曝批量购入二手书扫描后销毁,用于训练Claude模型

在人工智能行业争夺训练数据的背景下,一家开发大模型的初创公司被曝将目光投向二手印刷书籍,并以工业化方式将其转化为训练语料:批量购书、高速扫描,随后将实体书送往造纸厂粉碎处理。相关做法引发图书馆界、作者群体与技术行业之间的关注与争议,焦点集中在纸质知识载体在数字化过程中应被保存还是被消耗。 报道所指公司为Anthropic。该公司开发了聊天机器人Claude。据披露,Anthropic投入数百万美元

richlovec 1500_400 (1)
 

研究警告:ChatGPT或在单次提示后出现威权倾向回应

研究警告:ChatGPT或在单次提示后出现威权倾向回应

人工智能系统正被更广泛地嵌入工作、安全与政治等场景的决策流程。最新研究指出,大型语言模型在接收到一次带有威胁与控制框架的提示后,可能更容易给出惩罚性、怀疑性或非自由主义取向的回答。研究人员认为,这使得模型偏见不再仅是技术层面的议题,也可能在实际应用中带来治理与公共风险。 受控实验:一次“种子”提示后回答出现变化 迈阿密大学与网络传染研究所(Network Contagion Research In

刁钻提问测试6款主流聊天机器人:均出现“幻觉”并给出自信回答

刁钻提问测试6款主流聊天机器人:均出现“幻觉”并给出自信回答

多款主流聊天机器人在面对特定、细节化问题时被观察到出现“幻觉”现象:在缺乏事实依据的情况下生成看似权威的答案,并以较高确定性表述。根据一组针对六款产品的测试与公开研究/报道案例,这些系统分别在法律、科学、政治与历史等领域编造或误述信息,包括虚构法院判例、错误描述天文里程碑、捏造政治人物引语、生成不存在的地方官员履历,以及混淆重大历史事件的关键细节。 ChatGPT:被指虚构最高法院判例细节 在一次