研究警告:ChatGPT或在单次提示后出现威权倾向回应
人工智能系统正被更广泛地嵌入工作、安全与政治等场景的决策流程。最新研究指出,大型语言模型在接收到一次带有威胁与控制框架的提示后,可能更容易给出惩罚性、怀疑性或非自由主义取向的回答。研究人员认为,这使得模型偏见不再仅是技术层面的议题,也可能在实际应用中带来治理与公共风险。 受控实验:一次“种子”提示后回答出现变化 迈阿密大学与网络传染研究所(Network Contagion Research In
刁钻提问测试6款主流聊天机器人:均出现“幻觉”并给出自信回答
多款主流聊天机器人在面对特定、细节化问题时被观察到出现“幻觉”现象:在缺乏事实依据的情况下生成看似权威的答案,并以较高确定性表述。根据一组针对六款产品的测试与公开研究/报道案例,这些系统分别在法律、科学、政治与历史等领域编造或误述信息,包括虚构法院判例、错误描述天文里程碑、捏造政治人物引语、生成不存在的地方官员履历,以及混淆重大历史事件的关键细节。 ChatGPT:被指虚构最高法院判例细节 在一次
AI医疗诊断竞赛升温:OpenAI、Google与Anthropic密集发布新工具
OpenAI、Google和Anthropic在数日内相继推出面向医疗场景的大模型工具,集中发力事前授权、理赔和文档等行政流程,但均未获医疗器械审批,也未被允许直接用于临床诊断,监管路径与责任边界仍待厘清。
埃德·齐特隆谈大科技、反弹、繁荣与萧条:称“人工智能让我们看到人们渴望取代人类”
科技通讯作者兼播客主持人埃德·齐特隆因持续质疑生成式人工智能的技术能力与商业可行性而受到关注。他认为,大模型难以兑现外界期待,而围绕算力与数据中心的投入与回报之间存在明显张力。
2026年人工智能行业趋于务实 应用落地与新架构成焦点
业内人士预计,2026年人工智能将从单纯追求规模扩展转向强调新架构、小型模型、世界模型、可靠代理和物理设备落地,重点围绕实际业务场景展开部署。
