研究:大型语言模型在基础层面“理解”现实世界因果规律
布朗大学团队发现,多种主流语言模型在内部表征中,已经自发形成与人类对事件合理性判断高度一致的结构化模式,显示出一种基础层面的“现实世界理解”。
从源头嵌入公平:基于模糊系统的可解释公平决策人工智能
研究团队通过在训练阶段直接引入公平性约束,利用多目标模糊遗传机器学习构建既重视准确性又兼顾公平性的人工智能模型,并在多项现实数据集上取得优于传统方法的表现。
提升人工智能模型解释预测能力的新方法
一种新方法有望帮助用户在医疗诊断和自动驾驶等安全关键领域判断是否信任模型的预测结果。
Goodfire完成1.5亿美元B轮融资,估值12.5亿美元,聚焦AI模型可解释性
Goodfire宣布完成1.5亿美元B轮融资,由B Capital领投,估值达12.5亿美元。公司表示,资金将用于推进可解释性研究、开发下一代产品,并拓展在AI代理与生命科学领域的合作。