大型语言模型

richlovec 1500_400 (1)
 

研究:大型语言模型呈现人类式“我们与他们”群体偏见

研究:大型语言模型呈现人类式“我们与他们”群体偏见

新研究发现,多种主流大型语言模型会从训练文本中“继承”人类社会中的“我们与他们”偏见,并在默认与角色设定等不同条件下表现出对内群体更积极、对外群体更消极的语言模式。研究团队还提出了名为 ION 的缓解方法,可显著降低相关情感差异。

研究:近三分之一新软件代码由人工智能参与编写

研究:近三分之一新软件代码由人工智能参与编写

一项发表在《科学》杂志的最新研究表明,生成式人工智能正在快速渗透软件开发流程。在美国,人工智能辅助的新代码比例从2022年的5%跃升至2025年初的29%,而中国仅为12%。尽管使用率在新手程序员中最高,但真正显著的生产力收益主要集中在资深开发者身上。

研究称人工智能代理在数学上被证明无法完成真实工作

研究称人工智能代理在数学上被证明无法完成真实工作

人工智能代理(AI agents)近来被不少厂商描绘为可替代部分人力的“数字员工”,应用场景涵盖客户支持、软件项目管理乃至企业运营。不过,最新一波研究与讨论将焦点从“是否被过度营销”转向更基础的问题:基于当今大型语言模型(LLM)构建的代理系统,是否在数学层面存在难以跨越的可靠性上限,导致其难以稳定完成端到端的真实工作流程。 形式化证明引发争议 争议的起点是一项形式化证明,研究对象直指以大型语言模

richlovec 1500_400 (1)
 

电力与物理现实为人工智能扩张设限

电力与物理现实为人工智能扩张设限

业内观点认为,人工智能正从“算法与数据”问题,转变为受制于电力、地理、监管与模型能力边界的基础设施问题。数据中心选址受阻、电网承压以及基于语言的大模型局限,正在重塑企业的人工智能布局逻辑。