大型语言模型

richlovec 1500_400 (1)
 

反向智能:建筑学生将新型人机交互带入厨房

反向智能:建筑学生将新型人机交互带入厨房

麻省理工学院建筑系学生设计了一款名为“Kitchen Cosmo”的智能厨房设备,利用大型语言模型(LLM)实现实时、物理交互,帮助用户创造个性化菜谱,推动人工智能从屏幕走向现实生活。

richlovec 1500_400 (1)
 

研究称AI聊天机器人或加剧“邓宁-克鲁格效应”:高自信与低校准并存

研究称AI聊天机器人或加剧“邓宁-克鲁格效应”:高自信与低校准并存

人工智能助手常被视为减少人类偏见的工具,但多项研究与测试结果显示,聊天机器人在输出不确定信息时往往仍呈现出较高自信,并可能影响用户对自身能力的判断。一些研究者据此指出,相关系统在“应当谨慎时却显得笃定”的表现,与心理学所称的邓宁-克鲁格效应(能力不足者更易高估自身水平)存在相似之处,并已从实验现象延伸为安全与治理层面的现实议题。 人机协作提升得分,但削弱自我评估准确性 围绕大型语言模型(LLM)的

提升大型语言模型能力的新方法

提升大型语言模型能力的新方法

MIT-IBM Watson AI实验室的研究人员开发了一种表达性更强的架构,能够在大型语言模型中实现更好的状态跟踪和长文本的顺序推理。

辛顿警示:基于大型语言模型的企业工具或难满足合规与审计要求

辛顿警示:基于大型语言模型的企业工具或难满足合规与审计要求

被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)近期在公开表态中对企业界快速推进大型语言模型(LLM)商业化提出质疑。在他看来,当前一代生成式人工智能系统在可靠性、可控性与可审计性方面存在结构性缺陷,难以与企业对准确性、问责制与安全性的要求相匹配。相关观点也与行业中企业人工智能项目高失败率的现实形成呼应。 辛顿:生成式系统“根本上不可靠”,难以与企业约束对齐 辛顿长期参与并推

研究:大型语言模型呈现人类式“我们与他们”群体偏见

研究:大型语言模型呈现人类式“我们与他们”群体偏见

新研究发现,多种主流大型语言模型会从训练文本中“继承”人类社会中的“我们与他们”偏见,并在默认与角色设定等不同条件下表现出对内群体更积极、对外群体更消极的语言模式。研究团队还提出了名为 ION 的缓解方法,可显著降低相关情感差异。

研究:近三分之一新软件代码由人工智能参与编写

研究:近三分之一新软件代码由人工智能参与编写

一项发表在《科学》杂志的最新研究表明,生成式人工智能正在快速渗透软件开发流程。在美国,人工智能辅助的新代码比例从2022年的5%跃升至2025年初的29%,而中国仅为12%。尽管使用率在新手程序员中最高,但真正显著的生产力收益主要集中在资深开发者身上。