OpenCog Hyperon:在大型语言模型之外探索通用人工智能路径

richlovec 1500_400 (1)
 

对于大多数互联网用户而言,生成式人工智能几乎等同于人工智能本身。以 GPT、Claude 为代表的大型语言模型(LLM)已成为公众接触人工智能的主要入口。这类模型能够熟练处理自然语言、生成内容,并在日常应用中展现出较强的实用性和娱乐性。

在专业研究和开发领域,人工智能的目标远不止于此。研究人员、技术专家和开发者普遍将通用人工智能(AGI)视为终极方向。与之相比,当前的大型语言模型被视为“狭义人工智能”,其优势集中在特定任务和特定数据分布之内,难以跳出训练范畴解决更广泛、更抽象的问题。

LLM 的能力与边界

生成式人工智能的核心机制是概率关联。当大型语言模型回答问题时,其本质是在既有训练数据基础上,计算最可能的词序列,而非以人类意义上的“理解”来给出答案。在大多数场景中,这种基于模式匹配的生成足以产生流畅且看似合理的输出。

然而,这类模型的局限性也被广泛讨论。其中之一是“幻觉”现象,即输出在形式上合乎语境,但在事实层面存在错误。此外,在复杂问题求解方面,大型语言模型缺乏系统化推理能力:当训练数据中不存在相关模式时,它们难以基于已知事实进行逻辑推导,进而得出新的结论。

与此形成对比的是,通用人工智能通常被定义为能够真正理解并应用知识的系统,不仅能给出答案,还能展示清晰的推理过程。这类系统被认为需要更完善的推理机制、记忆管理能力以及在有限数据条件下的泛化能力。目前,AGI 仍处于长期探索阶段,时间表存在较大分歧。

在这一背景下,深度学习模型收益递减和结构性限制的问题,推动业界和学界寻找更接近“认知”层面的新路径。神经符号人工智能正是在这一需求下受到关注。

神经符号路径与 OpenCog Hyperon

SingularityNET 将 OpenCog Hyperon 定位为下一代 AGI 研究平台,试图在统一的认知架构中整合多种人工智能模型。与以大型语言模型为中心的系统不同,Hyperon 以神经符号集成为基础,目标是在同一框架内同时支持从数据中学习和对知识进行推理。

所谓神经符号人工智能,是将神经网络的学习能力与符号系统的逻辑推理机制交织在一起,使两者相互作用、相互增强。通过在统计学习之外引入结构化、可解释的推理过程,这一思路试图突破纯统计模型在认知层面的关键限制。

在 OpenCog Hyperon 中,这一思路体现在多个技术组件的组合上。其核心架构融合了概率逻辑、符号推理、进化式程序合成以及多智能体学习等要素,旨在为更复杂的认知过程提供支撑。

Atomspace 元图与 MeTTa 语言

OpenCog Hyperon 的基础数据结构是 Atomspace 元图。这一元图被描述为一种灵活的图结构,用于在同一基质中表示多种类型的知识,包括陈述性知识、程序性知识、感官相关信息以及目标导向信息。通过在图中编码关系和结构,系统可以在此基础上开展推理、逻辑演绎和上下文相关的推断。

在此框架下,Hyperon 还引入了 MeTTa(Meta Type Talk)语言,作为面向 AGI 开发的专用编程语言。与 Python 等通用编程语言不同,MeTTa 被设计为一种“认知基质”,融合逻辑编程和概率编程的元素。

MeTTa 程序直接在 Atomspace 元图上操作,通过查询和重写知识结构来实现功能,并支持自我修改代码。这一特性被视为构建能够学习如何自我改进系统的重要能力之一。

作为通向 AGI 的推理尝试

在 Hyperon 的设计中,神经符号方法被用于应对纯统计人工智能在多步推理任务上的不足。抽象问题和复杂推理往往超出单纯模式识别系统的能力范围,而在引入神经学习与符号推理结合后,系统被期望在推理表现上更接近人类。

相关表述指出,这并不意味着 AGI 突破已经临近。Hyperon 的混合架构更多被视为一种研究方向,重点在于正面回应认知表示和自主学习等问题,而不是继续单一依赖统计模式匹配。该框架被描述为一种“轻量版 AGI”的尝试,为未来人工智能发展路径提供预览。

目前,这一理念已被用于构建实际应用中的解决方案,而非仅停留在理论层面。与此同时,大型语言模型仍被认为将在相当时期内继续发展和改进,作为狭义人工智能的重要一环存在。

在相关论述中,神经符号人工智能被视为可能的下一阶段技术形态,而通用人工智能则被描述为更远期的目标和“终极挑战”。

图片来源:Depositphotos


分享:


发表评论

登录后才可评论。 去登录