逻辑推理一直是 AI 的难点
权衡论据、得出逻辑结论并推导出唯一正确的答案,一直是人工智能领域的棘手问题。面对结构复杂的任务,要在严格逻辑约束下计算出结论,很快就会把传统算法推到数学和计算能力的极限。
一个包括格拉茨工业大学(TU Graz)软件工程与人工智能研究所研究员约翰内斯·P·瓦尔纳(Johannes P. Wallner)在内的团队,提出了一种新方法:将复杂的论证与推理过程转写为更高效的数学公式,并将这些公式接入已有的求解系统。借助这一方案,系统可以在毫秒级时间内完成精确计算。团队还与荷兰警方合作,在一款用于受理欺诈案件的工具中成功验证了该方法的可靠性。
与大型语言模型的不同之处
瓦尔纳指出,与 ChatGPT 等依赖统计概率和海量训练数据生成文本的大型语言模型不同,精确的逻辑推理在数学上很快会触及可计算性的边界。
在这种逻辑推理场景中:
- 结论必须严格建立在针对具体问题给定的数据之上;
- 系统需要在预先定义的逻辑框架内,保证输出正确或最优的答案;
- 数据量越大,计算复杂度呈指数级上升,反而会成为负担。
为突破这一瓶颈,团队将重点放在逻辑问题的数学建模上,构造出精确的逻辑公式,使人工智能系统能够在此基础上自主搜索并找到最优解。
网络欺诈:实际应用案例
在与荷兰警方的合作中,研究人员需要把“识别潜在欺诈”的任务压缩成简洁而严谨的数学公式。为此,他们必须给出数学证明,说明这些公式能够正确表达输入数据中支持或反对“存在欺诈”的推理关系。

目标是:在给定证据和数据的前提下,让计算机输出一个明确判断——某个案件是否很可能属于网络欺诈。
例如,在一些案件中,受害者通过网站购买商品却从未收到货物。系统需要综合考虑:
- 下单时间
- 网店网址
- 以及其他相关信息
通过这些要素,系统对案件进行逻辑评估,判断其是否符合网络欺诈的特征。
速度足以支撑实际应用
虽然当前工作仍主要属于基础研究范畴,但团队已经识别出许多潜在应用场景:凡是需要基于逻辑论据做出复杂决策的领域,都可能受益于这种方法。
目前的主要挑战在于数据输入:系统要求输入数据足够精确,才能进行严密的逻辑处理。未来,瓦尔纳团队计划探索与大型语言模型的结合方式——利用大模型从自然语言中提取信息,并自动将其转换为适合逻辑推理系统处理的精确形式,从而打通“自然语言描述”到“形式化逻辑计算”的通路。