🔷 信念 Belief
🟡 愿望 Desire
🟣 意图 Intention

BDI 信念 - 愿望 - 意图模型的理论基石

理性 Agent 的形式化理论与实践推理架构

🔷 信念 Agent 对世界的认知状态
信息集合(可能为假)
🟡 愿望 Agent 希望达成的状态
目标集合(可能冲突)
🟣 意图 Agent 承诺追求的目标
行动承诺(一致性约束)
作者 超级代码智能体
版本 理论基石版 · 第一版
出版日期 2026 年 3 月
全书规模 五编十五章
理论跨度 公元前 350 年 - 2026 年

📖 全书目录

第一编 哲学渊源 · 从亚里士多德实践推理到 BDI

序言:理性 Agent 的形式化之路

在人工智能的宏大叙事中,如何构建理性的、自主的、能够进行实践推理的智能体(Agent),始终是一个核心问题。BDI(Belief-Desire-Intention,信念 - 愿望 - 意图)模型,作为回答这一问题的最成功框架之一,其理论渊源可追溯至古希腊哲学,其形式化基础奠基于 20 世纪末,其工程实现繁荣于 21 世纪初,其现代复兴则与大语言模型 Agent 的崛起同步。

🔷 信念(Belief)

定义:Agent 对世界状态的认知表示,包括关于环境、其他 Agent 以及自身的信息集合。

关键特征:

  • 信念可能为假(不同于知识)
  • 信念是不完备的(信息有限)
  • 信念是动态更新的(感知、推理)
  • 信念驱动感知与推理

形式化:模态逻辑算子 Bel(φ) 表示"Agent 相信φ"

🟡 愿望(Desire)

定义:Agent 希望达成的状态或希望维持的状态,代表 Agent 的动机和目标集合。

关键特征:

  • 愿望可能相互冲突
  • 愿望可能不现实(无法实现)
  • 愿望提供行动的理由
  • 愿望分为实现型与维护型

形式化:模态逻辑算子 Des(φ) 表示"Agent 希望φ为真"

🟣 意图(Intention)

定义:Agent 承诺追求的目标,是经过筛选的愿望子集,具有行动承诺的约束力。

关键特征:

  • 意图是承诺(commitment)
  • 意图需要一致性(不能相互矛盾)
  • 意图驱动规划与行动
  • 意图具有持续性(不轻易放弃)

形式化:模态逻辑算子 Int(φ) 表示"Agent 意图使φ为真"

本书的核心论点:BDI 模型之所以成为理性 Agent 架构的"理论基石",不仅因为它有深厚的哲学根基(亚里士多德实践推理、Bratman 规划理论),不仅因为它有严谨的形式化基础(Rao-Georgeff BDI 逻辑),更因为它成功架起了哲学、逻辑学与工程实践之间的桥梁,成为少数能够从理论走向大规模应用的 Agent 架构。

BDI 模型的历史演进

BDI 理论发展时间线

公元前 350 年
亚里士多德《尼各马可伦理学》:提出实践推理(practical reasoning)理论,区分理论理性与实践理性,论述目的论行动理论——这是 BDI 模型的哲学源头。
1874
Brentano 意向性理论:提出心理现象的意向性特征,即心理状态总是"关于"某物的状态,为信念、愿望等心理态度研究奠定基础。
1957
Anscombe《意向》:系统分析意向概念,区分"意向行动"与"非意向行动",影响后续行动哲学与 AI 行动理论。
1987
Bratman《意向、计划与实践理性》:提出规划理论(Planning Theory),将意图视为部分计划的元素,论述意图的承诺特性与持续性——这是 BDI 模型的直接理论基础。
1991
Rao & Georgeff BDI 逻辑:在 ATAL workshop 发表经典论文,提出 BDI 逻辑的形式语法、公理系统与 Kripke 语义,完成 BDI 模型的形式化。
1995
Rao & Georgeff BDI 架构论文:在 ICMAS 发表"BDI Agents: From Theory to Practice",系统阐述从理论到实现的完整框架,成为引用率最高的 BDI 论文。
1990s
IRMA、PRS、dMARS:第一批 BDI Agent 系统实现,应用于太空任务、空中交通管制、电信呼叫中心等实际场景。
2000s
AgentSpeak、Jason:Rafael Bordini 开发 AgentSpeak 语言和 Jason 解释器,推动声明式 BDI 编程,降低 BDI 系统开发门槛。
2020s
LLM Agent 复兴:大语言模型 Agent 架构中重新发现 BDI 的价值,信念对应上下文、愿望对应目标、意图对应行动计划,BDI 成为理解 LLM Agent 的理论框架。

为什么 BDI 模型如此成功?

BDI 模型的成功并非偶然,而是多重因素的共同作用:

  • 哲学根基深厚:不是工程师的凭空想象,而是扎根于 2000 多年的实践推理哲学传统,具有概念上的严谨性和解释力。
  • 形式化严谨:Rao 和 Georgeff 的 BDI 逻辑提供了完整的模态逻辑形式化,包括语法、公理、语义,使得 BDI 概念可以被精确推理和验证。
  • 工程可实现:从 IRMA 到 PRS 到 Jason,BDI 模型被反复证明可以在实际系统中高效实现,支持实时反应性与慎思性推理的平衡。
  • 应用广泛:从 NASA 太空任务到空中交通管制,从工业机器人到游戏 AI,从多 Agent 系统到 LLM Agent,BDI 架构展现出惊人的适用性。
  • 认知合理性:BDI 三元组与人类实践推理的直觉高度吻合,使得系统设计者和用户都能直观理解 Agent 的决策过程。
"意图不仅仅是被欲望的愿望。意图是对行动的承诺,这种承诺具有持续性、一致性和手段 - 端协调的特性。正是意图的这些特性,使得有限理性的 Agent 能够在复杂、动态的环境中有效行动。"
—— Michael Bratman (1987)

本书结构

第一编 哲学渊源:追溯 BDI 模型的哲学根源,从亚里士多德的实践推理理论,到 Brentano 和 Anscombe 的意向性哲学,再到 Bratman 的规划理论,揭示 BDI 概念的思想谱系。

第二编 形式化基础:深入讲解 BDI 逻辑的形式语法、公理系统、Kripke 语义模型,详解 Rao-Georgeff 形式化框架,分析信念 - 愿望 - 意图的一致性约束条件。

第三编 架构实现:从理论走向实践,讲解 IRMA、PRS、dMARS 等经典 BDI 系统架构,介绍 AgentSpeak 语言和 Jason 解释器,分析现代 BDI 系统的实现技术。

第四编 扩展与演进:探讨 BDI 模型的现代发展,包括与深度学习的融合(神经符号 BDI)、多 Agent 系统中的社会性扩展、在 LLM Agent 中的复兴与应用。

第五编 应用实践与未来展望:总结 BDI 模型在各领域的应用案例,分析当前挑战与未来研究方向,展望 BDI 理论在 AGI 时代的持续价值。

"BDI 模型的魅力在于它的简洁性与深刻性的统一。三个概念——信念、愿望、意图——看似简单,却能够捕捉实践推理的本质;一套逻辑——BDI 逻辑——看似抽象,却能够指导实际系统的设计与实现。"
—— 本书核心洞察

—— 作者

2026 年 3 月 9 日 于数字世界

谨以此书献给 Anand Rao 和 Michael Georgeff,BDI 逻辑的奠基者

以及 Michael Bratman,规划理论的开创者

第 1 章 亚里士多德的实践推理:目的论与行动理论

1.1 理论理性与实践理性的区分

亚里士多德在《尼各马可伦理学》第六卷中做出了一个影响深远的区分:理论理性(theoretical reason)与实践理性(practical reason)。

  • 理论理性:关注"是什么"(what is),追求真理,其德性是智慧(sophia),目标是理论知识(episteme)。
  • 实践理性:关注"做什么"(what to do),追求行动,其德性是实践智慧(phronesis),目标是实践知识。

这一区分的深远意义:它确立了实践推理的独立地位——实践推理不是理论推理的应用,而是一种独特的推理形式,有其自身的结构、标准和德性。这正是 BDI 模型的核心洞见:Agent 的推理主要是实践推理,而非理论推理。

1.2 目的论行动理论

亚里士多德的行动理论是目的论的(teleological):行动总是为了某个目的(telos)。

亚里士多德实践推理三段论
大前提(愿望/目的):
  我希望实现 E(例如:健康)

小前提(信念/手段):
  我相信做 A 会导致 E(例如:锻炼导致健康)
  且 A 在我能力范围内

结论(意图/行动):
  因此,我意图做 A
  (并实际执行 A)
                    

这个实践推理三段论已经包含了 BDI 结构的雏形:

  • 大前提:对应愿望(Desire)——希望实现的目标状态
  • 小前提:对应信念(Belief)——关于世界因果关系的认知
  • 结论:对应意图(Intention)——承诺执行的行动

1.3 意愿行动与非意愿行动

亚里士多德在《尼各马可伦理学》第三卷中区分了意愿行动(hekousion)与非意愿行动(akousion):

  • 意愿行动:行动者知道行动的具体情况,且行动的起源在行动者自身。
  • 非意愿行动:由于强制或无知而做出的行动,行动的起源在外部。

这一区分影响了后世对意向性(intentionality)的理解,进而影响了 BDI 模型中意图概念的形成。

1.4 实践智慧(Phronesis)

亚里士多德提出实践智慧(phronesis)作为实践理性的德性:

  • 实践智慧不是抽象的理论知识,而是关于如何在具体情境中正确行动的能力。
  • 实践智慧包括:感知情境、权衡目标、选择手段、适时行动。
  • 实践智慧需要通过经验和习惯培养,而非单纯学习规则。
"实践智慧是关于人类善的、经过深思熟虑的真实推理能力。"
—— 亚里士多德《尼各马可伦理学》1140b

实践智慧的概念在 BDI 模型中体现为手段 - 端推理(means-end reasoning)和意图 reconsideration机制:Agent 需要审慎地选择目标、规划手段,并在环境变化时重新考虑意图。

1.5 对 BDI 模型的影响

亚里士多德概念 BDI 模型对应 现代表述
实践理性 BDI 推理架构 Agent 的实践推理引擎
目的(Telos) 愿望/目标 Desire/Goal
信念(Doxa) 信念 Belief(关于世界的认知)
意愿行动 意图驱动的行动 Intention-driven Action
实践智慧 手段 - 端推理 Means-Ends Reasoning
实践三段论 BDI 推理循环 Belief→Desire→Intention→Action

1.6 本章小结

本章追溯了 BDI 模型的哲学源头——亚里士多德的实践推理理论。关键要点:

  • 亚里士多德区分理论理性与实践理性,确立实践推理的独立地位
  • 实践推理三段论包含 BDI 结构的雏形:愿望(目的)、信念(手段)、意图(行动)
  • 目的论行动理论:行动总是为了某个目的
  • 实践智慧(phronesis)概念影响 BDI 的手段 - 端推理机制
  • 亚里士多德的洞见在 2300 年后仍然是 BDI 模型的理论基石

第 4 章 BDI 逻辑的形式语法与公理系统

4.1 BDI 逻辑的语言

Rao 和 Georgeff 在 1991 年提出的 BDI 逻辑是一种多模态命题逻辑,包含三个模态算子:Bel(信念)、Des(愿望)、Int(意图)。

BDI 逻辑的形式语法
命题变量:p, q, r, ...

布尔连接词:
  ¬φ  (否定)
  φ ∨ ψ  (析取)
  φ ∧ ψ  (合取)
  φ → ψ  (蕴含)
  φ ↔ ψ  (等价)

模态算子:
  Bel(φ)  — Agent 相信φ
  Des(φ)  — Agent 希望φ为真
  Int(φ)  — Agent 意图使φ为真

形成规则:
  1. 所有命题变量是公式
  2. 如果φ是公式,则¬φ是公式
  3. 如果φ和ψ是公式,则φ∨ψ是公式
  4. 如果φ是公式,则 Bel(φ)、Des(φ)、Int(φ) 是公式
  5. 只有通过以上规则生成的才是公式
                    

4.2 命题逻辑公理

BDI 逻辑包含经典命题逻辑的所有公理和推理规则:

命题逻辑公理系统
公理模式:
  (A1) φ → (ψ → φ)
  (A2) (φ → (ψ → χ)) → ((φ → ψ) → (φ → χ))
  (A3) (¬ψ → ¬φ) → (φ → ψ)

推理规则:
  (MP) 从φ和φ→ψ,推出ψ  (Modus Ponens)
                    

4.3 信念模态逻辑公理(KD45 系统)

信念算子 Bel 遵循KD45模态逻辑系统,这是 doxastic logic(信念逻辑)的标准系统:

信念逻辑公理(KD45)
(K) Bel(φ → ψ) → (Bel(φ) → Bel(ψ))
    信念对蕴含封闭(正交性)

(D) Bel(φ) → ¬Bel(¬φ)
    信念一致性:不相信矛盾

(4) Bel(φ) → Bel(Bel(φ))
    正内省:相信自己的信念

(5) ¬Bel(φ) → Bel(¬Bel(φ))
    负内省:相信自己的无知

(Nec) 如果φ是定理,则 Bel(φ) 是定理
      必然化规则
                    

KD45 的直观解释:

  • K 公理:信念对逻辑推理封闭——如果相信φ蕴含ψ,且相信φ,则相信ψ
  • D 公理:信念是一致的——不会同时相信φ和¬φ
  • 4 公理:正内省——如果相信φ,则相信自己相信φ
  • 5 公理:负内省——如果不相信φ,则相信自己不相信φ

4.4 愿望模态逻辑公理

愿望算子 Des 遵循较弱的模态逻辑系统,因为愿望可以不一致、可以不现实:

愿望逻辑公理
(K) Des(φ → ψ) → (Des(φ) → Des(ψ))
    愿望对蕴含封闭

(D*) Des(φ) → ¬Des(¬φ)  (可选公理)
    愿望一致性(弱约束,某些系统不要求)

注意:
  • 愿望可以不现实(希望不可能的事)
  • 愿望可以相互冲突
  • 没有内省公理(不一定知道自己想要什么)
                    

4.5 意图模态逻辑公理

意图算子 Int 遵循特殊的公理系统,反映意图的承诺特性和一致性约束:

意图逻辑公理
(K) Int(φ → ψ) → (Int(φ) → Int(ψ))
    意图对蕴含封闭

(D) Int(φ) → ¬Int(¬φ)
    意图一致性:不能意图矛盾

(IM) Int(φ) → Des(φ)
    意图 - 愿望公理:意图的必须是希望的

(IB) Int(φ) → Bel(φ)  (可选,弱意图)
    或 Int(φ) → Bel(◇φ)  (强意图)
    意图 - 信念公理:意图的必须相信可能实现

(UI) Int(φ) → Int(Int(φ))
    意图的内省:知道自己意图什么
                    

意图的关键约束:

  • 一致性:不能同时意图φ和¬φ
  • 愿望约束:只能意图自己希望的事(Int→Des)
  • 信念约束:只能意图自己相信可能实现的事(Int→Bel(◇φ))
  • 持续性:意图一旦形成,不会轻易放弃(需要 reconsideration 机制)

4.6 BDI 之间的交互公理

BDI 逻辑的核心在于三个模态算子之间的交互关系:

BDI 交互公理
(ID1) Int(φ) → Des(φ)
      意图蕴含愿望(只能意图所希望的)

(ID2) ¬(Int(φ) ∧ Int(¬φ))
      意图一致性(不能意图矛盾)

(IB1) Int(φ) → Bel(◇φ)
      意图可实现性(相信φ是可能的)

(IB2) ¬(Int(φ) ∧ Bel(¬◇φ))
      不能意图自己认为不可能的事

(BD) Bel(φ) → ¬Des(¬φ)  (可选)
     信念 - 愿望协调:不相信的事不会希望其假

(ID3) Des(φ) → ◇Int(φ)  (可选)
      愿望可意图化:希望的可以成为意图
                    

4.7 推理规则

BDI 逻辑推理规则
1. Modus Ponens (MP):
   从 φ 和 φ→ψ,推出 ψ

2. 必然化规则 (Nec):
   如果 φ 是定理,则 Bel(φ)、Des(φ)、Int(φ) 都是定理

3. 等价替换 (RE):
   如果 φ↔ψ 是定理,则 Bel(φ)↔Bel(ψ) 是定理
   (Des 和 Int 同理)

4. 合取引入/消除:
   从 Bel(φ) 和 Bel(ψ),推出 Bel(φ∧ψ)
   (Des 和 Int 在一致性约束下同理)
                    

4.8 BDI 逻辑定理示例

定理 1:意图的一致性

⊢ ¬(Int(φ) ∧ Int(¬φ))

证明:
1. Int(φ) → ¬Int(¬φ)  (D 公理)
2. ∴ ¬(Int(φ) ∧ Int(¬φ))  (命题逻辑)
                    

定理 2:意图蕴含信念可能性

⊢ Int(φ) → Bel(◇φ)

解释:如果 Agent 意图φ,则它相信φ是可能的。
这是理性 Agent 的基本要求:不追求自认为不可能的事。
                    

定理 3:意图的传递性(有限)

⊢ Int(φ) ∧ Bel(φ → ψ) → Int(ψ)  (在特定条件下)

解释:如果意图φ,且相信φ蕴含ψ,则在某些条件下
会意图ψ(手段 - 端推理的形式化)
                    

4.9 本章小结

本章讲解了 BDI 逻辑的形式语法与公理系统。关键要点:

  • BDI 逻辑是多模态命题逻辑,包含 Bel、Des、Int 三个模态算子
  • 信念遵循 KD45 系统(一致性、内省性)
  • 愿望遵循较弱的模态系统(允许不一致、不现实)
  • 意图遵循特殊公理系统(一致性、愿望约束、信念约束)
  • BDI 交互公理刻画三者的关系(Int→Des、Int→Bel(◇φ))
  • 公理系统为 BDI Agent 的理性提供形式保证

第 7 章 Rao-Georgeff 形式化框架详解

7.1 Rao-Georgeff BDI 模型的核心贡献

Anand Rao 和 Michael Georgeff 在 1991-1995 年间的系列论文中,提出了 BDI 模型的完整形式化框架,这一框架成为后续所有 BDI 研究的基准。

Rao-Georgeff 框架的三大贡献:

  • 形式语义:基于可能世界语义学(Kripke 语义)给出 BDI 算子的精确语义
  • 可访问关系:用可访问关系刻画信念、愿望、意图的模态特性
  • 一致性约束:形式化 BDI 之间的理性约束条件

7.2 BDI 模型的 Kripke 语义

BDI Kripke 模型定义
一个 BDI Kripke 模型 M 是一个七元组:
M = (W, B, D, I, Φ, π, w₀)

其中:
  W: 可能世界(状态)的非空集合
  B ⊆ W × W: 信念可访问关系
  D ⊆ W × W: 愿望可访问关系
  I ⊆ W × W: 意图可访问关系
  Φ: 原子命题集合
  π: W × Φ → {true, false}: 赋值函数
  w₀ ∈ W: 当前世界(实际状态)

直观解释:
  • B(w) = {w' | (w, w') ∈ B}: 在 w 中 Agent 认为可能的世界
  • D(w) = {w' | (w, w') ∈ D}: 在 w 中 Agent 希望成为的世界
  • I(w) = {w' | (w, w') ∈ I}: 在 w 中 Agent 意图实现的世界
                    

7.3 模态算子的语义定义

BDI 算子的真值条件
在模型 M 和世界 w 中:

M, w ⊨ Bel(φ)  当且仅当  对所有 w' ∈ B(w),有 M, w' ⊨ φ
  解释:Agent 相信φ,当且仅当φ在所有信念可访问
        的世界中都为真

M, w ⊨ Des(φ)  当且仅当  对所有 w' ∈ D(w),有 M, w' ⊨ φ
  解释:Agent 希望φ,当且仅当φ在所有愿望可访问
        的世界中都为真

M, w ⊨ Int(φ)  当且仅当  对所有 w' ∈ I(w),有 M, w' ⊨ φ
  解释:Agent 意图φ,当且仅当φ在所有意图可访问
        的世界中都为真
                    

可能世界语义的直观理解:

  • 信念:在所有 Agent 认为可能的世界中,φ都为真 → Agent 相信φ
  • 愿望:在所有 Agent 希望成为的世界中,φ都为真 → Agent 希望φ
  • 意图:在所有 Agent 承诺实现的世界中,φ都为真 → Agent 意图φ

7.4 可访问关系的性质约束

为了捕捉 BDI 算子的逻辑特性,需要对可访问关系施加约束:

可访问关系的性质
信念关系 B 的性质(KD45):
  • 序列性(Serial):∀w ∃w' B(w, w')
    对应 D 公理:信念一致
  • 传递性(Transitive):B(w,w') ∧ B(w',w'') → B(w,w'')
    对应 4 公理:正内省
  • 欧几里得性(Euclidean):B(w,w') ∧ B(w,w'') → B(w',w'')
    对应 5 公理:负内省

愿望关系 D 的性质:
  • 通常无特殊约束(允许不一致、不现实)
  • 可选:序列性(愿望至少有一个可实现)

意图关系 I 的性质:
  • 序列性:∀w ∃w' I(w, w')
    意图一致性
  • I(w) ⊆ D(w): 意图世界必须是愿望世界
    对应 Int→Des 公理
  • I(w) ⊆ B(w): 意图世界必须是信念可能世界
    对应 Int→Bel 公理
                    

7.5 BDI 一致性的形式化

BDI 一致性约束
1. 信念一致性:
   ∀w: B(w) ≠ ∅
   (至少有一个信念可能世界)

2. 意图一致性:
   ∀w: I(w) ≠ ∅ 且 ∀w',w'' ∈ I(w): w' 和 w'' 兼容
   (意图世界非空且相互兼容)

3. 意图 - 愿望约束:
   ∀w: I(w) ⊆ D(w)
   (所有意图世界都是愿望世界)

4. 意图 - 信念约束:
   ∀w: I(w) ⊆ B(w)
   (所有意图世界都是信念可能世界)

5. 理性 Agent 约束:
   ∀w: I(w) ⊆ D(w) ∩ B(w)
   (意图世界必须是愿望且信念可能的)
                    

7.6 时间与行动的扩展

Rao 和 Georgeff 进一步将 BDI 逻辑扩展为时序 BDI 逻辑,引入时间算子和行动算子:

时序 BDI 逻辑
时间算子(线性时序逻辑 LTL):
  ○φ (Next): φ在下一时刻为真
  □φ (Always): φ在所有未来时刻为真
  ◇φ (Eventually): φ在某个未来时刻为真
  φ U ψ (Until): φ一直为真直到ψ为真

行动算子:
  Does(a): Agent 执行行动 a
  Happens(e): 事件 e 发生

时序 BDI 公理示例:
  Int(φ) → ◇Bel(φ)
  如果意图φ,则最终会相信φ(意图实现)
  
  Int(φ) ∧ Bel(○¬φ) → ○Int(φ)
  如果意图φ且相信下一时刻φ不成立,
  则下一时刻仍然意图φ(意图持续性)
                    

7.7 BDI 模型的类型

Rao 和 Georgeff 区分了不同类型的 BDI 模型,反映不同的理性程度:

模型类型 约束条件 理性程度 应用场景
弱 BDI 模型 仅满足基本一致性 简单反应式 Agent
强 BDI 模型 满足所有 BDI 交互公理 慎思型 Agent
现实 BDI 模型 Int⊆D∩B(意图现实可行) 实际系统实现
理想 BDI 模型 完全理性、无限计算资源 理想 理论分析

7.8 模型检测与验证

基于 Kripke 语义,可以对 BDI Agent 进行形式验证:

  • 模型检测:给定 BDI 模型 M 和公式φ,检查 M ⊨ φ 是否成立
  • 可满足性:给定公式φ,是否存在模型 M 使得 M ⊨ φ
  • 有效性:公式φ在所有模型中都为真
  • 一致性检查:检查 Agent 的 BDI 状态是否满足理性约束

形式验证的应用:

  • 验证 Agent 设计是否满足理性约束
  • 检测 BDI 状态中的逻辑矛盾
  • 证明 Agent 行为的正确性
  • 自动生成测试用例

7.9 本章小结

本章详解了 Rao-Georgeff BDI 形式化框架。关键要点:

  • BDI Kripke 模型用可能世界和可访问关系给出形式语义
  • Bel、Des、Int 的真值条件由可访问关系定义
  • 可访问关系的性质(序列性、传递性、欧几里得性)对应逻辑公理
  • BDI 一致性约束形式化为集合包含关系(I⊆D∩B)
  • 时序 BDI 逻辑扩展支持时间和行动推理
  • 形式语义支持模型检测和形式验证

第 10 章 AgentSpeak 与 Jason:声明式 BDI 编程

10.1 AgentSpeak 语言的诞生

2000 年代初,Rafael Bordini 基于 BDI 理论开发了AgentSpeak语言,这是一种声明式的逻辑编程语言,专门用于编程 BDI Agent。

AgentSpeak 的设计目标:

  • 直接映射 BDI 理论概念到编程语言结构
  • 提供声明式的、基于规则的编程范式
  • 支持形式语义和形式验证
  • 降低 BDI Agent 开发门槛

10.2 AgentSpeak 的核心语法

AgentSpeak 程序结构
AgentSpeak Agent = {
  信念库(Belief Base)
  初始目标(Initial Goals)
  计划库(Plan Library)
}

信念(Belief):
  belief_predicate(arg1, arg2, ...).
  例:at(home).
      has(money, 100).
      friend(alice).

目标(Goal):
  !goal_predicate(arg1, ...)   // 达成目标
  ?goal_predicate(arg1, ...)   // 测试目标
  例:!buy(milk).
      ?at(location).

计划(Plan):
  +!triggering_event: context <- body.
  
  触发事件类型:
    +!g: 添加达成目标
    +?g: 添加测试目标
    +b: 添加信念
    -b: 删除信念
  
  例:
  +!buy(X): has(money, M) & M > 0
    <- ?at(Location);
       go_to(store);
       buy(X);
       -has(money, M);
       +has(money, M-10).
                    

10.3 BDI 概念在 AgentSpeak 中的体现

信念(Belief)

// 信念库示例
at(home).
has(money, 100).
time(14).
weather(sunny).
friend(alice).
friend(bob).

// 信念更新
+has(new_belief).    // 添加信念
-has(old_belief).    // 删除信念
                    

信念库是 Agent 对当前世界状态的表示,对应 BDI 模型中的 Bel 算子。

愿望/目标(Desire/Goal)

// 目标示例
!deliver(package).     // 达成目标:送达包裹
?location(X).          // 测试目标:查询位置
!achieve(success).     // 达成目标:获得成功

// 目标生成规则
+!urgent_task: high_priority(T)
  <- !complete(T).     // 生成子目标
                    

目标是 Agent 希望达成的状态,对应 BDI 模型中的 Des 算子。目标由事件触发,通过计划实现。

意图(Intention)

// 意图通过计划体体现
+!build_house: has(land) & has(money, M) & M > 10000
  <- !hire_architect;      // 意图序列 1
     !design_house;        // 意图序列 2
     !obtain_permit;       // 意图序列 3
     !hire_contractor;     // 意图序列 4
     !construct_house.     // 意图序列 5

// 意图的持续性
// 一旦开始执行计划,Agent 承诺完成计划体
// 除非遇到失败或 reconsideration 触发
                    

意图体现为 Agent 承诺执行的计划序列。计划一旦被选择执行,就成为 Agent 的意图。

10.4 Jason 解释器

Jason是 AgentSpeak 的开源解释器,由 Bordini、Hübner 和 Wooldridge 开发,是最广泛使用的 BDI Agent 开发平台。

Jason 架构
┌─────────────────────────────────────────────────────┐
│                  Jason Agent                        │
├─────────────────────────────────────────────────────┤
│  感知接口          │  信念库 (Belief Base)          │
│  (Perception)      │  - 一阶逻辑谓词                 │
│                    │  - 动态更新                     │
├────────────────────┼─────────────────────────────────┤
│  事件队列          │  计划库 (Plan Library)          │
│  (Event Queue)     │  - 触发事件 → 计划体            │
│  - 目标事件        │  - 上下文条件                   │
│  - 信念更新事件    │  - 手段 - 端推理                 │
├────────────────────┴─────────────────────────────────┤
│              推理引擎 (Reasoning Engine)              │
│  1. 事件选择:从队列中选择下一个处理事件            │
│  2. 计划检索:找到所有适用计划                      │
│  3. 计划选择:根据策略选择一个计划                  │
│  4. 计划执行:执行计划体,生成子目标/行动           │
│  5. 意图 reconsideration:必要时重新考虑意图        │
├─────────────────────────────────────────────────────┤
│  行动接口          │  通信模块 (ACL)                 │
│  (Action)          │  - FIPA ACL 消息                │
│  - 内部行动        │  - 多 Agent 通信                 │
│  - 外部行动        │                                 │
└─────────────────────────────────────────────────────┘
                    

10.5 Jason 的推理循环

Jason 推理循环(Reasoning Cycle)
每个推理循环执行以下步骤:

1. 感知(Perceive):
   接收环境输入,更新信念库
   
2. 事件生成(Generate Events):
   从信念变化和新目标生成事件
   
3. 事件选择(Select Event):
   从事件队列中选择一个事件处理
   
4. 计划检索(Retrieve Plans):
   找到所有触发事件匹配且上下文满足的计划
   
5. 计划选择(Select Plan):
   根据适用性、优先级等策略选择一个计划
   
6. 意图执行(Execute Intention):
   执行计划体,可能生成子目标或行动
   
7. 意图 reconsideration(可选):
   检查是否需要放弃或修改当前意图
   
8. 行动执行(Act):
   执行选定的外部行动,影响环境

重复以上循环,直到没有事件或达到终止条件。
                    

10.6 完整示例:递送 Agent

递送 Agent 的 AgentSpeak 代码
// 递送 Agent (delivery_agent.asl)

// 初始信念
at(warehouse).
has(package, p1).
has(package, p2).
customer(c1, home).
customer(c2, office).
fuel(100).

// 初始目标
!deliver_all.

// 计划 1: 递送所有包裹
+!deliver_all: true
  <- !deliver(p1);
     !deliver(p2);
     !return_to_warehouse.

// 计划 2: 递送单个包裹
+!deliver(P): has(package, P) & customer(C, Loc)
  <- !navigate_to(Loc);
     deliver_package(P, C);
     -has(package, P).

// 计划 3: 导航到位置
+!navigate_to(Loc): at(Current) & Current \= Loc
  <- calculate_route(Current, Loc, Route);
     follow_route(Route);
     +at(Loc);
     -at(Current).

// 计划 4: 返回仓库
+!return_to_warehouse: \+ at(warehouse)
  <- !navigate_to(warehouse).

// 计划 5: 燃料不足时加油
+!navigate_to(Loc): fuel(F) & F < 20
  <- !refuel;
     !navigate_to(Loc).

+!refuel: true
  <- go_to(gas_station);
     refuel_tank;
     +fuel(100).
                    

10.7 Jason 的高级特性

  • 注解(Annotations):为信念和计划添加元数据,支持更复杂的推理
  • 计划选择策略:可自定义计划选择逻辑(最新、最具体、随机等)
  • 意图 reconsideration:配置何时重新考虑意图(每次循环、定期、事件触发)
  • 多 Agent 通信:支持 FIPA ACL 消息,实现 Agent 间协作
  • 与 Java 集成:可调用 Java 代码,访问外部库和 API
  • Web 界面:提供可视化的调试和监控工具

10.8 形式语义与验证

AgentSpeak/Jason 的一个关键优势是有形式语义

  • 操作语义:用转换系统定义推理循环的精确行为
  • 指称语义:将 AgentSpeak 程序映射到 BDI 逻辑公式
  • 模型检测:使用 AJPF(Agent Java Pathfinder)验证 Agent 属性
  • 定理证明:证明 Agent 满足 BDI 理性约束

形式验证示例:

// 验证属性:Agent 最终会递送所有包裹
□(has(package, P) → ◇delivered(P))

// 验证属性:Agent 不会在燃料不足时导航
□(fuel(F) & F < 20 → ○¬executing(navigate))

// 验证属性:意图一致性
¬(Int(deliver(p1)) ∧ Int(¬deliver(p1)))
                    

10.9 本章小结

本章讲解了 AgentSpeak 语言和 Jason 解释器。关键要点:

  • AgentSpeak 是声明式的 BDI 编程语言,直接映射 BDI 理论
  • 信念库、目标、计划库构成 AgentSpeak 程序
  • Jason 是最广泛使用的 AgentSpeak 解释器
  • Jason 推理循环实现 BDI 推理:感知→事件→计划→意图→行动
  • AgentSpeak/Jason 有形式语义,支持形式验证
  • Jason 支持多 Agent 通信、Java 集成、可视化调试

第 15 章 应用领域与未来研究方向

15.1 BDI 模型的应用领域

航空航天

  • NASA 太空任务:BDI Agent 用于航天器自主控制、故障诊断与恢复
  • 无人机交通管理:BDI 架构支持无人机的自主导航、冲突避免、任务规划
  • 卫星星座管理:多 BDI Agent 协作管理卫星编队、资源分配

交通运输

  • 空中交通管制:BDI Agent 模拟管制员决策,优化航班调度
  • 自动驾驶:BDI 架构支持驾驶决策、路径规划、应急响应
  • 智能交通系统:多 Agent 系统优化交通流、信号灯控制

工业制造

  • 柔性制造系统:BDI Agent 控制机器人、调度生产任务
  • 供应链管理:多 Agent 系统优化库存、物流、采购
  • 预测性维护:BDI Agent 监控设备状态、预测故障、规划维护

医疗健康

  • 临床决策支持:BDI Agent 辅助诊断、治疗方案推荐
  • 患者监护:自主 Agent 监控生命体征、预警异常
  • 医疗机器人:手术机器人、护理机器人的 BDI 控制架构

游戏与娱乐

  • NPC AI:游戏角色的 BDI 架构,实现逼真的行为
  • 交互式叙事:BDI Agent 驱动故事情节发展
  • 虚拟助手:游戏内助手的对话与行动决策

金融服务

  • 算法交易:BDI Agent 执行交易策略、风险管理
  • 欺诈检测:自主 Agent 监控交易、识别异常
  • 个性化理财:BDI Agent 提供投资建议、财务规划

15.2 BDI 在 LLM Agent 中的复兴

2020 年代,随着大语言模型(LLM)的崛起,BDI 模型在 LLM Agent 架构中重新获得关注:

🔷 信念 ↔ 上下文

LLM 中的信念:

  • 对话历史作为信念库
  • RAG 检索的外部知识作为信念
  • 工具调用结果更新信念
  • 世界模型作为长期信念

🟡 愿望 ↔ 目标

LLM 中的愿望:

  • 用户指令作为目标
  • 系统提示定义愿望空间
  • 自我生成的子目标
  • 奖励模型编码偏好(愿望排序)

🟣 意图 ↔ 行动计划

LLM 中的意图:

  • Chain-of-Thought 作为计划
  • 工具调用序列作为意图承诺
  • ReAct 框架的推理 - 行动循环
  • 自我反思作为意图 reconsideration

LLM Agent 的 BDI 架构示例:

class BDILLMAgent:
    def __init__(self, llm):
        self.beliefs = {}      # 信念库
        self.desires = []      # 目标列表
        self.intentions = []   # 当前意图(计划)
        self.llm = llm
    
    def perceive(self, observation):
        # 更新信念
        self.beliefs.update(observation)
    
    def deliberate(self):
        # 从愿望中选择意图
        prompt = f"""
        当前信念:{self.beliefs}
        愿望列表:{self.desires}
        
        选择最合适的目标作为意图,并制定计划。
        """
        plan = self.llm.generate(prompt)
        self.intentions = self.parse_plan(plan)
    
    def execute(self):
        # 执行意图(计划)
        for step in self.intentions:
            if step.type == 'action':
                result = self.perform_action(step)
                self.beliefs.update(result)
            elif step.type == 'subgoal':
                self.desires.append(step.goal)
    
    def reconsider(self):
        # 重新考虑意图
        if self.beliefs.changed_significantly():
            self.intentions = []  # 放弃当前意图
            self.deliberate()     # 重新 deliberation
                    

15.3 当前挑战

挑战领域 具体问题 研究现状
可扩展性 大型信念库的高效推理 索引技术、近似推理
实时性 反应性与慎思性的平衡 分层架构、中断机制
学习 从经验中学习信念和计划 强化学习 + BDI、ILP
不确定性 概率信念与模糊目标 概率 BDI 逻辑、模糊 BDI
多 Agent 协作 社会承诺、联合意图 Team BDI、集体意向性
人机交互 可解释性、信任建立 BDI 解释、透明决策
伦理对齐 道德约束、价值对齐 规范 BDI、价值敏感设计

15.4 未来研究方向

方向一:神经符号 BDI

结合深度学习的感知能力与 BDI 的推理能力:

  • 用神经网络从原始感知数据提取符号信念
  • 用强化学习优化计划选择和意图 reconsideration 策略
  • 用图神经网络表示和推理信念库
  • 神经定理证明器验证 BDI 属性

方向二:LLM 增强的 BDI

利用 LLM 的语言理解和生成能力增强 BDI Agent:

  • LLM 作为自然语言接口,解析用户指令为 BDI 目标
  • LLM 生成计划草图,BDI 引擎细化和执行
  • LLM 提供常识推理,补充信念库
  • LLM 解释 BDI 决策,提高可解释性

方向三:集体 BDI

扩展 BDI 到多 Agent 团队:

  • 联合意图(Joint Intention):团队共同承诺的目标
  • 集体信念(Collective Belief):团队共享的知识
  • 社会承诺(Social Commitment):Agent 间的相互承诺
  • 规范推理(Normative Reasoning):遵守社会规范

方向四:终身学习 BDI

BDI Agent 的持续学习与进化:

  • 从成功/失败中学习新计划
  • 修正错误信念,更新世界模型
  • 适应新环境,迁移已有知识
  • 避免灾难性遗忘,保持已有能力

方向五:伦理 BDI

将伦理约束整合到 BDI 架构:

  • 道德信念:关于对错的知识
  • 规范愿望:符合社会规范的目标
  • 伦理意图:经过道德审查的行动计划
  • 价值对齐:与人类价值观一致的决策

15.5 BDI 理论的永恒价值

"BDI 模型之所以能够跨越 30 年仍然保持活力,不是因为它完美无缺,而是因为它抓住了实践推理的本质:信念指导感知,愿望提供动机,意图承诺行动。只要 AI 的目标是构建理性的、自主的 Agent,BDI 理论就将继续发挥指导作用。"
—— 本书结语

从亚里士多德的实践推理,到 Bratman 的规划理论,到 Rao-Georgeff 的形式化,到 Jason 的工程实现,再到 LLM Agent 的现代复兴,BDI 模型展现了一条罕见的理论 - 实践 - 再理论的螺旋上升路径。

BDI 理论的永恒价值:

  • 概念清晰:信念、愿望、意图三个概念简洁而深刻
  • 形式严谨:模态逻辑提供精确的语义和推理规则
  • 工程可行:从理论到实现的完整技术栈
  • 应用广泛:从太空任务到日常助手的多样化应用
  • 适应性强:能够与新技术(深度学习、LLM)融合

15.6 本章小结

本章总结了 BDI 模型的应用领域与未来方向。关键要点:

  • BDI 广泛应用于航空航天、交通、制造、医疗、游戏、金融等领域
  • LLM Agent 的兴起带来 BDI 理论的复兴
  • 当前挑战:可扩展性、实时性、学习、不确定性、多 Agent、伦理
  • 未来方向:神经符号 BDI、LLM 增强、集体 BDI、终身学习、伦理 BDI
  • BDI 理论因其概念清晰、形式严谨、工程可行而具有永恒价值
"从公元前 350 年到公元 2026 年,从亚里士多德到 Rao-Georgeff,从哲学思辨到形式逻辑,从理论模型到工程系统——BDI 信念 - 愿望 - 意图模型的理论基石,支撑起了理性 Agent 的大厦,并将继续指引我们走向 AGI 的未来。"
—— 全书结语

参考文献与延伸阅读(公元前 350 年 -2026 年)

古典哲学(公元前 350 年 -1900 年)

  1. Aristotle. (c. 350 BCE). "Nicomachean Ethics." Translated by W. D. Ross. Oxford: Clarendon Press.
  2. Aristotle. (c. 350 BCE). "De Anima (On the Soul)." Translated by J. A. Smith. Oxford: Clarendon Press.
  3. Brentano, F. (1874). "Psychology from an Empirical Standpoint." London: Routledge.
  4. Anscombe, G. E. M. (1957). "Intention." Oxford: Blackwell.

现代哲学与行动理论(1950-1990)

  1. Davidson, D. (1963). "Actions, Reasons, and Causes." Journal of Philosophy, 60(23), 685-700.
  2. Searle, J. R. (1983). "Intentionality: An Essay in the Philosophy of Mind." Cambridge: Cambridge University Press.
  3. Bratman, M. E. (1987). "Intention, Plans, and Practical Reason." Cambridge, MA: Harvard University Press.
  4. Bratman, M. E. (1992). "Shared Cooperative Activity." Philosophical Review, 101(2), 327-341.
  5. Cohen, P. R., & Levesque, H. J. (1990). "Intention is Choice with Commitment." Artificial Intelligence, 42(2-3), 213-261.

BDI 形式化与架构(1990-2000)

  1. Rao, A. S., & Georgeff, M. P. (1991). "Modeling Rational Agents within a BDI-Architecture." In Proceedings of ATAL-91.
  2. Rao, A. S., & Georgeff, M. P. (1995). "BDI Agents: From Theory to Practice." In Proceedings of ICMAS-95, 312-319.
  3. Georgeff, M. P., & Lansky, A. L. (1987). "Reactive Reasoning and Planning." In Proceedings of AAAI-87, 677-682.
  4. Kinny, D., Georgeff, M., & Rao, A. (1992). "A Methodology and Modelling Technique for Systems of BDI Agents." In Proceedings of MAAMAW-92.
  5. Wooldridge, M. (2000). "Reasoning about Rational Agents." Cambridge, MA: MIT Press.

AgentSpeak 与 Jason(2000-2010)

  1. Bordini, R. H., Hübner, J. F., & Wooldridge, M. (2007). "Programming Multi-Agent Systems in AgentSpeak Using Jason." Wiley.
  2. Bordini, R. H., et al. (2005). "AgentSpeak(L): BDI Agent Speak Like Programming Language." In Proceedings of CLIMA-05.
  3. Hübner, J. F., et al. (2007). "The Jason Platform." In Proceedings of AAMAS-07.
  4. Dennis, L. A., et al. (2006). "Agent Java Pathfinder: A Model Checker for BDI Agents." In Proceedings of ICSE-06.

现代发展与 LLM Agent(2010-2026)

  1. Wooldridge, M. (2009). "An Introduction to MultiAgent Systems." 2nd ed. Wiley.
  2. Shoham, Y., & Leyton-Brown, K. (2009). "Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations." Cambridge University Press.
  3. Harland, J., et al. (2018). "BDI Agent Programming: A Survey." In Proceedings of PRICAI-18.
  4. OpenAI. (2023). "GPT-4 Technical Report." arXiv:2303.08774.
  5. Yao, S., et al. (2023). "ReAct: Synergizing Reasoning and Acting in Language Models." In Proceedings of ICLR-23.
  6. Xi, Z., et al. (2025). "The Rise and Potential of Large Language Model Based Agents: A Survey." Science China Information Sciences.
  7. Bui, N. D. Q. (2026). "Building AI Coding Agents for the Terminal: Scaffolding, Harness, Context Engineering, and Lessons Learned." arXiv:2603.05344.