% TeX
\chapter{定理证明}
\begin{theorem}
	\label{theorem:d-uct}
	在全局意图的概率分布$q_n$不断变化(并且收敛)的情况之下，D-UCT算法仍然可以维持一个子节点选择的探索利用权衡(Exploration-Exploitation Tradeoff)，并且D-UCT算法可以实现一个多项式收敛速率。
\end{theorem}
\begin{proof}
	见附录。
\end{proof}



\begin{theorem}
	\label{theorem:intention_update}
	为每一个主体$i$都给定一个合适的可行的行动序列的子集合 $\hat{\mathcal{X}}_n^i\in\mathcal{X}_n^i$，基于公式\ref{con:intention_evolution}的迭代执行的意图更新过程可以渐进地收敛到最优概率分布$q_n$，并且可以最优化联合动作序列$\textbf{x}$。
\end{theorem}

\begin{proof}
	见附录。
\end{proof}


\begin{theorem}
	\label{theorem:subgoal_tree_expansion}
	给定一个合适的$\sigma$，算法\ref{alg:dec_sgts_expand}可以渐进地找到最佳的子目标对(Subgoal-Pair)的距离和策略，同时可以成功对树中的节点进行子目标到子目标的扩展。
\end{theorem}

\begin{proof}
	见附录。
\end{proof}