\section{序贯重要抽样 *}

MCMC 是目前广泛使用的随机模拟方法, 其中 Gibbs 抽样方法 (见 §3.7.3) 在确定了各个分量的条件分布后可以轮流产生各个分量的抽样。序贯重要抽样方法是重要抽样法(见 §3.2.4)的一种推广,其做法与 Gibbs 抽样方法有些相似,也是每次从一个分量抽样。

{\color{red}\textbf{[核心思想]:} 序贯重要抽样就像``逐步更新的地图绘制''——每次只探索一个新区域(\({X}_{t}\)),根据新信息调整权重,而不是一次性抽取整个高维向量。这在时间序列或动态系统中尤其自然。}

回顾多维随机变量抽样的条件分布法 (见 §2.3.1)。设随机向量 \(\mathbf{X}\) 的密度 \(\pi \left( \mathbf{x}\right)  =\)  \(\pi \left( {{x}_{1},{x}_{2},\ldots ,{x}_{n}}\right)\) 可以逐次地分解为条件密度乘积

\[
\pi \left( {{x}_{1},{x}_{2},\ldots ,{x}_{n}}\right)  = \pi \left( {x}_{1}\right) \pi \left( {{x}_{2} \mid  {x}_{1}}\right) \pi \left( {{x}_{3} \mid  {x}_{1},{x}_{2}}\right) \cdots \pi \left( {{x}_{n} \mid  {x}_{1},\ldots ,{x}_{n - 1}}\right)
\]

则可以用条件分布法产生 \(\mathbf{X}\) 的抽样。当数据是时间序列或者可以依次增加对 \(\pi\) 的信息(比如 \(\pi\) 是 Bayes 后验分布) 时这种方法很自然。但是,条件分布 \(\pi \left( {{x}_{t} \mid  {x}_{1},\ldots ,{x}_{t - 1}}\right)\) 可能是难以得到的或难以抽样的。为此,采用重要抽样思想: 取一系列辅助分布 \({\pi }_{t}\left( {\mathbf{x}}_{t}\right)  = {\pi }_{t}\left( {{x}_{1},\ldots ,{x}_{t}}\right) ,t =\)  \(1,\ldots ,n\) ,使其近似于 \(\left( {{X}_{1},\ldots ,{X}_{t}}\right)\) 的分布, \({\pi }_{n} = \pi\) ,各 \({\pi }_{t}\) 可以分别有一个未知的归一化常数。对 \(t = 1,2,\ldots ,n\) 用重要抽样法逐次抽取 \({X}_{1},{X}_{2},\ldots ,{X}_{n}\) ,使得 \(\left( {{X}_{1},\ldots ,{X}_{t}}\right)\) 是关于 \({\pi }_{t}\) 适当加权的样本。抽取 \({X}_{t}\) 时一般是给定 \({X}_{1},\ldots ,{X}_{t - 1}\) 后从一个试抽样分布 \({g}_{t}\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)\) 抽取。适当计算权重就可以得到关于 \(\pi\) 适当加权的抽样 \({\mathbf{X}}_{n} = \left( {{X}_{1},{X}_{2},\ldots ,{X}_{n}}\right)\) 。

这种抽样方法叫做序贯重要抽样 (sequential importance sampling, SIS), 算法如下:

置 \(t \leftarrow  1\) ,从 \({g}_{1}\left( \cdot \right)\) 抽取 \({X}_{1}\) ,置 \({W}_{1} \leftarrow  {\pi }_{1}\left( {X}_{1}\right) /{g}_{1}\left( {X}_{1}\right)\) 。

for \(\left( {t\text{ in }2 : n}\right) \{\)

从 \({g}_{t}\left( {{x}_{t} \mid  {X}_{1},\ldots ,{X}_{t - 1}}\right)\) 抽取 \({X}_{t}\) ,记 \({\mathbf{X}}_{t} = \left( {{X}_{1},\ldots ,{X}_{t - 1},{X}_{t}}\right)\) ;

计算步进权重

\[
{U}_{t} \leftarrow  \frac{{\pi }_{t}\left( {\mathbf{X}}_{t}\right) }{{\pi }_{t - 1}\left( {\mathbf{X}}_{t - 1}\right) {g}_{t}\left( {{X}_{t} \mid  {\mathbf{X}}_{t - 1}}\right) }
\]

令 \({W}_{t} \leftarrow  {W}_{t - 1}{U}_{t}\) ;

\}

输出 \(\left( {{\mathbf{X}}_{n},{W}_{n}}\right)\) 为关于 \(\pi \left( \mathbf{x}\right)\) 适当加权的样本。

SIS 一般同时独立进行 \(N\) 组,得到 \({\left\{  \left( {\mathbf{X}}_{n}^{\left( j\right) },{W}_{n}^{\left( j\right) }\right) \right\}  }_{j = 1}^{N}\) ,每一组称为一个 ``流'' 或一个 ``粒子''。 按照 SIS 步骤, 有

{\color{red}\textbf{[粒子滤波的物理图像]:} 想象\(N\)个探险队同时出发——每个``粒子''都是一条独立的轨迹。权重\({W}_{t}^{\left( j\right) }\)标记了这条路径的``可信度''。权重大的粒子代表更符合真实分布的轨迹,就像找到了正确道路的探险队。}

\[
{X}_{1} \sim  {g}_{1}\left( {x}_{1}\right) ,\;{w}_{1} = \frac{{\pi }_{1}\left( {X}_{1}\right) }{{g}_{1}\left( {X}_{1}\right) }
\]

\[
{X}_{2} \sim  {g}_{2}\left( {{x}_{2} \mid  {x}_{1}}\right) ,\;{U}_{2} = \frac{{\pi }_{2}\left( {\mathbf{X}}_{2}\right) }{{\pi }_{1}\left( {X}_{1}\right) {g}_{2}\left( {{X}_{2} \mid  {X}_{1}}\right) },
\]

\[
{W}_{2} = {W}_{1}{U}_{2} = \frac{{\pi }_{2}\left( {\mathbf{X}}_{2}\right) }{{g}_{1}\left( {X}_{1}\right) {g}_{2}\left( {{X}_{2} \mid  {X}_{1}}\right) }
\]

\[
{X}_{3} \sim  {g}_{3}\left( {{X}_{3} \mid  {\mathbf{X}}_{2}}\right) ,\;{U}_{3} = \frac{{\pi }_{3}\left( {\mathbf{X}}_{3}\right) }{{\pi }_{2}\left( {\mathbf{X}}_{2}\right) {g}_{3}\left( {{X}_{3} \mid  {\mathbf{X}}_{2}}\right) },
\]

\[
{W}_{3} = \frac{{\pi }_{3}\left( {\mathbf{X}}_{3}\right) }{{g}_{1}\left( {X}_{1}\right) {g}_{2}\left( {{X}_{2} \mid  {X}_{1}}\right) {g}_{3}\left( {{X}_{3} \mid  {\mathbf{X}}_{2}}\right) }
\]

......

\[
{X}_{n} \sim  {g}_{n}\left( {{x}_{n} \mid  {\mathbf{X}}_{n - 1}}\right) ,\;{W}_{n} = \frac{{\pi }_{n}\left( {\mathbf{X}}_{n}\right) }{{g}_{1}\left( {X}_{1}\right) {g}_{2}\left( {{X}_{2} \mid  {X}_{1}}\right) \cdots {g}_{n}\left( {{X}_{n} \mid  {\mathbf{X}}_{n - 1}}\right) }.
\]

记

\[
{g}_{t}\left( {\mathbf{x}}_{t}\right)  = {g}_{1}\left( {x}_{1}\right) {g}_{2}\left( {{x}_{2} \mid  {x}_{1}}\right) \cdots {g}_{t}\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)
\]

则 \({\mathbf{X}}_{t} \sim  {g}_{t}\left( \cdot \right)\) 而

\[
{W}_{t} = \frac{{\pi }_{t}\left( {\mathbf{X}}_{t}\right) }{{g}_{t}\left( {\mathbf{X}}_{t}\right) },
\]

因此 \(\left( {{\mathbf{X}}_{t},{W}_{t}}\right)\) 关于 \({\pi }_{t}\) 适当加权 \(\left( {t = 1,\ldots ,n}\right)\) 。注意 \({\pi }_{n} = \pi\) 故这样得到的 \(\left( {{\mathbf{X}}_{n},{W}_{n}}\right)\) 关于 \(\pi \left( \cdot \right)\) 适当加权。

{\color{red}\textbf{[数学洞察]:} 权重公式\({W}_{t} = \frac{{\pi }_{t}\left( {\mathbf{X}}_{t}\right) }{{g}_{t}\left( {\mathbf{X}}_{t}\right) }\)就是重要抽样的核心——用易抽样的\({g}_{t}\)代替难抽样的\({\pi }_{t}\),通过权重修正这个``替换''带来的偏差。}

试抽样分布的一种常见取法为 \({g}_{t}\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)  = {\pi }_{t}\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)\) 。

\subsection{非线性滤波平滑}

SIS 方法可以用在很多统计模型的计算中,作为示例,考虑如下的非线性滤波平滑问题。

设不可观测的 ``状态'' \({X}_{t}\) 服从如下状态方程

\[
{X}_{t} \sim  {q}_{t}\left( {\cdot  \mid  {X}_{t - 1},\theta }\right) ,t = 1,2,\ldots ,n
\]

\({X}_{t}\) 的信息可以反映在可观测的 \({Y}_{t}\) 中,其关系满足如下观测方程

\[
{Y}_{t} \sim  {f}_{t}\left( {\cdot  \mid  {X}_{t},\phi }\right) ,t = 1,2,\ldots ,n
\]

{\color{red}\textbf{[应用场景]:} 滤波问题就像``通过模糊的窗户观察室内''——真实状态\({X}_{t}\)(室内情况)无法直接看到,只能通过带噪声的观测\({Y}_{t}\)(窗户)间接推断。GPS定位、雷达追踪、经济预测都是这样的问题。}

已知 \({\mathbf{Y}}_{n} = \left( {{Y}_{1},\ldots ,{Y}_{n}}\right)  = {\mathbf{y}}_{n}\) 和 \(\theta ,\phi\) 后估计 \(\mathbf{X} = \left( {{X}_{1},\ldots ,{X}_{n}}\right)\) 的问题称为滤波平滑问题,只需要求后验分布 \(\pi \left( {\mathbf{x}}_{n}\right)  = {p}_{{\mathbf{X}}_{n} \mid  {\mathbf{Y}}_{n}}\left( {{\mathbf{x}}_{n} \mid  {\mathbf{y}}_{n}}\right)\) 。如果能从 \(\pi\) 大量抽样 \({\mathbf{X}}^{\left( j\right) },j = 1,\ldots ,N\) 则可以用随机模拟方法对 \({\mathbf{X}}_{n} = \left( {{X}_{1},\ldots ,{X}_{n}}\right)\) 的后验分布进行推断。下面用 SIS 方法产生 \(\pi\) 的样本。

记

\[
{\pi }_{t}\left( {\mathbf{x}}_{t}\right)  = {p}_{{\mathbf{X}}_{t} \mid  {\mathbf{Y}}_{t}}\left( {{\mathbf{x}}_{t} \mid  {\mathbf{y}}_{t}}\right) ,t = 1,2,\ldots ,n
\]

注意

\[
{\pi }_{t}\left( {\mathbf{x}}_{t}\right)  \propto  {f}_{t}\left( {{y}_{t} \mid  {x}_{t}}\right) {q}_{t}\left( {{x}_{t} \mid  {x}_{t - 1}}\right) {\pi }_{t - 1}\left( {\mathbf{x}}_{t - 1}\right)  \tag{3.98}
\]

取试抽样分布 \({g}_{t}\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)  = {q}_{t}\left( {{x}_{t} \mid  {x}_{t - 1}}\right)\) ,对 \(t = 1,{\pi }_{1}\left( {x}_{1}\right)  = {p}_{{X}_{1} \mid  {Y}_{1}}\left( {{x}_{1} \mid  {y}_{1}}\right)  \propto  {f}_{1}\left( {{y}_{1} \mid  {x}_{1}}\right) p\left( {x}_{1}\right)\) ,其中 \(p\left( {x}_{1}\right)\) 为 \({X}_{1}\) 的分布密度,抽取 \({X}_{1} \sim  {g}_{1}\left( {x}_{1}\right)\) ,如果可能应取 \({g}_{1}\left( {x}_{1}\right)  = {\pi }_{1}\left( {x}_{1}\right)\) 。

产生关于 \(\pi\) 适当加权的 \({\mathbf{X}}_{n}\) 抽样的 SIS 步骤如下:

置 \(t \leftarrow  1\) ,从 \({g}_{1}\left( {x}_{1}\right)\) 抽取 \({X}_{1}\) ,置 \({W}_{1} \leftarrow  {\pi }_{1}\left( {X}_{1}\right) /{g}_{1}\left( {X}_{1}\right)\) 。

for \(\left( {t\text{ in }2 : n}\right) \{\)

从 \({q}_{t}\left( {{x}_{t} \mid  {X}_{t - 1}}\right)\) 抽取 \({X}_{t}\) ,记 \({\mathbf{X}}_{t} = \left( {{X}_{1},\ldots ,{X}_{t - 1},{X}_{t}}\right)\) ;

令步进权重 \({U}_{t} \leftarrow  {f}_{t}\left( {{y}_{t} \mid  {X}_{t}}\right)\)

令 \({W}_{t} \leftarrow  {W}_{t - 1}{U}_{t}\) ;

\}

输出 \(\left( {{\mathbf{X}}_{n},{W}_{n}}\right)\) 为关于 \(\pi \left( \mathbf{x}\right)\) 适当加权的样本。

这种方法相当于用状态方程前进一步获得下一分量的抽样,用同时刻的观测值 \({y}_{t}\) 的似然作为步进权重。这样, \(t\) 步以后得到的 \({\mathbf{X}}_{t}\) 服从

{\color{red}\textbf{[关键理解]:} 粒子滤波的精妙之处——用状态方程\({q}_{t}\)``预测''下一步,用观测似然\({f}_{t}\left( {{y}_{t} \mid  {X}_{t}}\right)\)``校正''权重。每个粒子先盲目前进,然后根据实际观测到的数据调整可信度。}

\[
{g}_{t}\left( {\mathbf{x}}_{t}\right)  = {g}_{t - 1}\left( {\mathbf{x}}_{t - 1}\right) {q}_{t}\left( {{x}_{t} \mid  {x}_{t - 1}}\right)
\]

其中 \({g}_{1}\left( {x}_{1}\right)  \propto  {f}_{1}\left( {{y}_{1} \mid  {x}_{1}}\right)\) 。于是

\[
\frac{{\pi }_{t}\left( {\mathbf{x}}_{t}\right) }{{g}_{t}\left( {\mathbf{x}}_{t}\right) } = \frac{{f}_{t}\left( {{y}_{t} \mid  {x}_{t}}\right) {q}_{t}\left( {{x}_{t} \mid  {x}_{t - 1}}\right) {\pi }_{t - 1}\left( {\mathbf{x}}_{t - 1}\right) }{{g}_{t - 1}\left( {\mathbf{x}}_{t - 1}\right) {q}_{t}\left( {{x}_{t} \mid  {x}_{t - 1}}\right) }
\]

\[
= {f}_{t}\left( {{y}_{t} \mid  {x}_{t}}\right) \frac{{\pi }_{t - 1}\left( {\mathbf{x}}_{t - 1}\right) }{{g}_{t - 1}\left( {\mathbf{x}}_{t - 1}\right) },
\]

\[
{W}_{t} = {f}_{t}\left( {{y}_{t} \mid  {X}_{t}}\right) {W}_{t - 1} = \frac{{\pi }_{t}\left( {\mathbf{X}}_{t}\right) }{{g}_{t}\left( {\mathbf{X}}_{t}\right) },
\]

可见 \(\left( {{\mathbf{X}}_{t},{W}_{t}}\right)\) 关于 \({\pi }_{t}\) 适当加权, \(\left( {{\mathbf{X}}_{n},{W}_{n}}\right)\) 关于 \({\pi }_{n}\left( \mathbf{x}\right)  = {p}_{{\mathbf{X}}_{n} \mid  {\mathbf{Y}}_{n}}\left( {{\mathbf{x}}_{n} \mid  {\mathbf{y}}_{n}}\right)\) 适当加权。

设第 \(t\) 步的抽样为 \({\mathbf{X}}_{t}^{\left( i\right) },i = 1,\ldots ,N\) ,对应权重为 \({W}_{t}^{\left( i\right) },i = 1,\ldots ,n\) 。以上的方法在抽取 \(\left( {{X}_{1},\ldots ,{X}_{n}}\right)\) 时不考虑 \(\left( {{y}_{1},\ldots ,{y}_{n}}\right)\) 的具体取值,这样的试抽样分布虽然很容易抽样,但是效果很差,权重 \(\left\{  {{W}_{t}^{i},i = 1,\ldots ,N}\right\}\) 随着 \(t\) 的增加会把变得差异很大,以至于 \(N\) 个流中只有极少数流能起作用。

{\color{red}\textbf{[权重退化问题]:} 这是粒子滤波的``阿喀琉斯之踵''——随时间推移,大部分粒子权重趋近于零,只有少数粒子主导。就像班级里只有几个学生参与讨论,其他人完全沉默,导致样本多样性丧失。}

由(3.98)可见

\[
{\pi }_{t}\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)  = {p}_{{X}_{t} \mid  {\mathbf{X}}_{t - 1},{Y}_{t}}\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)  \propto  {f}_{t}\left( {{y}_{t} \mid  {x}_{t}}\right) {q}_{t}\left( {{x}_{t} \mid  {x}_{t - 1}}\right) , \tag{3.99}
\]

如果能取试抽样分布 \({g}_{t}\left( {x}_{t}\right)  \propto  {f}_{t}\left( {{y}_{t} \mid  {x}_{t}}\right) {q}_{t}\left( {{x}_{t} \mid  {x}_{t - 1}}\right)\) 则每次抽取 \({X}_{t}\) 都利用了同期的观测值 \({y}_{t}\) 的信息,会大大改善抽样效率。更进一步,设 \({\pi }_{t + 1}\left( {\mathbf{x}}_{t + 1}\right)\) 关于 \({\mathbf{x}}_{t}\) 的边缘分布为 \({\pi }_{t,t + 1}\left( {\mathbf{x}}_{t}\right)\) ,如果在第 \(t\) 步能从 \({\pi }_{t,t + 1}\left( {\mathbf{x}}_{t}\right)\) 的条件分布 \(p\left( {{x}_{t} \mid  {\mathbf{x}}_{t - 1}}\right)\) 抽样,就可以利用 \({y}_{t},{y}_{t + 1}\) 的信息,抽样效率可以进一步改善。

{\color{red}\textbf{[为什么要利用观测]:} 盲目从状态方程抽样就像``蒙着眼睛开车''——虽然按规则前进,但不知道是否在正确道路上。利用观测\({y}_{t}\)相当于``睁开眼看路标'',让抽样朝着真实状态的方向集中。}

另外一种改进的办法是再抽样,增加权重大的流,舍弃权重小的流。

\subsection{再抽样}

如果试抽样分布选取不适当,最后的权重可能会差别很大,体现在权重 \(\left\{  {{W}_{t}^{\left( i\right) },i = }\right.\)  \(1,\ldots ,N\}\) 的样本变异系数很大,称为权重偏斜严重。这时,权重小的流基本不起作用。出现这样的情况时,可以把一些权重太小的流舍弃而增加权重大的流,这样的技术称为再抽样。

{\color{red}\textbf{[再抽样的物理图像]:} 想象进化过程——适应度低的个体被淘汰,适应度高的个体繁殖多份后代。再抽样就是``重置粒子群'',让资源集中在有效粒子上,恢复样本多样性,避免计算资源浪费在无用粒子上。}

\subsubsection{简单随机再抽样}

设进行 SIS 时在时刻 \(t\) 已经得到了 \(N\) 个部分的流 \(\left\{  {{\mathbf{X}}_{t}^{\left( i\right) },i = 1,\ldots ,N}\right\}\) 以及相应的权重 \(\left\{  {{W}_{t}^{\left( i\right) },i = 1,\ldots ,N}\right\}\) 。可以在每一步都按照权重对流再抽样,也可以仅当权重偏斜严重时才进行再抽样。如果在第 \(t\) 步再抽样,只要以正比于 \({W}_{t}^{\left( i\right) }\) 的概率从 \(\left\{  {{\mathbf{X}}_{t}^{\left( j\right) },j = 1,\ldots ,N}\right\}\) 中抽取 \({\mathbf{X}}_{t}^{\left( i\right) }\) ,独立有放回地抽取 \(N\) 个,记作 \(\left\{  {{\mathbf{X}}_{t}^{*\left( i\right) },i = 1,\ldots ,N}\right\}\) ,并把权重调整为相等的 \({W}_{t}^{*\left( i\right) } = \frac{1}{N}\mathop{\sum }\limits_{{j = 1}}^{N}{W}_{t}^{\left( j\right) },i = 1,\ldots ,N\) 。这样的方法称为简单随机再抽样。这样再抽样后各个流不再是独立的。

\subsubsection{剩余再抽样}

为了达到以上的简单随机抽样的效果, 还可以把大权重的的流直接复制多份, 小权重的流仅以一定比例保留,其它舍弃。这种方法称为剩余再抽样 (residual resampling),其计算量更小而且模拟误差更小。算法描述如下。如果在第 \(t\) 步需要再抽样,则计算 \({\bar{W}}_{t} = \frac{1}{N}\mathop{\sum }\limits_{{j = 1}}^{N}{W}_{t}^{\left( j\right) }\) , 然后按如下做法从 \(N\) 个流中重新抽取 \(N\) 个。首先,对 \(i = 1,\ldots ,N\) ,直接保留 \({k}_{i} = \left\lbrack  {{W}_{t}^{\left( i\right) }/{\bar{W}}_{t}}\right\rbrack\) 份 \({\mathbf{X}}_{t}^{\left( i\right) }\left( {\lbrack  \cdot  \rbrack \text{ 表示向下取整); 其次,令 }{N}_{r} = N - \mathop{\sum }\limits_{{i = 1}}^{N}{k}_{i}}\right)\) 为缺额个数,随机有放回地按照正比于 \(\frac{{W}_{t}^{\left( i\right) }}{{W}_{t}} - {k}_{i}\) (取整后的小数部分) 的概率从 \(\left\{  {{\mathbf{X}}_{t}^{\left( j\right) },j = 1,\ldots ,N}\right\}\) 中抽取 \({\mathbf{X}}_{t}^{\left( i\right) }\) ,共抽取 \({N}_{r}\) 个。这样得到了 \(N\) 个新的流,记作 \(\left\{  {{\mathbf{X}}_{t}^{*\left( i\right) },i = 1,\ldots ,N}\right\}\) ,并调整其权重为相等的 \({W}_{t}^{*\left( i\right) } = {\bar{W}}_{t}\) , \(i = 1,\ldots ,N\) 。这种方法的第一步把权重大的流直接复制了若干份,第二步对按剩余的权重再抽取到满 \(N\) 个流为止。

{\color{red}\textbf{[剩余再抽样的优势]:} 比简单随机再抽样更确定——权重大的粒子``稳拿''多个席位(整数部分),只有``零头''(小数部分)需要随机竞争。这减少了随机性带来的方差,就像选举中的``保底席位+竞争席位''机制。}

\subsubsection{舍选控制再抽样}

简单随机再抽样和剩余再抽样都使得结果各个流不再独立。另外一种想法是采用 \(§{3.2.4}\) 中介绍的舍选控制方法, 对权重小的流从头重新抽样并适当调整权重。首先, 设定若干个要执行再抽样的时间点 \(0 < {t}_{1} < \cdots  < {t}_{k} \leq  n\) ,以及相应的权重阈值 \({c}_{1},\ldots ,{c}_{k}\) 。在 \(t = {t}_{j}\) 时,进行舍选控制再抽样。若流 \(i\) 的权重 \({W}_{t}^{\left( i\right) } \geq  {c}_{j}\) ,则保留此流 \({\mathbf{X}}_{t}^{\left( i\right) }\) 和权重 \({W}_{t}^{\left( i\right) }\) 不变; 若流 \(i\) 的权重 \({W}_{t}^{\left( i\right) } < {c}_{j}\) ,则以概率 \({W}_{t}^{\left( i\right) }/{c}_{j}\) 保留此流,如果决定保留,则修改其权重为 \({c}_{j}\) ,如果决定舍弃此流,则从 \(t = 1\) 重新生成这个流,同样也需要经过 \({t}_{1},\ldots ,{t}_{j}\) 处的舍选判断,如果被舍弃就还从 \(t = 1\) 重新开始,直到被接受。

\subsubsection{部分舍选控制再抽样}

如果从头开始重新抽样的情况发生比较多则模拟的效率会比较低,为此可以采用如下的部分舍选控制再抽样的 SIS 方法。

{\color{red}\textbf{[舍选策略对比]:} 完全舍选从\(t=1\)重启,代价高但保持独立性;部分舍选只从上一检查点\({t}_{j-1}\)重启,更高效但引入依赖性。这是``计算成本vs统计独立性''的权衡,类似于游戏中的``完全重来''vs``从存档点继续''。}

首先,设定若干个要执行再抽样的时间点 \(0 < {t}_{1} < \cdots  < {t}_{k} \leq  n\) ,以及相应的权重阈值 \({c}_{1},\ldots ,{c}_{k}\) 。在 \(t = {t}_{j}\) 时,进行部分舍选控制再抽样。若流 \(i\) 的权重 \({W}_{t}^{\left( i\right) } \geq  {c}_{j}\) ,则保留此流 \({\mathbf{X}}_{t}^{\left( i\right) }\) 和权重 \({W}_{t}^{\left( i\right) }\) 不变。若流 \(i\) 的权重 \({W}_{t}^{\left( i\right) } < {c}_{j}\) ,则以概率 \({W}_{t}^{\left( i\right) }/{c}_{j}\) 保留此流,如果决定保留,则修改其权重为 \({c}_{j}\) 。如果决定舍弃此流,则不是从头重新生成这个流,而是按照概率正比于 \({W}_{{t}_{j - 1}}^{\left( s\right) }\) 从 \(\left\{  {{\mathbf{X}}_{{t}_{j - 1}}^{\left( s\right) },s = 1,\ldots ,N}\right\}\) 中随机抽取一个替换原来的 \({\mathbf{X}}_{{t}_{j - 1}}^{\left( i\right) }\) ,用 \({t}_{j - 1}\) 时的权重 \(\left\{  {W}_{{t}_{j - 1}}^{\left( s\right) }\right\}\) 的平均值 \({\bar{W}}_{{t}_{j - 1}}\) 代替原来的权重 \({W}_{{t}_{j - 1}}^{\left( i\right) }\) ,然后继续按照 SIS 标准步骤将此流经 \(t = {t}_{j - 1} + 1,\ldots ,{t}_{j}\) 延伸得到新的 \({\mathbf{X}}_{{t}_{j}}^{\left( i\right) }\) 和权重 \({W}_{{t}_{j}}^{\left( i\right) }\) ,然后再进行 \({t}_{j}\) 处的舍选控制,如果被舍弃就再从 \({t}_{j - 1}\) 处随机再抽样后继续,直到在 \({t}_{j}\) 处被接受。

{\color{red}\textbf{[方法总结]:} 序贯重要抽样的核心矛盾——简单的试抽样分布导致权重退化,复杂的试抽样分布难以实现。再抽样是实用的折衷方案:允许使用简单的\({g}_{t}\),通过周期性``重启''粒子群来对抗权重退化,这使得粒子滤波成为处理非线性动态系统的强大工具。}

关于序贯重要抽样更详细的讨论参见 \(\operatorname{Liu}{\left( {2001}\right) }^{\left\lbrack  {28}\right\rbrack  }\) 。
