第三章 检测理论

您所在的位置:网站首页 最大后验概率准则和最大似然准则的关系 第三章 检测理论

第三章 检测理论

#第三章 检测理论| 来源: 网络整理| 查看: 265

第三章 检测理论

统计检测理论是利用信号的统计特性和噪声的统计特性等信息来建立最佳判决的数学理论。主要解决在受噪声干扰的观测中,信号有无的判决问题。其数学基础就是统计判决理论,又称假设检验理论。

[TOC]

3.1 经典检测理论

信号检测相当于数理统计中的假设检验。假设就是检验对象的可能情况或状态,一般分为目标存在或不存在两种情况。

一种情况:没有信号存在,用符号H_0表示,称为0假设,即 H_0:x(t)=n(t) 另一种情况:有信号存在,用符号H_1表示,称为备选假设或1假设,即 H_1:x(t)=s(t)+n(t) 在实际情况中,接收到的只是随机过程的一个或几个样本函数,然后分析随机过程x(t)的样本统计量,来判断哪个假设可以接受,这就是假设检验。

实际的二择一检验模型如下图所示

image.png

观测值z的取值范围构成观测空间Z,二元假设下的判决问题,实质上就是把观测空间分割成Z_1Z_0两个区域,当观测值zZ_0中时,判决H_0为正确的假设,当zZ_1中时,判H_1为正确的假设。区域Z_0Z_1称为判决域。

多元假设检验:对于更一般的情况,输出可能是M个假设H_0,H_1⋯⋯H_{M-1}中的一个,称为多元假设检验。如模式识别。

复合假设检验:表征假设的参量可能处在某个数值范围内的假设。

序贯检测:按照取样观测值出现的次序进行处理和作出判决。

对于每个假设,源输入后会受到噪声干扰后得到观测值z的后验概率的概率密度函数(PDF)为p(z|H_0)p(z|H_1),分别表示在假设0或假设1条件下得到的观测值,又称为似然函数。对于某一种准则,可以把二元检测判决分为四种情况:

真实\判决结果 H_0 H_1 H_0 正确判决 虚警 H_1 漏报 正确判决

由于噪声的存在及观察样本数的限制,在检测过程中会产生判决错误。问题是怎样尽可能地减少这些错误,这就是检测系统的最佳化问题。另外,正如上述,错误有两种,一种为漏报,一种为虚警,在不同的工作情况下,这两种错误所造成的后果并不一样,因此可能对不同的错误有不同的重视程度,这就引入了最佳准则问题。不同的准则下有不同的判决规则(如选取的判决门限不同),使得检测系统有不一样的虚警错误和漏报错误分配。

3.2 最小平均风险准则(Bayes准测)

衡量检测效果的一种直观标准就是看各种判决结果所需要承担的代价或风险的大小,显然一种判决结果所需要的代价与其发生可能性(概率)和对应的代价因子成正比。则可设计平均风险函数为

E[C]=C_{00} P\left(D_{0}, H_{0}\right)+C_{10} P\left(D_{1}, H_{0}\right)+C_{01} P\left(D_{0}, H_{1}\right)+C_{11} P\left(D_{1}, H_{1}\right)

其中P(D_i,H_j)表示H_j为真且判决为D_i的联合概率,C_{ij}P(D_i,H_j)时的代价因子。C_{01}为漏报代价因子,C_{10}为虚警代价因子,C_{11}为正确检测代价因子,C_{00}为正确不发现代价因子。

而Bayes准则就是使得平均风险E[C]最小化。如果用条件概率来表示全概率,有 \begin{aligned} E[C]=& C_{00} P\left(D_{0} / H_{0}\right) P\left(H_{0}\right)+C_{10} P\left(D_{1} / H_{0}\right) P\left(H_{0}\right) +C_{01} P\left(D_{0} / H_{1}\right) P\left(H_{1}\right)+C_{11} P\left(D_{1} / H_{1}\right) P\left(H_{1}\right) \\ =& C_{00} P\left(H_{0}\right) \int_{Z_{0}} p\left(z / H_{0}\right) d z+C_{10} P\left(H_{0}\right) \int_{Z_{1}} p\left(z / H_{0}\right) d z +C_{01} P\left(H_{1}\right) \int_{z_{0}} p\left(z / H_{1}\right) d z+C_{11} P\left(H_{1}\right) \int_{Z_{1}} p\left(z / H_{1}\right) d z\\ =& C_{00} P\left(D_{0} / H_{0}\right) P\left(H_{0}\right)+C_{10} P\left(D_{1} / H_{0}\right) P\left(H_{0}\right) +C_{01} P\left(D_{0} / H_{1}\right) P\left(H_{1}\right)+C_{11} P\left(D_{1} / H_{1}\right) P\left(H_{1}\right) \\ =& C_{00} P\left(H_{0}\right) \int_{Z_{0}} p\left(z / H_{0}\right) d z+C_{10} P\left(H_{0}\right) \int_{Z_{1}} p\left(z / H_{0}\right) d z +C_{01} P\left(H_{1}\right) \int_{z_{0}} p\left(z / H_{1}\right) d z+C_{11} P\left(H_{1}\right) \int_{Z_{1}} p\left(z / H_{1}\right) d z\\ =& C_{00} P\left(H_{0}\right) \int_{Z_{0}} p\left(z / H_{0}\right) d z+C_{10} P\left(H_{0}\right)\left[1-\int_{Z_{0}} p\left(z / H_{0}\right) d z\right] +C_{01} P\left(H_{1}\right) \int_{Z_{0}} p\left(z / H_{1}\right) d z+C_{11} P\left(H_{1}\right)\left[1-\int_{Z_{0}} p\left(z / H_{1}\right) d z\right] \\ =& C_{10} P\left(H_{0}\right)+C_{11} P\left(H_{1}\right) +\int_{Z_{0}}\left\{\left[\left(C_{01}-C_{11}\right) P\left(H_{1}\right) p\left(z / H_{1}\right)\right]-\left[\left(C_{10}-C_{00}\right) P\left(H_{0}\right) p\left(z / H_{0}\right)\right]\right\} d z \end{aligned} 如果要求在Z_0区内任一点由假设H_0所产生的Z落在该点的代价,大于由假设H_1所产生的Z落在该点的代价,则可使平均风险变小,也就是被积函数的第二项应大于第一项,此时z落在Z_0区内的总代价可提供负值。所以可以调整Z_0判决区域,满足如下不等式: P(H_0)(C_{10}-C_{00})p(z/H_0)P(H_1)(C_{01}-C_{11})p(z/H_1) 用同样的方法调整判决区域Z_1,使得由假设H_1所产生的Z落在该点的代价,大于由假设H_0所产生的Z落在该点的代价,则可使平均风险变小。 P(H_1)(C_{01}-C_{11})p(z/H_1)P(H_0)(C_{10}-C_{00})p(z/H_0) 根据公式(5)和公式(6),两个不等式相互矛盾,所以在取等于时可以兼顾两个不等式,其判决准则如下: \frac{P\left(z / H_{1}\right)}{P\left(z / H_{0}\right)} \frac{^{H_1}}{_{H_0}} \frac{P\left(H_{0}\right)\left(C_{10}-C_{00}\right)}{P\left(H_{1}\right)\left(C_{01}-C_{11}\right)} 左边的表达式称为似然比,用\lambda(z)表示。右边的表达式称为门限似然比,用\eta表示: \lambda(z)=\frac{P\left(z / H_{1}\right)}{P\left(z / H_{0}\right)}\qquad \eta=\frac{P\left(H_{0}\right)\left(C_{10}-C_{00}\right)}{P\left(H_{1}\right)\left(C_{01}-C_{11}\right)} 所以可以用两个条件概率密度函数之比就可以求出似然比\lambda(z)

由于Bayes准则两边均为正值,所以对判决准则两边取对数不改变原不等式。 ln\lambda(z)\frac{^{H_1}}{_{H_0}}ln\eta_0 以一维情况为例来说明Bayes准则,在判决门限Z_0处划分观测空间。

image.png

由上可知在Z_0=Z_a时才是最佳的判决,所以可以对代价函数E(c)求导,并令一次导数为0时求得的Z_0就是Bayes门限,从而可以求出门限似然比。

3.3 其它准则 3.3.1 极大极小准则

因为Bayes准则依赖于先验概率和代价函数,而极大极小准则不需要依赖先验概率,寻求最小平均风险中的最大值,考虑在最不利的情况下寻找最佳的判决。

可以把Bayes准则进行改写: \lambda(z)=\frac{P\left(z / H_{1}\right)}{P\left(z / H_{0}\right)} \frac{^{H_1}}{_{H_0}} \frac{P\left(H_{0}\right)\left(C_{10}-C_{00}\right)}{(1-P\left(H_{0}\right))\left(C_{01}-C_{11}\right)} 所以代价函数也可以表示成P(H_0)的函数: E(C)=C_{00}P(H_0)\int_{Z_0}p(z/H_0)dz+C_{10}P(H_0)\int_{Z_1}p(z/H_0)dz \\ +C_{01}(1-P(H_0))\int_{Z_0}p(z/H_1)dz+C_{11}(1-P(H_0))\int_{Z_1}p(z/H_1)dz 但是在代价函数E(c)中,如果P(H_0)变化也会引起判决区域Z_0,Z_1发生变化。所以最小平均风险E(c)_{min}是非线性的,如下图所示。

image.png

所现在就是求对应最小平均风险最大值所对应的P^*(H_0),也就是求\frac{dE(c)_{min}}{dP(H_0)}=0的点。

因为代价函数E(c)可简单看作是的P(H_0)的线性函数,所以随着P(H_0)改变E(c)_{min}也会线性变化。因此当求出最小平均风险的最大值时,其E(c)_{min}是个定值,平均风险中为C_0

P^*(H_0)点 ,即可得到满足下列等式的值: C_{00}P(D_0/H_0)+C_{10}P(D_1/H_0)=C_{01}P(D_0/H_1)+C_{11}P(D_1/H_1) 使得假设H_0的风险等于假设H_1的风险。所以极大极小准则又可称为等风险准则。

3.2 Neyman_Pearson准则(检测概率最大准则):

Bayes准则需知道先验概率和代价函数,极大极小准则需知道代价函数。而Neyman_Pearson准则则是解决二者均不知的判决问题,该方法是确定虚警概率或漏报概率中的一种,再去求使另一种达到极小的判决,一般对虚警要求较高,所以,先限定虚警,再去求最小漏报或最大检测,所以N-P准则有时也叫恒虚警检测。

如果假设虚警概率为P_F,漏报概率为P_M,检测概率为P_D,则N-P准则为: \begin{cases} P_F=\alpha\qquad(\alpha一般取0.1~0.05)\\ P_M=min或P_D=1-P_M=max \end{cases} 为了求解NP准则,可以用拉格朗日乘子法构造目标函数:

\begin{aligned} J =& P_M+\lambda(P_F-\alpha)\\ =& \int_{Z_0}p(z/H_1)dz+\lambda[\int_{Z_1}p(z/H_0)dz-\alpha]\\ =& \lambda(1-\alpha)+\int_{Z_0}[p(z/H_1)-\lambda p(z/H_0)]dz\\ \end{aligned}

要求解目标函数J的最小值,就令目标函数的一阶导数为0。

所以NP准则需要先求解出似然比: \lambda(z)=\frac{P(Z_0/H_1)}{P(Z_0/H_0)} 然后在一维情况时可以利用P_F=\int_{Z_1}p(\lambda(z)/H_0)d\lambda(z)\leq\alpha取极限时P_F=\alpha,求出\lambda。 或者由P_F=\int_{Z_1}p(z/H_0)dz\leq\alpha,求出Z_1,再带入似然比中求出\lambda

image.png

Bayes是平均风险最小的假设检验,N-P准则是检测概率最大的检验,所以,既是平均风险最小,又满足检测概率最大。通俗一点说,N-P准则是在某个确定的虚警下获得最佳检测,而Bayes则在任何虚警下均有最佳检测。

3.3.3 最小错误概率准则

如果假定C_{00}=C_{01}=0C_{10}=C_{11}=1时的Bayes准则,即正确判决不付出代价,错误判决付出相同代价。则有: \lambda(z)=\frac{P\left(z / H_{1}\right)}{P\left(z / H_{0}\right)} \frac{^{H_1}}{_{H_0}} \frac{P(H_0)}{P(H_1)}

3.3.4 最大似然概率

假设P(H_0)=P(H_1)=\frac{1}{2}时的最小错误概率准则,则有: \lambda(z)=\frac{P\left(z / H_{1}\right)}{P\left(z / H_{0}\right)} \frac{^{H_1}}{_{H_0}} 1

3.3.5 最大后验概率准则

前面的准则均采用似然比检测。 这里采用后验概率比,所谓后验概率是指接收到信号之后判断其中含有信号的概率有多大,P(H_1/z)P(H_0/z)

3.4 多元假设检验(类似模式识别)

类似于二元假设检验,接收机的任务是要通过1个(或1组)观测值,按照选定的判决准则进行假设检验。设由观测z的取值范围构成观测空间Z(可以是1维,也可以是N维),多元假设检验实质上就是把N维观测空间分割成M个判决区域Z_0,Z_1⋯⋯Z_{M-1},当观测值z在Z_i中时,判决H_i为正确的假设。其接收信号的一般形式为: 0假设H_0:x(t)=n(t)\\ 备选假设H_i:s_i(t)+n(t) 所以其平均风险为: \begin{aligned} E[C]&=\sum_{i=0}^{M-1}\sum_{j=0}^{M-1}C_{ij}P(D_i/H_j)P(H_j)\\ &=\sum_{i=0}^{M-1}C_{ii}P(H_i)+\sum_{i=0}^{M-1}\sum_{j=0,j\neq i}^{M-1}(C_{ij}-C_{jj})P(H_j)\int_{Z_i}P(z/H_j)dz \end{aligned}

其中前一项时固定代价,第二项代表变化代价。要使平均风险达到最小,就要使每个积分的值最小。也即要把观测值分配给这样的区域,使得在该区域中积分值最小。所以令: I_i[z]=\sum_{j=0,j\neq i}^{M-1}(C_{ij}-C_{jj})P(H_j)p(z/H_j) 在对应的Z_i区有: I_i[z]I_m[z]



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3