本文主要介绍一下chernoff bound的证明,以及一些在统计学习理论中的涉及到的一些不等式,首先来几个简单的。
Jensen 不等X为随机变量,f:X→R为凸函数,则下面的不等式成立
这个就是凸函数的性质,这里并不给出证明了,想知道为什么的看一下《凸优化》的前几章就行了。
接下来是Markov不等式,这里终于牵涉到概率了。假设X为非负的随机变量,且t>0,则下式成立。
这里的证明也很简单
现在重点来了,我们隆重介绍一下chernoff bound。首先来看一下最简单形式的chernoff bound。
假设X为随机变量,则下面的不等式成立
这个不等式的证明也比较简单,直接利用之前的markov不等式即可。
粗略一看,这个式子好像没有什么用。的确,在任何情况下都成立基本没啥用,我们需要在不同的情况下推广他的扩展形式
在期望已知的情况下Chernoff Bound的变体¶
假设随机变量X∈[a,b],E[X]=0,则下面的不等式成立。
这个不等式,粗看起来与之前提到的Chernoff Bound有点相似,但是只是在左边相似而已。事实上不等式左边的基本毫无意义,怎么得到右边的公式才是最重要的。在得到右边的过程中,我们需要利用f(x)=exp(tx)为凸函数的性质。
证明如下:在a≠0,b≠0时,我们可以把X表示为a,b的线性组合
其中α=(X−a)/(b−a)∈[0,1]。接下来我们利用凸函数的性质,即Jensen不等式
将X=αb+(1−α)a带入到上面的不等式中,我们得到
对该不等式求期望,并考虑到我们之前的大前提E[X]=0,我们得到下面的不等式
其中u=t(b−a),g(u)=−θu+log(1−θ+θexp(u)),θ=−a/(b−a)∈(0,1)。看上去我们把东西弄得越来越复杂,接下来是见证奇迹的时刻。根据Taylor展开公式,存在v∈(0,u)使得下面的等式成立:
下面来对g(u)求一阶导数和二阶导数
二阶导数的放缩利用了ab≤(a+b)2/4这个最简单的不等式。接下来我们将上面得到的结果都带入原来的taylor展开式中
由此,经历了千辛万苦,我们终于证明了
在bernoulli分布中的Chernoff Bound¶
之前得到的Chernoff界是绝对差形式,这里的Chernoff界则是相对差形式。假设X1,X2,⋯,Xn为符合bernoulli分布的各自独立的随机变量,X=∑Xi,且μ≥E[X]。则对于任意的δ>0,下面的不等式都成立
这个不等式跟之前的不等式相比,简直丑爆了,而且右边更加复杂。但是证明的第一步还是相同的,还是markov不等式。
又由于X=∑Xi,所以
这里利用了E[YZ]=E[Y]∗E[Z]这个独立变量的积的期望公式。又由于Xi是符合伯努利分布的随机变量,假设其参数为Pr[Xi=1]=pi,则我们有
这里的放缩又利用了1+α≤eα。最终,我们将每一个分量都带入,得到
最后,我们令t=ln(1+δ),化简得到
这个式子提供了一个上界。对称的来说,对于下界我们也有一个不等式。 假设X1,X2,⋯,Xn为符合bernoulli分布的各自独立的随机变量,X=∑Xi,且μ≤E[X]。则对于任意的1>δ>0,下面的不等式都成立
这个公式的证明类似于之前公式的证明,这里我们要借助一个t<0。
这里我们再次遇到E(tX),再次利用Bernoulli分布性质,假设Xi=1的概率为pi,则有
将这个不等式带入,得到
在这里,我们让t=ln(1−δ),代入得
这样,下界我们也证明了。上下界一起大概就是中心极限定理的内容了。实际上,这两个界并不怎么好用,光写起来就十分麻烦,我们要对这两个界进一步放缩。那么问题来了,放缩方法哪家强,当然是Taylor展开了。我们可以观察到
所以,当δ<1时
综上我们有
对称的,我们也有
Hoeffding不等式¶
假设X1,⋯,Xn是n个相互独立的随机变量,且Xi∈[ai,bi],令X=∑Xi/n,则对任意的ϵ>0有
看到这个公式,是不是感觉自己选择了Hard模式啊。根据对称性,Chernoff界以及随机变量的独立性质,我们可以得到
为了进一步化简结果,我们需要对右边的求极值。右边指数项里面是一个一元二次函数,求极值很简单,求一阶导数就可以了。我们定义函数p:R→R为
对其求一阶导数
可得到
最后将这个t带入到p(t)即可得到Hoeffding不等式
联合界Union Bound¶
联合界理解起来很简单,对于有限个事件A1,A2,⋯,An,有
这个不等式是通过数学归纳法来证明的,对于n=2的时候就是
进行归纳
因此,这个联合界成立。
经验风险最小化¶
机器学习求解的假设函数不是单纯为了拟合已有的数据,其最终目标是准确预测未知数据的输出。经验风险最小化存在过拟合的风险,其目的在于找到一个可以很好与训练数据匹配的假设函数,而该假设函数不一定能预测未知数据的输出,即泛化误差很大。增加训练数据的规模有利于降低泛化误差。但也不是训练数据越多越好,因为当训练数据达到一定规模后,泛化误差的变化趋于平缓。而且很多时候我们并不能拿到这么多的数据,还有可能我们的资源无法对这么多的数据进行处理。在固定了数据量的情况下,我们只能从模型复杂度下手来减少泛化误差,模型复杂度太大或者太小都会导致泛化误差过大。选择模型,就是我们预先提供的一些分布函数的集合H,这个集合包括模型H={h1,h2,⋯,h|H|。根据经验风险最小化原则,我们选择模型的准则就是训练误差最小
我们需要证明我们的选择是有道理的,即使训练误差较小的假设函数ˆh,他的泛化误差也不至于太大。
首先,对任意假设函数h而言,ˆR(h)都是R(h)的一个可靠的近似值;其次,给出ˆh的泛化误差R(ˆh)的上界。我们在样本空间内格局样本的概率分布D进行采样,得到训练集S={(x(i),y(i))}mi=1。给定任意假设函数hi∈H,定义服从Bernoulli分布的随机变量Zj=I{hi(x(j))≠y(j)}∈{0,1},则Zj表示hi是否将样本(x(j),y(j))误分类了,hi的泛化误差R(hi)=P(zj=1)。因为所有样本都是从同一个概率分布中独立采样的,所以{Zj}mj=1中的都是满足独立同分布的Bernoulli随机变量。hi的训练误差形式为
显然ˆR(hi)为m个独立同分布的Bernoulli随机变量的均值,且这些随机变量的期望值都是R(hi)。根据Hoeffding不等式,得到如下不等式
上述规律说明:对于特定假设函数hi而言,在样本数目m足够大时,训练误差和泛化误差近似相等的概率可以非常大,这也证明了ˆR(h)是R(h)的一个可靠的近似值。但我们想要保证的不仅仅是这种近似的可靠性只对特定的假设函数成立,而是对假设集合H所有的假设函数都成立。现将时间Ai定义为|R(hi)−ˆR(hi)|>γ,则由上一个结论可得P(Ai)≤2exp(−2γ2m)。由于
因此
上式被称为一致性收敛(uniform convergence),因为这个界对于H都成立。由此可知,H中所有假设函数的训练误差与泛化误差偏离范围在γ内的概率至少为
在给定其中两个值得情况下,我们可以推出第三个变量需要满足的条件。例如为了确保所有假设函数的训练误差和泛化误差间的偏差范围都在γγ以内的概率至少为1−δ,至少需要多少个训练样本?这个问题对应的数学表述为:
由此我们可以得到训练样本数目的下界为
这条规律对我们是非常有用的,由此我们可以推测算法性能要达到某种水平,至少需要多少个样本就足够了,这也称为算法的样本复杂度(sample complexity)。一般而言,log|H|增长很慢,据CMU的Andrew Moore所说,log|H|≤30。样本数目太少不能保证训练出来的模型有较优的性能,样本数目也没必要太多太多,尤其在样本的收集比较困难的情况下,只要能在模型性能达到期望的效果,样本越少越好。 同样地,假设样本数目m和δ都确定了,我们想知道假设集合H中所有假设函数的训练误差和泛化误差间偏离程度γ
接下来,我们给出ˆh的泛化误差上界。定义假设集合H的最优假设函数为
由于h⋆训练误差小于ˆh,结合|R(h)−ˆRh|≤γ,可得到ˆh的泛化误差上界:
上式说明,训练误差最小的假设函数ˆh的泛化误差顶多比假设集合中最优的假设函数h⋆高2γ,即:
我们可以总结出如下规律:在|H|有限的情况下,只要样本数目m足够大,就有R(ˆh)≈ˆR(h);此时若有ˆR(ˆh)≈0,必然有R(ˆh)≈0,即通过经验风险最小化得到的最优假设函数是可靠的。但实际情况并非如此简单:如果|H|有限,在大多数情况下我们无法保证从H中选择出来的假设函数的经验风险趋近于0(少数时候可以碰巧找到经验风险为0的假设函数),此时ˆh的泛化误差可能无法令人满意;如果|H趋于无限,我们虽可以保证R(ˆh)≈0,但根据上式又无法得到R(ˆh)≈ˆR(h),使得无法确保ˆh的泛化误差足够小。
SVM的置信界¶
假设训练点都处于一个半径为R的球体之中,且让G(x)=sign[f(x)]=sign[βTx+βo],则由G(x),‖β‖≤A组成 的函数集合的VC维h满足
如果f(x)是在‖β‖≤A下分离训练数据最优的函数。则在测试集上的误差E(test)我们有如下界限
在SVM中,规则化参数C的作用是用来约束分类器VC维的上界。根据结构风险最小化原则,我们来选择使得测试误差上界最小的C。但是利用正则化项C与交叉验证相比哪个更好,目前还不清楚。