一种面向JPEG图像的隐写分析盲检测的方法与流程

文档序号:14176547阅读:892来源:国知局
一种面向JPEG图像的隐写分析盲检测的方法与流程

本发明涉及计算机信息隐藏技术领域,特别涉及隐写分析盲检测方法和建立通用检测模型的方法。



背景技术:

随着网络技术、通信技术和多媒体信号处理技术的迅速发展,信息隐藏作为一种新兴的密码技术,已经成为信息安全领域一个新的研究热点。隐写技术是信息隐藏技术的一个重要分支,主要研究如何在公开的多媒体数据中隐藏信息以实现隐蔽通信。而相对应的隐写分析研究对隐写术的攻击,即如何检测、提取或破坏隐藏的秘密信息。

针对信息隐藏技术的发展和应用需求,许多基于jpeg图像的隐写算法,如f5、mb2、mme等,被提出了并且取得了良好的效果。虽然针对每一种算法都有相应的检测方式对其进行有效的检测,但是在实际应用却面临着难以选择合适的分类模型进行分类的问题。因此相对于隐写分析领域来说,如何有效地检测出未知隐写算法生成的隐写图像至关重要。

同时针对隐写分析盲检测来说,虽然提出了许多的通用隐写特征提取算法,但是在实际应用中,我们需要对已经确定的载密图像进行特征提取再由此训练出模型。而这是我们能够获取的载密图像数量有限,而非载密图像数量很多,数据不平衡训练出来的模型会有一定的偏向性,对于检测的准确性有比较大的偏差,会产生比较高的漏检率。而也有使用单类分类器进行训练的单类模型,虽然这种方法能够相对有效地检测出未知隐写算法生成的图像,然而这种方式的相对检测率较低,许多情况下没法达到使用要求。

对于这些问题,本专利提出了这样一种方法,通过比较广泛使用的通用特征提取算法和二类超球体分类器进行通用检测的模型训练,从而来实现隐写分析通用盲检测。



技术实现要素:

本发明的目的是提供一种训练基于jpeg图像的通用隐写分析盲检测的方法。该方法通过采用通用特征提取算法——相邻联合密度算法(neighboringjointdensity)进行特征提取,并且采用双边最大间隔超球体分类器(ss2lmsmallsphereandtwolargemargins)进行模型训练,通过网格搜索的方式进行最优参数的搜索,从而训练出一个通用检测模型,该模型具有漏检率低,检测率相对较高同时通用性强的优点。

本发明的技术方案为一种隐写分析盲检测算法,该技术具体包括模型训练和模型检测两个部分。

模型建立的过程包括以下步骤:

步骤1,提取图像的dct系数矩阵块内特征,块内相邻联合密度矩阵的在水平方向的值absnj1h和在垂直方向的值absnj1v分别由下式计算得出:

图像经过量化后获得了dct系数矩阵,我们用变量f来表示,它包括m×n个分块,每个分块用fij(i=1,2,...,m;j=1,2,...,n)来表示,其中每个分块都是一个8×8的矩阵,我们用cijmn表示位于块fij第m行第n列的dct系数,而在上面所列出的两个式子中,当括号中的等式都成立的情况下,则δ=1,如果不成立则δ=0。

考虑到计算效率,定义了absnj1作为块内相邻联合密度特征,如下式表示

在这个算法中,x和y是在区间[0,5]中的整数,各有6种取值情况,因此总共包含了36维特征。

步骤2,提取图像的dct系数矩阵块间特征,块间相邻联合密度特征在块间的水平方向特征absnj2h和竖直方向特征absnj2v可以通过下式计算得出:

图像经过量化后获得了dct系数矩阵,我们用变量f来表示,它包括m×n个分块,每个分块用fij(i=1,2,...,m;j=1,2,...,n)来表示,其中每个分块都是一个8×8的矩阵,我们用cijmn表示位于块fij第m行第n列的dct系数,而在上面所列出的两个式子中,当括号中的等式都成立的情况下,则δ=1,如果不成立则δ=0。

定义块间的相邻联合密度特征为absnj2,可以通过下式的方法计算得到:

同样地,x和y在[0,5]中进行取值,因此absnj2也包含了36维特征。

步骤3,通过将块间相邻联合密度特征和块内相邻联合密度特征进行组合,共得到72维的相邻联合密度特征。

feature=[absnj1(x,y),absnj2(x,y)]x,y=0,1,2,3,4,5

步骤4,将载密图像和非载密图像的72维相邻联合密度特征添加标签,对非载密图像的特征加上标签+1,对载密图像的特征加上标签-1,送入ss2lm分类器中进行训练。分类器的模型公式下式所示:

约束条件为:||φ(xi)-c2||≤r2-δρ2+ξi,i=1...m1

||φ(xi)-c2||≥r22+ξi,i=m1+1...s

ξi≥0,i=1......s

其中,r和c分别表示最优超球体的半径和圆心,而ξ=[ξ1,ξ2,...,ξs]t∈rs表示松弛变量,ρ表示的是外部边界,也就是异常数据到超球体边缘的距离,δ(0≤δ≤v)是外部边界和内部边界的比值,因此,内部边界,也就是正常数据到超球体边缘的距离就可以用δρ来进行表示。

分类器效果如图1所示。

特征模型检测过程包括以下步骤:

步骤1,将要检测的图像量化为dct系数矩阵,提取相邻联合密度特征,包括36维的块间特征以及36维的块内特征。

步骤2,将块间特征和块内特征组合成72维的相邻联合密度特征,并且加上标签,其中载密图像加上“-1”标签,非载密图像加上“+1”标签。

步骤3,将72维的加了标签之后的特征用训练阶段训练好的模型进行分类,其中决策函数如下式:

这个决策函数通过比较新特征点x到超球体球心c的距离和半径r,对未知的新特征点x进行分类。通过计算从每个特征点到超球体球心的距离||φ(x)-c||,比较半径r和该距离,如果该距离小于半径r,则可以将其分类为正常数据,否则可以将其分类为异常数据。根据上式中提出的决策函数,正常数据将被标记为+1,异常数据将被标记为-1。分类过程如下图3所示。

附图说明

图1为本发明ss2lm分类器训练过程示意图。

图2为本发明特征模型训练流程图。

图3为本发明ss2lm分类器分类过程示意图。

图4为本发明特征模型检测流程图。

具体实施方式

本发明的目的是提供一种具有通用性的隐写分析盲检测方法。该方法通过用相邻联合密度特征提取算法对载密图像和非载密图像进行特征提取,然后将其作为训练数据用ss2lm分类器进行模型训练。这样建立出来的模型在盲检测时具有通用性强,漏检率低,识别度高等优点,同时针对训练数据不平衡的情况下也能保持相应稳定性的优点。

本发明的技术方案为一种用于通用隐写分析盲检测的方法,总体识别过程包括训练和检测两个过程。

训练过程实施步骤:

步骤1,将载密图像和非载密图像量化为dct系数矩阵,使用相邻联合密度特征提取算法,分别提取出36维块内特征和36维的块间特征。

步骤2,分别将块内特征和块间特征综合成72维的相邻联合密度特征,同时针对载密图像所提取出来的特征加上“-1”标签作为负样本,而针对非载密图像提取出来的特征加上“+1”标签作为正样本。

步骤3,将正样本和负样本作为训练数据,使用ss2lm分类器进行模型训练,利用网格搜索调整最优参数,获取最优的超球体模型,则训练过程完毕。

检测过程实施步骤:

步骤1,对于要检测的图像,同训练过程的步骤1处理,获取了36维的块内特征和36为的块间特征。

步骤2,同训练步骤过程的步骤2一样,将其整合为72维的相邻联合密度特征,并且对于载密图像和非载密图像,分别打上“-1”和“+1”标签。

步骤3,将从步骤2获取到的打过标签之后的特征作为检测样本,使用从训练过程中的步骤3中获取到的最优超球体模型进行分类,根据分类结果来判定是否是载密图像。

本文中所描述的具体实施仅仅是是对本发明精神作距离书名。本发明所属技术领域的技术人员可以对所描述的具体实施例进行各种微调修改或补充或采用类似的方法替代,例如通过选择量化后的dct系数的绝对值矩阵进行特征提取,使用其他方式确定分类器的最优参数来建立模型,对ss2lm分类器进行改进或使用模糊边缘作为判定依据,但并不会偏离本发明的精神或者超越所付权利要求书所定义的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1