一种基于时序残差卷积建模的高嵌入容量视频隐写方法和系统与流程

文档序号:18824905发布日期:2019-10-09 01:24阅读:323来源:国知局
本发明属于信息隐藏领域,涉及一种视频隐写方法,具体涉及一种基于时序残差卷积建模的高嵌入容量视频隐写方法和系统。技术背景视频隐写技术是信息隐藏领域内的一个重要研究方向,利用视频的冗余性进行秘密信息的嵌入,能够实现在公开信道中的隐蔽通信(g.abboud,j.s.marean,andr.v.yampolskiy.steganographyandvisualcryptographyincomputerforensics.insadfe,2010.)。视频隐写的目标是将秘密消息(secret)嵌入到视频中(本发明中将其称为covervideo),得到一段载体视频(container),进而与知道解密协议的接收者秘密通信。接收者需要从载体视频中恢复出秘密消息(revealedsecret)。与密码学不同,隐写术旨在隐藏秘密通信的存在(r.j.andersonandf.a.petitcolas.onthelimitsofsteganography.ieeejournalonselectedareasincommunications,16(4):474–481,1998.),即载体视频是可以公开可见的,但只有目标接收者可以感知秘密消息的存在并将它揭示出来。传统的隐写技术分为两种:基于空域和基于频域的方法。传统的基于空域的图像隐写方法有hugo(t.t.filler,andp.bas.usinghighdimensionalimagemodelstoperformhighlyundetectablesteganography.ininformationhiding,2010.)、wow(v.holubandj.j.fridrich.designingsteganographicdistortionusingdirectionalfilters.inwifs,2012.)、s-uniward(v.holub,j.j.fridrich,andt.denemark.universaldistortionfunctionforsteganographyinanarbitrarydomain.eurasipj.informationsecurity,2014)等,这类方法简单地改动视频帧每个像素的最后一位,能够隐藏的信息量小于1bpp(bits-per-pixel,每像素比特数),当把它们扩展到视频隐写领域后可嵌入的信息量同样小于1bpp。由于基于频域的方法对频域系数的微小改变就可能导致视频的视觉效果产生较大变化,因此在被藏视频长度不够的情况下很容易被隐写分析发现(s.a.el-rahman.acomparativeanalysisofimagesteganographybasedondctalgorithmandsteganographytooltohidenuclearreactorsconfidentialinformation.computers&electricalengineering,70:380–399,2018.)。随着近年深度学习技术的发展,卷积神经网络被应用于隐写技术中。早期的工作主要集中在解码步骤(例如确定从载体媒介中提取哪些比特)来提高准确度(s.husienandh.badi.artificialneuralnetworkforsteganography.neuralcomputingandapplications,26(1):111–116,2015.)。另一些工作将深度学习应用到隐写分析中,如(y.qian,j.dong,w.wang,andt.tan.deeplearningforsteganalysisviaconvolutionalneuralnetworks.inmediawatermarking,security,andforensics,2015.)和(s.tanandb.li.stackedconvolutionalautoencodersforsteganalysisofdigitalimages.inapsipa,2014.)。最近一些工作(s.baluja.hidingimagesinplainsight:deepsteganography.innips,2017.j.hayesandg.danezis.generatingsteganographicimagesviaadversarialtraining.innips.2017.)将卷积神经网络纳入到图像隐写的隐藏和恢复阶段,取得了较好的效果。由于视频本身的结构与图像不同,简单地将这类图像隐写方法应用到视频隐写中无法在抗隐写分析能力、嵌入信息容量、视频传输损失鲁棒性方面取得最佳的效果。技术实现要素:针对传统视频隐写方法信息嵌入量低以及图像隐写方法扩展到视频隐写领域无法取得最优效果的问题,本发明提出一种新颖的高嵌入容量视频隐写技术。具体而言,针对在视频中隐藏另一段秘密视频的问题(特别是秘密视频的信息量接近被藏视频的应用场景),能够保证嵌入后视频不可感知的同时大幅提升嵌入信息量。本发明提出的技术具有通用性,可以广泛应用于通用的视频隐写问题,而非局限于特定类型的视频。与基于卷积神经网络的图像隐写算法直接应用到视频隐写中相比,本发明通过发掘连续帧之间残差的稀疏性,采用y型卷积神经网络结构,对不同性质的视频帧采用不同的端点处理,同时共享部分卷积层参数。本发明能够将一段视频隐藏进另一段等长的视频中,隐藏的信息量可以达到24bpp,远大于传统方法,很大程度上解决了传统方法无法应用到高嵌入容量视频隐写中的问题。图1展示了本发明提出的高嵌入容量视频隐写技术的框架。同传统的lsb隐写技术(r.chandramouliandn.memon.analysisoflsbbasedimagesteganographytechniques.inimageprocessing,2001.proceedings.2001internationalconferenceon,volume3,pages1019–1022.ieee,2001.)不同,本发明希望利用卷积神经网络自动学习推理合适的隐藏位置。为了充分利用视频连续帧间残差的稀疏性以提高隐写后视频的抗隐写分析能力,本发明设计了y型网络结构同时处理参考帧(referenceframe)和残差帧(residualframe)。本发明解决其技术问题所采用的技术方案是:一种基于时序残差卷积建模的高嵌入容量视频隐写方法,包括以下步骤:1)对秘密视频的参考帧和残差帧进行标记;2)采用y型卷积神经网络同时处理参考帧和残差帧以隐藏秘密信息,并输出载体视频帧;3)将载体视频帧合成为载体视频,即得到隐藏有秘密信息的视频。进一步地,本发明采用y型卷积神经网络分别恢复藏有参考帧或残差帧的载体视频,网络的输入为载体视频帧,输出是恢复出的秘密信息。下面进一步说明上述方法的各个步骤:1、参考帧/残差帧标记。本发明首先计算参考帧/残差帧的切分阈值,具体可以是在训练视频中计算某两帧之间的平均差异作为切分阈值,如第十三帧和第一帧。然后将需要隐藏的秘密视频的第一帧设为参考帧,之后每一帧计算其与参考帧之间的差异(残差),将其判定为参考帧或残差帧。若为残差帧,则步骤2中输入网络的待嵌入视频帧为当前帧与参考帧的残差。2、隐藏秘密信息。利用y型隐藏卷积神经网络的两个端点分别处理参考帧和残差帧,每一个端点的输入为被隐藏的视频帧和参考帧或残差帧叠加成的多通道视频帧,输出是载体视频帧。两个输入端点的卷积层结构相同,但不共享参数。y型隐藏卷积神经网络的后端为参数共享的卷积层。3、编解码模拟。在实际应用中,视频传输需要对载体视频进行编解码操作,为了降低恢复编解码后视频信息的难度,本方法在网络中加入了编解码模拟层,模拟可能出现的编解码损失。具体而言,本发明计算了视频编解码后像素的变化量,发现其大致符合对数正态分布,于是本发明使用了随机噪声生成器来模拟编解码损失。在训练过程中,该层先初始化为恒等映射,在训练过一段时间后,该层随机从上述对数正态分布中采样,改变载体视频帧的值来模拟信息损失。4、恢复秘密信息。接收方接收到载体视频后,将从中恢复出秘密信息。本方法采用y型恢复卷积神经网络恢复藏有参考帧或残差帧的载体视频。网络的输入为载体视频帧,前端是参数共享的卷积层,后端为结构相同但不共享参数的卷积层,输出是恢复出的参考帧或残差帧。5、参考/残差帧分类。对于每一个载体视频帧,由于不清楚其中藏有参考帧还是残差帧,接收方无法判定y型恢复网络的哪个后端端点得到的信息是正确的,本发明采用的策略是将载体视频帧分别作为y型恢复网络的输入。如此一来网络会恢复出两种秘密信息,需要判定属于当前帧的秘密信息是参考帧还是残差帧。显然藏有参考帧的视频帧经过恢复残差帧的网络会生成不符的秘密信息,反之亦然。由于接收方只可能恢复出四种类型的秘密信息:真参考帧(realreference)、假残差帧(fakeresidual)、真残差帧(realresidual)、假参考帧(fakereference),本方案使用一个卷积神经网络四分类器(reference-or-residualnet,简称rornet)进行分类,网络的最后一层输出为一个四维的向量,如图2所示。6、残差帧重建。如果步骤5将秘密信息判定为参考帧,那这一步可以忽略。如果判定结果是残差帧,需要将其加到正确的参考帧上来获得隐藏的视频帧。由于本发明是按照时序处理视频帧的,因此需要记录最近的参考帧进行重建。与上面方法对应地,本发明还提供一种基于时序残差卷积建模的高嵌入容量视频隐写装置,其包括:标记模块,负责对秘密视频的参考帧和残差帧进行标记;隐藏网络模块,负责采用y型卷积神经网络同时处理参考帧和残差帧以隐藏秘密信息,并输出载体视频帧;载体视频合成模块,负责将载体视频帧合成为载体视频,即得到隐藏有秘密信息的视频。进一步地,本发明还提供一种秘密信息恢复装置,其包括:恢复网络模块,包括y型卷积神经网络,用于恢复藏有参考帧和残差帧的载体视频;载体视频帧网络的输入,可恢复出四种类型的秘密信息:真参考帧、假残差帧、真残差帧、假参考帧;分类模块,采用卷积神经网络四分类器对所述四种类型的秘密信息进行分类,最后输出为一个四维的概率向量;将根据一张载体视频帧得到的两个概率向量相加,然后计算真参考帧和假残差帧的分数之和以及假参考帧和真残差帧的分数之和,从而判断出当前的载体视频帧所藏的信息是来自参考帧还是残差帧;残差帧重建模块,若当前载体视频帧所藏的信息来自残差帧,则该模块将其与最近的参考帧相加,得到最终恢复出的视频帧。进一步地,本发明还提供一种基于时序残差卷积建模的高嵌入容量视频隐写系统,其包括上面所述的基于时序残差卷积建模的高嵌入容量视频隐写装置以及秘密信息恢复装置。本发明的有益效果是:1、本发明所描述的视频隐写技术,提高了隐写后视频的视觉效果,增强了抗隐写分析能力。具体而言,本方法采用卷积神经网络端到端训练,能够发掘视频内在特征,学习将秘密信息隐藏到对视觉效果影响较小的地方。2、本发明所描述的视频隐写技术的信息嵌入量是传统视频隐写技术的二十倍以上,即一帧视频可以隐藏另一帧视频的内容,扩大了应用场景和应用价值。3、本发明所描述的视频隐写技术充分考虑了视频传输过程中的编解码对隐写效果带来的负面影响,并将其抽象到网络结构中一同训练,对视频编解码造成的信息恢复难的问题提供了很好的解决方案。附图说明图1为本发明的方法流程示意图;图2为参考/残差帧分类流程示意图。具体实施方式为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施例和附图,对本发明做进一步详细说明。本发明的一个实施例中,提供一种基于时序残差卷积建模的高嵌入容量视频隐写方法,包括以下步骤:1、待嵌入视频预处理。首先将输入秘密视频的第一帧标记为参考帧,然后计算之后的每帧与参考帧的变化量,若小于设定的阈值,则标记为残差帧,否则标记为新的参考帧。重复以上步骤直到视频中的所有帧都标记完毕。2、隐藏秘密信息。首先选择一段被隐写的视频,将其切分成视频帧(cover)。然后将其与待嵌入视频帧(secret)一一匹配,得到多个cover-secret对,其中有些secret是参考帧,另一些是残差帧。再根据secret的不同,将cover-secret送入隐藏网络对应的前端端点,输入的形式是两视频帧叠加合成的多通道张量。经过卷积神经网络的前向传播,可以得到输出的载体视频帧。3、视频编解码与传输。首先将载体视频帧进行编解码操作,合成为视频,然后将其发送给接收方,由接收方抽帧得到藏有秘密信息的视频帧。4、恢复秘密信息。接收方得到藏有秘密信息的视频帧后,需要将其恢复出来。首先将视频帧输入到y型恢复网络中,得到两张恢复出的图片。然后将这两张图片分别送进参考/残差分类器,得到两个四维的概率向量。由于恢复一张载体视频帧只可能出现两种结果(由藏有参考帧的载体视频帧恢复出真参考帧和假残差帧,以及由藏有残差帧的载体视频帧恢复出假参考帧和帧残差帧),因此只需要将这两个概率向量相加,然后计算真参考帧和假残差帧的分数之和以及假参考帧和真残差帧的分数之和,就可以判断出当前的载体视频帧所藏的信息是来自参考帧还是残差帧。如图2所示,其中p1表示真参考帧和假残差帧的分数之和,p2表示假参考帧和真残差帧的分数之和,p1>p2,说明载体视频藏有参考帧,反之说明载体视频藏有残差帧。5、残差帧重建。若当前载体视频帧所藏信息来自残差帧,则需要将其与最近的参考帧相加,得到最终恢复出的视频帧;若所藏信息来自参考帧,则跳过此步骤。采用本发明的方法进行视频隐写,并与其它能实现类似效果的方法在多个指标上进行对比,如apd(逐像素差异)、rmse(均方根误差)、psnr(峰值信噪比)、ssim(结构相似性)和vif(视频信息保真度),如表1所示。表1.本发明方法与其它方法的效果对比与本发明做对比的有:4bit-lsb(r.chandramouliandn.memon.analysisoflsbbasedimagesteganographytechniques.inimageprocessing,2001.proceedings.2001internationalconferenceon,volume3,pages1019–1022.ieee,2001.)、hrvss(m.elsadigeltahir,m.l.matkiah,b.ba-haa,anda.zaidan.highratevideostreamingsteganography.inicime,2009.)、baluja(s.baluja.hidingimagesinplainsight:deepsteganography.innips,2017.)和hidden(j.zhu,r.kaplan,j.johnson,andl.fei-fei.hidingdatawithdeepnetworks.arxivpreprintarxiv:1807.09937,2018.)。从表1中可看出,本发明的方法能够在保证隐写效果(载体视频信息损失最小)的同时使得恢复出的视频与原秘密视频尽可能相似,在多个评价指标上均优于其他方法。本发明另一实施例提供一种基于时序残差卷积建模的高嵌入容量视频隐写装置,其包括:标记模块,负责对秘密视频的参考帧和残差帧进行标记;隐藏网络模块,负责采用y型卷积神经网络同时处理参考帧和残差帧以隐藏秘密信息,并输出载体视频帧;载体视频合成模块,负责将载体视频帧合成为载体视频,即隐藏有秘密信息的视频。本发明另一实施例提供一种秘密信息恢复装置,其包括:恢复网络模块,包括y型卷积神经网络,用于恢复藏有参考帧或残差帧的载体视频;载体视频帧作为网络的输入,恢复出四种类型的秘密信息:真参考帧、假残差帧、真残差帧、假参考帧;分类模块,采用卷积神经网络四分类器对所述四种类型的秘密信息进行分类,最后输出为一个四维的概率向量;将根据一张载体视频帧得到的两个概率向量相加,然后计算真参考帧和假残差帧的分数之和以及假参考帧和真残差帧的分数之和,从而判断出当前的载体视频帧所藏的信息是来自参考帧还是残差帧;残差帧重建模块,若当前载体视频帧所藏的信息来自残差帧,则该模块将其与最近的参考帧相加,得到最终恢复出的视频帧。本发明另一实施例提供一种基于时序残差卷积建模的高嵌入容量视频隐写系统,其包括上面所述的基于时序残差卷积建模的高嵌入容量视频隐写装置以及秘密信息恢复装置。本发明中,隐藏网络和恢复网络的结构可采用多种深度卷积神经网络结构,如u-net、hourglass等。本发明中,输入隐藏网络的被隐藏视频和秘密视频除叠加合成多通道视频帧外,还可以有其他组合方式,如简单逐像素相加、求平均等,也可以通过线型或非线性变换合成为多维张量。本发明中,参考帧/残差帧分类网络可以采用其他深度神经网络结构,如vgg、resnet、densenet等。本发明中,参考帧/残差帧标记方法除设定阈值法外,还可以采用指定每隔一定帧数即标记一次参考帧、将其余帧标记为残差帧的方式,也可以采用其他自适应方法判断视频内容变化程度来标记。以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的原理和范围,本发明的保护范围应以权利要求书所述为准。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1