一种多媒体信息处理方法及服务器的制造方法_2

文档序号:9730529阅读:来源:国知局
进行混 合叠加,W使得到的叠加画面中所述关键信息作为所述直播流信息的前景信息共同呈现, 并转换成标准数字视频压缩格式,W供终端设备播放。
[0071 ]运里,所述转换成标准数字视频压缩格式,W供终端设备播放,可W指:转换成标 准数字视频压缩格式的数字信号,将所述数字信号w直播形式传输至终端设备进行播放。
[0072] 具体地,所述加载直播流信息进行播放,可W包括:
[0073] 获取W流式传输方式得到的所述直播流信息,所述直播流信息为经网络传输至所 述终端设备,支持在所述终端设备本地实时回放的媒体内容编码数据流;
[0074] 解析所述直播流信息,W得到实时的视频信号进行播放。
[0075] 优选地,判断是否需要在所述直播流信息中叠加所述第一多媒体信息的方法,可 W包括:
[0076] 获取所述第一多媒体信息的预定播放次数W及单次播放时长;
[0077] 获取直播流信息的预计时长;
[0078] 基于所述预定播放次数W及所述单次播放时长,并结合所述预计时长确定需要在 直播流信息中叠加所述第一多媒体信息的开始时间点。
[0079] 例如,步骤S102中生成的第一多媒体信息的时长为10秒,已承诺动态多媒体信息 提供商在直播流信息中播放5次第一多媒体信息,而直播流信息的预计时长大于等于60分 钟,因此,叠加所述第一多媒体信息的开始时间点可W分别在直播直播流信息时的第10分 钟、第20分钟、第30分钟、第40分钟W及第50分钟。
[0080] 需要说明的是,可W对设置第一多媒体信息播放列表,所述播放列表中包括预设 时间段内的各个第一多媒体信息的播放顺序、单次播放时长W及开始播放时间;如此,根据 所述播放列表自动控制第一多媒体信息的出现顺序W及出现次数。
[0081] 例如,所述播放列表中包括第一多媒体信息a、第一多媒体信息b;每一个第一多媒 体信息的播放次数均为5,且每一个第一多媒体信息的单次播放时长均为10s;那么,在预计 播放时长为60分钟的直播流信息中,可W分别在第5分钟、第15分钟、第25分钟、第35分钟、 第45分钟播放第一多媒体信息a;分别在第10分钟、第20分钟、第30分钟、第40分钟、第50分 钟播放第一多媒体信息b。
[0082] 优选地,所述按照第二预设策略将所述第一多媒体信息与所述直播流信息进行混 合叠加,可W包括:
[0083] 采集所述直播流信息中当前帖的视频像素数据;其中,所述当前帖为第Μ帖;
[0084] 读取所述第一多媒体信息的第一帖数据,从所述第一帖数据获取所述第一帖数据 中的透明度像素值W及预设视频图像像素数据格式的像素数据;
[0085] 根据透明度像素值将视频像素数据与预设视频图像像素数据格式的像素数据进 行混合叠加;
[0086] W此类推,将所述直播流信息中第Μ+η帖与所述第一多媒体信息的第η+1帖进行混 合叠加,直至所述直播流信息中第Μ+Ν-1帖与所述第一多媒体信息的第Ν帖进行混合叠加; 其中,1 <η<Ν-1。
[0087] 优选地,所述方法还可W包括:
[0088] 将采集到的视频像素数据进行缓存;
[0089] 将获取到的透明度像素值W及预设视频图像像素数据格式的像素数据进行缓存。
[0090] 优选地,混合叠加公式为:
[0091] Y = Y1*A+Y2*(1-A);
[0092] U = U1*A+U2*(1-A);
[0093] v = Vl*A+V2*(l-A);
[0094] 其中,Υ为叠加后的亮度像素值,U为叠加后的色度像素值,V为叠加后的饱和度像 素值;Y1为叠加前第一文件的当前帖像素数据的亮度像素值,U1为叠加前第一文件的当前 帖像素数据的色度像素值,VI为叠加前第一文件的当前帖像素数据的饱和度像素值;Y2为 叠加前直播视频文件的当前帖像素数据的亮度像素值,U2为叠加前直播视频文件的当前帖 像素数据的色度像素值,V2为叠加前直播视频文件的当前帖像素数据的饱和度像素值;A表 示第一文件的当前帖的透明度像素值。
[0095] 优选地,所述标准数字视频压缩格式可W是待接收终端设备能够解码的数字视频 压缩格式,如肥64视频编码。
[0096] 通过本发明实施例一所述多媒体信息处理方法,服务器获取N个第一信息,N为正 整数,所述第一信息的类型与第一预设策略相匹配,W支持合成第一多媒体信息;将所述N 个第一信息按照所述第一预设策略生成第一多媒体信息,所述第一多媒体信息携带关键信 息;加载直播流信息进行播放,当检测到需要在所述直播流信息中叠加所述第一多媒体信 息时,按照第二预设策略将所述第一多媒体信息与所述直播流信息进行混合叠加,W使得 到的叠加画面中所述关键信息作为所述直播流信息的前景信息共同呈现,并转换成标准数 字视频压缩格式,W供终端设备播放;如此,可W智能控制动态多媒体信息的播放,使动态 多媒体信息的关键信息得W展现而非关键信息得W透明隐藏,尽最大概率还原动态多媒体 信息非关键区域中的主体直播流的信息,在达到动态多媒体信息提供商的需求和目的的同 时,又不损害用户观看直播视频的体验,维护在线视频的形象;另外,由于动态多媒体信息 在源端编码流中进行处理,因此在服务器后台分发及转码后都会同步在移动设备播放中, 降低了对终端设备的要求。
[0097] 实施例二
[0098] 本发明实施例提供了一种生成第一多媒体信息的方法,所述方法应用于服务器, 图2为本发明提供的一种生成第一多媒体信息的实现流程示意图;如图2所示,本实施例中, 假设第一信息为png格式的图片,所述方法包括:
[0099] 步骤S201:读取N个图片中的第1个图片;
[0100] 假设提供商要求制作一时长为10秒的第一多媒体信息,本实施例中,所述第一多 媒体信息可W理解为跑马灯广告,由于帖率FI^ = 25,所W提供商提供了 250张 PNG序列图片 文件,编号可 W为00001. png、〇〇〇〇2. png、…、00249. png、00250. png。
[0101] 图3-1为本发明提供的部分图片的排列示意图,编号从00037.png至00060.png,共 计24张;图3-2为本发明提供的一张图片的素材示意图,从该图中可W看出,该图片中的关 键信息包括"Ξ金西瓜霜"、"Ξ金西瓜霜"的图标、"音乐现场化曲不停"W及"Live Music" 图标;需要说明的是,该图片中,背景信息的透明度设置为50%。
[0102] 步骤S202:对所述第1个图片进行解码,获取并缓存关于第1个图片的像素数据;
[0103] 本实施例中,假设所述像素数据为ARGB32格式的像素数据,该像素数据通过 ARGB32_Buffer 存储。
[0104] 步骤S203:从所述像素数据中提取透明度(Alpha)像素值,并将除透明度像素值之 外的像素数据转换为预设视频图像像素数据格式;
[0105] 本实施例中,所述预设视频图像像素数据格式为YUV420P;其中,YUV420P是视频图 像像素数据的一种规格,Υ表示亮度,u表示色度,V表示饱和度,而YUV的排布规格按4:2: ο采 用方式描述,每个像素占内存1.5个字节大小。
[0106] 步骤S204:分别对透明度像素值W及预设视频图像像素数据格式的像素数据进行 缓存;
[0107] 本实施例中,通过Abha_Buffer存储透明度像素值;通过YUV_Buffer存储除透明 度像素值之外的像素数据。
[0108] 步骤S205:根据所述透明度像素值W及预设视频图像像素数据格式的像素数据合 成第1个子文件;
[0109] 运里,所述子文件可W是.tc格式文件,本实施例最终生成的第一多媒体信息可W 命名为Adv.tc文件。
[0110] 本实施例中,将Alpha_Buffer中所存储的透明度像素值先写入第1个子文件,将 YUV_Buffer中所存储的除透明度像素值之外的像素数据后写入第1个子文件中;那么,当执 行图4所示的叠加流程图时,在读取Adv.tc文件时,需要先读取透明度像素值,再读取除透 明度像素值之外的像素数据。同理,如果写入顺序调换,那么,在将第一多媒体信息叠加到 直播流信息时,读取Adv. tc文件时,需要先读取除透明度像素值之外的像素数据,再读取透 明度像素值。
[0111] 步骤S206:判断η是否小于等于N,如果是,继续执行步骤S201。
[0112] 也就是说,最终共获取Ν个子文件,根据所述Ν个子文件生成第一多媒体信息。
[011;3]实施例S
[0114] 本发明实施例提供了一种将第一多媒体信息与直播流信息进行混合叠加方法,所 述方法应用于服务器,图4为本发明提供的一种将第一多媒体信息与直播流信息进行混合 叠加的实现流程示意图;如图4所示,所述方法包括:
[0115] 步骤S301:判断是否需要在直播流信息中叠加第一多媒体信息;如果是,执行步骤 S302;如果否,执行步骤S305;
[0116] 本实施例中,假设第一多媒体信息为跑马灯广告、直播流信息为直播流信息。
[0117] 步骤S302:采集所述直播流信息中当前帖的视频像素数据;其中,所述当前帖为第 S帖;
[0118] 运里,可W通过YUVSrc_Buffer缓存所述当前帖视频像素数据。
[0119] 步骤S303:读取所述第一多媒体信息的第Μ帖数据,从所述第Μ帖数据获取所述第Μ 帖数据中的透明度像素值W及预设视频图像像素数据格式的像素数据;1含Μ < Ν;
[0120] 具体地,可W按照先后顺序从Adv.tc文件中读取第Μ帖所对应的透明度像素值W 及除透明度像素值之外的像素数据;并按照先后顺序分别将透明度像素值缓存至Alpha_ Buf f er、将除透明度像素值之外的像素数据缓存至YUV_Buf f er中。
[0121 ] 运里,读取顺序与生成Adv. tc文件时的写入顺序一致。
[0122] 步骤S304:根据透明度像素值将视频像素数据与预设视频图像像素数据格式的像 素数据进行混合叠加;
[0123] 步骤S305:采集所述直播流信息中当前帖的视频像素数据;其中,所述当前帖为第 S帖,然后执行步骤S306;
[0124] 步骤S306:将叠加后的像素数据进行编码,转换为标准数字视频压缩格式;然后执 行步骤S307;
[0125] 优选地,所述标准数字视频压缩格式可W是待接收终端设备能够解码的数字视频 压缩格式,如肥64视频编码。
[0126] 本实施例中,将叠加后的像素数据进行肥64视频编码。
[0127] S307:将当前帖加1,并继续执行步骤S301。
[0128] 下面,就YUVSrc_Buf f er数据与YUV_Buf f er数据根据Alpha_Buf f er透明度像素值 的叠加实现细节给出说明,YUVSrc_Buffer与YUV_Buffer所存储的像素数据的像素格式均 为YUV420P,叠加 W-帖实现作为参考。
[0129] 现假设跑马灯广告叠加位置坐标为x,y,广告画面宽高分别为wi化h,height,则有 下面数据逻辑关系:
[0130] 跑马灯广告一帖的数据YUV_Buffer大小为:
[0131] int nYUVBufferSize=width*height*l .5;
[0132] 跑马灯广告一帖的像素数据是:
[0133] BYTE YUV_Buffer[nYUVBufferSize];
[0134] YUV_Buf f er 中,Υ,U,
当前第2页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1