用于处理信息的设备、方法和计算机程序的制作方法

文档序号:6462169阅读:113来源:国知局
专利名称:用于处理信息的设备、方法和计算机程序的制作方法
技术领域
本发明涉及信息处理设备、信息处理方法和计算机程序,特别地,本发 明涉及用于基于诸如电视节目之类的视频内容产生指示人物和相应的面部图 像之间的映射的数据库的信息处理设备、信息处理方法和计算机程序。
背景技术
例如,日本待审查专利申请公开No.2002 - 189724公开了在运动图片或 静态图片中检测人脸并识别这是谁的面部的技术。在现有技术中,参照记录有人物(人)和指示映射到人物的人物特征的 特征量模型的数据库(下面称为DB),将所检测到的面部图像的特征量模型 与数据库上的特征量模型进行比较,并且具有最高相关性的人物被识别为具 有所检测到的面部图像的人物。发明内容手动构造已经记录有人物和映射到人物的面部的特征量模型的现有技术 中的DB。如果例如使用计算机自动构造DB,则要存储在DB上的数据量(人 物和人物的面部的特征量模型的数量)增加得比手动输入操作更迅速。因此, 期望识别更多的人物。于化妆或伪装造成的面部特征的变化。在这种情况下,DB还需要手动更新。 因此期望自动构造基于视频内容指示人物和面部的特征量模型之间的映 射的数据库。在根据本发明的 一 个实施例中,用于产生指示人物和人物的面部图像之间的映射的数据库的信息处理设备包括列表产生单元,用于基于视频内容 的元数据产生在视频内容中出现的人物的列表;检测单元,用于从视频内容 中检测人物的面部图像;模型产生单元,用于产生指示所检测到的人物的面 部图像的特征的特征量模型;和映射单元,用于将基于视频内容产生的特征 量模型映射到在人物列表中包含的人物。信息处理设备还可以包括分类单元,用于根据相似性将多个特征量模型 分类成特征量模型组,并且产生代表在分类到每个特征量模型组中的多个特 征量模型的代表性模型。映射单元将代表性模型映射到在人物列表中包含的 人物。映射单元可以包括确定单元,用于确定目标人物;获取(retrieval)单 元,用于根据人物列表搜索目标人物出现的视频内容,并且获取从所搜索到 的视频内容产生的特征量模型;确定单元,用于从获取的特征量模型中确定 相互具有高相关性的多个特征量模型;和映射产生单元,用于产生用作被确 定为相互具有高相关性的多个特征量模型的中心的中心模型,并且将该中心 模型映射到目标人物。列表产生单元可以基于视频内容的元数据产生包括由多个人物组成的组 的人物列表。检测单元可以从视频内容检测人物的面部图像,而不管其视面角如何, 并且映射单元可以将基于以不同视面角检测到的面部图像产生的多个特征量 模型映射到同一人物。在根据本发明的 一个实施例中,用于产生指示人物和人物的面部图像之 间的映射的数据库的信息处理设备的信息处理方法包括步骤基于视频内容 的元数据产生在视频内容中出现的人物的列表;从视频内容中检测人物的面 部图像;产生指示所检测到的人物的面部图像的特征的特征量模型;和将基 于视频内容产生的特征量模型映射到在人物列表中包含的人物。在根据本发明的一个实施例中,用于使计算机产生指示人物和人物的面 部图像之间的映射的数据库的计算机程序包括步骤基于视频内容的元数据 产生在视频内容中出现的人物的列表;从视频内容中检测人物的面部图像; 产生指示所检测到的人物的面部图像的特征的特征量模型;和将基于视频内 容产生的特征量模型映射到在人物列表中包含的人物。在根据本发明的一个实施例中,基于视频内容的元数据产生在视频内容中出现的人物的列表;从视频内容中检测人物的面部图像;产生指示所检测 到的人物的面部图像的特征的特征量模型;和将从视频内容中产生的特征量 模型映射到在人物列表中包含的人物。在根据本发明的实施例中,基于视频内容,自动构造指示人物和人物的 面部图像之间的映射的数据库。


图1是图解根据本发明一个实施例的信息提供系统的方框图; 图2是图解根据本发明一个实施例的人物和特征量模型数据库(DB )产 生器的方框图;图3图解图2的内容DB;图4图解图2的人物相关信息型DB;图5图解图2的人物列表;图6图解图2的人物和特征量模型DB;图7是图解图2的映射部件的方框图;图8是图解准备处理的流程图;图9是图解人物和特征量模型DB产生处理的流程图;和 图IO是图解计算机的方框图。
具体实施方式
在描述本发明的实施例之前,在下面论述了本发明的特征与在本发明的 说明书或附图中公开的实施例之间的对应关系。该声明意欲确保在该说明书 或附图中描述了支持所要求保护的发明的实施例。因此,即使在说明书或附 图中描述了实施例,但是在这里没有描述为与本发明的特征有关,这也不必 然表示该实施例与本发明的特征无关。相反地,即使这里将实施例描述为与 本发明的特定特征有关,这也不必然表示该实施例与本发明的其它特征无关。在根据本发明的 一个实施例中,用于产生指示人物和人物的面部图像之 间的映射的数据库的信息处理设备(例如图2的人物和特征内容模型DB产 生器20)包括列表产生单元(例如,图2的人物列表产生器28),用于基 于视频内容的元数据产生在视频内容中出现的人物的列表;检测单元(例如, 图2的面部图像检测器24),用于从视频内容中检测人物的面部图像;模型产生单元(例如,图2的特征量模型提取器25),用于产生指示所检测到的 人物的面部图像的特征的特征量模型;和映射单元(例如,图2的映射部件 29),用于将基于视频内容产生的特征量模型映射到在人物列表中包含的人 物。信息处理设备还可以包括分类单元(例如图2的特征量分类器26),用 于根据相似性将从视频内容中产生的多个特征量模型分类到特征量模型组, 并且产生代表分类到每个特征量模型组中的多个特征量模型的代表性模型。映射单元可以包括确定单元(例如,图7的目标人物确定器41),用于 确定目标人物;获取单元(例如,图7的目标人物搜索器42和代表性模型组 获取器43),用于根据人物列表搜索目标人物出现的视频内容,并且获取基 于所搜索到的视频内容产生的特征量模型;确定单元(例如,图7的相关性 确定器44),用于从获取的特征量模型中确定相互具有高相关性的多个特征 量模型;和映射产生单元(例如,图7中的中心模型产生器45),用于产生 用作被确定为相互具有高相关性的多个特征量模型的中心的中心模型,并且 将中心模型映射到目标人物。在根据本发明的一个实施例中,用于产生指示人物和人物的面部图像之 间的映射的数据库的信息处理设备的信息处理方法和计算机程序之一,包括 步骤基于视频内容的元数据产生在视频内容中出现的人物的列表(例如, 图8的步骤S5);从视频内容中检测人物的面部图像(例如,图8的步骤S2); 产生指示所检测到的人物的面部图像的特征的特征量模型(例如,图8的步 骤S3);和将基于视频内容产生的特征量模型映射到在人物列表中包含的人 物(例如,图8的步骤S16)。在下面将参照附图描述本发明的实施例。在下面参照图l描述本发明的一个实施例的信息提供系统10。该信息提 供系统10包括人物和特征量模型数据库(DB)产生器。在信息提供系统10 中使用人物和特征内容模型DB。信息提供系统10包括信息提供设备11、人物相关信息DB 23和人物和 特征量模型DB 30。信息提供设备11接收面部照片和面部合成图画(facial composite drawing ),并且向用户提供关于与输入的面部照片对应的人物(人) 的信息。人物相关信息DB 23存储在视频内容中出现的人物(诸如娱乐界人 士、知识分子、运动员、政客)的人物信息以及映射到人物的人物相关信息。人物和特征量模型DB 30存储人物信息和指示映射到人物信息的每个人物的 特征的特征量模型。信息提供设备11产生指示从操作者输入的面部照片和面部合成图画的 特征的特征量模型,通过参照人物和特征量模型DB 30来搜索具有与所产生 的特征量模型最高相关性的特征量模型,并且识别匹配该搜索结果的人物。 信息提供设备11从人物相关信息DB 23获取所识别的人物的人物相关信息, 并且将所获取的信息提供给操作者。事先准备人物相关信息DB23 (在后面详细描述)。由图2的人物和特征 量模型DB产生器20构造人物和特征量模型DB 30。将参照图2描述根据本发明的一个实施例的人物和特征量模型DB产生 器20。人物和特征量模型DB产生器20构造人物和特征量模型DB 30。人物和特征量模型DB产生器20包括内容DB21、元数据DB22、人物 相关信息DB23、面部图像检测器24、特征量模型提取器25、特征量模型分 类器26、特征量模型DB27、人物列表产生器28和映射部件29。内容DB21 存储视频内容。元数据DB22存储与在内容DB21上存储的视频内容对应的 元数据。人物相关信息DB23存储人物相关信息。面部图像检测器24从视频 内容中检测面部图像。特征量模型提取器25产生指示所检测到的面部图像的 特征的特征量模型。特征量模型分类器26根据相似性将大量产生的特征量模 型分类。特征量模型DB27存储特征量模型。人物列表产生器28基于视频内 容的元数据产生在视频内容中出现的人物的人物列表31。映射部件29将特 征量模型映射到在人物列表31中包含的人物。视频内容包含诸如电视节目之类的运动图像和诸如新闻照片或影印图片 之类的静态图像。如图3所示,内容DB21存储内容ID ((标识),即,标识 视频内容的唯一标识信息)以及指示具有映射到位置信息的内容ID的视频内 容(运动图像数据、静态图像数据等)的实际数据的存储位置的位置信息。 内容DB21根据所存储的位置信息获取视频内容的实际数据,并且将实际数 据输出到面部图像检测器24和映射部件29的每一个。内容DB 21可以存储 视频内容的实际数据。元数据的内容ID。如果视频内容是电视节目,则元数据包括诸如节目名称、 广播日期和时间、频道、报幕(casting)、节目内容之类的EPG (电子节目指南)。在不是电视节目的情况下,元数据是包括在视频内容中出现的人物的名称的一般属性信息。元数据DB 22存储人物列表31和映射到人物列表31的 内容ID。由人物列表产生器28产生人物列表31。人物相关信息DB 23存储与在视频内容中出现的人物(诸如娱乐界人士、 知识分子、运动员、政客)有关的人物信息以及映射到人物的人物相关信息。图4图解存储在人物相关信息DB 23上的人物相关信息中的条目。人物 相关信息包括人物名称、名称的发音指南、名称的字母表示、家乡、生曰、 登场时间、相关人物ID、人物的官方主页的URL (统一资源定位符)以及其 它信息,每一条目映射到人物ID。可以将人物ID分配给由多个人物组成的组。如果组的每个成员在^f见频内 容中分别出现,则该成员分配有其自身的人物ID。映射到组的成员的人物相 关信息的相关人物ID包括组的人物ID和该组的另一成员的人物ID。每一组 记录有相互映射到其的组成员。即使在人物列表中描述组名称,也映射每一 独立组成员的面部。人物相关信息DB 23还可以包含视频内容的内容ID和人物在视频内容 中出现的时间的时间信息。参照图2,从内容DB 21获取视频内容,并且检测在所获取的视频内容 的视频中的人物面部。面部图像检测器24不仅以正面(full face),而且以各 种不同角度观看人物面部的时候(例如从前向向右转10度,或从前向向左转 45度)检测人物图像。还可以从各种方向拍摄作为主体的人物。面部图像检 测器24将检测结果输出到特征量模型提取器25。如果视频内容是运动图像, 则即使单个人物在视频内容中表演,也能检测多个面部图像。如果在连续的 场景中以不同角度检测面部图像,则在许多情况下该面部图像可能来自同一 人。然后作为后续元件的特征量模型分类器26存储指示连续检测的信息,使 得所检测到的多个面部图像被识别为来自同 一人。特征量模型提取器25产生指示所检测到的人物面部图像的特征的特征 量模型。该特征量模型提取器25还检测所检测到的面部的视面角,并且将特 征量模型和面部角度输出到特征量模型分类器26和特征量模型DB 27中的每 一个。逐面部角度地产生特征量模型是完全可以接受的。替代地,可以针对 所检测到的正面产生特征量模型,并且可以基于所产生的正面特征量模型产 生针对另 一面部角度的特征量模型。例如,在日本待审查专利申请公开No.2002-189724中公开的技术可以应 用于面部图像检测器24和特征量模型提取器25。特征量模型分类器26计算具有从单个视频内容产生的同一面部角度的 多个特征量模型的相似性,并且将特征量模型分类成特征量模型組,使得每 个特征量模型组由类似的特征量模型组成。将分在同一特征量模型组中的多 个特征量模型认为与同一人对应。特征量模型分类器26产生每个特征量模型 组的平均模型(下面称为代表性模型),并且将代表性模型输出到特征量模型 DB27。如果人物面部不像,则产生大于人物数的代表性模型数。如果产生不 同面部角度的特征量模型,则由此针对同 一人物产生不同角度的代表性模型。从单一视频内容产生的多个代表性模型称为代表性模型组32。更具体 地,代表性模型组32包含在单个视频内容中表演的每个人物的代表性模型。 代替产生代表性模型,可以将作为特征模型的分类结果的特征量模型组输出 到特征量模型DB27中。然而,代表性模型的产生允许在后面的元件中的计 算量减少。特征量模型DB 27存储由特征量模型提取器25产生的特征量模型以及 由特征量模型分类器26产生的代表性模型。特征量模型DB 27还可以存储由 特征量模型分类器26分类的特征量模型组。基于视频内容的元数据,人物列表产生器28产生在视频内容中表演的人 物的人物列表31,并且将所产生的人物列表31输出到元数据DB22。如图5 所示,人物列表31包含在每一个均映射到内容ID的元数据(从人物相关信 息DB23中获取)、报幕(男演员、女演员、制片人、作者)和显示顺序(在 元数据中(特别在EPG中))中描述的人物的人物ID的列表。在后面组成部 分中的映射部件29使用元数据中的显示顺序作为与每个人物的表演的时间 长度和人物重要程度有关的信息。映射部件29确定操作者希望映射特征量模型的人物(下面称为目标人 物)。映射部件29识别目标人物表演的多个视频内容,将人物列表31与每一 个对应于所识别的视频内容的代表性模型组32进行比较以进行映射,产生与 目标人物对应的特征量模型(中心模型),并且将中心模型输出到人物和特征 量模型DB 30以进行存储。当识别多个视频内容时,可以将相同系列的视频 内容处理为单一的视频内容。可以基于仅与单一视频内容对应的代表性模型 组32将人物和代表性模型组32相互映射。响应于来自映射部件29的输出,人物和特征量才莫型DB 30存储人物ID 和映射到人物ID的特征量模型。图6图解人物和特征量模型DB 30的数据 结构。每个人物ID包含在视频内容中观看面部图像的视面角(例如,正面或 向右转45度)、拍摄日期(年和日期)、指示特殊化妆和伪装(正常、化妆1 、 化妆2等)的类型、作为特征量模型的标识信息的特征量模型ID、指示人物 和特征量模型之间的映射的精确度的概率和指示手动校正的历史和每一条目 的更新的手动更新历史,在它们之间相互映射。如果具有不同拍摄日期的特 征量模型中的变化小,则可以合并这些数据。以这种方式,控制人物和特征 量模型DB 30的数据尺寸的过度增加。人物和特征量模型DB 30存储映射到单一人物的多个特征量模型。更具 体地,可以记录具有同一人物ID但在其它条目具有不同值的人物。以这种方 式,如果视频内容中的人物因年龄、化妆或伪装而面部发生变化,则将每个 状态中的特征量模型映射到同一人物ID,并且识别为针对同一人物的特征量 模型。随着人物在更多视频内容中出现,更频繁地检测面部图像,并且概率变 得更高。例如,如果人物A和B二者在每个视频内容中总是一起表演,则特 征量模型a和b被分别映射到人物A和B。将人物A映射到特征量模型a、 将人物A映射到特征量模型b、将人物B映射到特征量模型a和将人物B映 射到特征量模型b的每一个映射概率是50 % 。图7图解映射部件29的结构。映射部件29包括目标人物确定器41、目标人物搜索器42、代表性模型 组获取器43、相关性确定器44、中心模型产生器45和记录器46。目标人物 确定器41确定目标人物。基于元数据DB 22上的人物列表31,目标人物搜 索器42识别目标人物表演的多个视频内容。代表性模型组获取器43从特征 量模型DB27获取与所识别的多个视频内容对应的代表性模型组32。相关性 确定器44基于在多个代表性模型组32中包含的代表性模型的相关性来选择 与目标人物对应的多个代表性模型。中心模型产生器45从所选择的多个代表 性模型中产生中心模型。记录器46使人物和特征量模型DB 30存储所产生的、 目标人物被映射到其的中心模型。当准备处理(在后面描述)结束,同时将新视频内容添加到内容DB 21 时,目标人物确定器41通过在视频内容中顺序地选择人物来确定目标人物。除了其中不同于目标人物的人物也始终一起表演的视频内容之外,目标人物 搜索器42还识别显示目标人物的多个视频。相关性确定器44计算多个所获取的代表性模型组32中的代表性模型的 相关性,并且在代表性模型组中选择具有最高相关性的代表性模型的组合。 替代选择具有最高相关性的代表性模型组,也可以选择具有高于阈值的相关 性的代表性模型。如果计算代表性模型组的所有代表性模型的相关性,则计 算量变得非常大。在这种情况下,可以计算在人物列表31中的高显示顺序范 围内的数个人物的相关性。利用这种安排迅速选择要被选择的代表性模型, 并且减少相关性的计算量。中心模型产生器45产生具有与多个所选择的代表性模型的每一个大致 相等的相关性的特征量模型作为中心模型。下面参照图8的流程图描述用于产生人物和特征量模型DB 30的准备处理。在准备处理中,针对每个视频内容产生人物列表31和代表性模型组32。 例如,当将新视频内容添加到内容DB 21日于,对所添加的视频内容执行准备 处理。在步骤S1中,面部图像检测器24从内容DB21获取要被处理的视频内 容,检测在所获取的视频内容的视频中的人物面部,并且将人物面部输出到 特征量模型提取器25。在步骤S2中,特征量模型提取器25产生指示所检测 到的人物面部的特征的特征量模型。特征量模型提取器25检测所检测到的面 部的面部角度,并且将特征量模型以及面部角度输出到特征量模型分类器26 和特征量模型DB 27中的每一个。从整个视频内容完成面部检测,并且产生每个所检测到的面部的特征量 模型,并将其存储在特征量模型DB 27中。处理前进到步骤S3。在步骤S3,特征量模型分类器26计算从要被处理的视频内容产生的在 同 一面部角度上的多个特征量的相似性。特征量模型分类器26将所产生的类 似的特征量模型分类到同一特征量模型组中。在步骤S4,特征量模型分类器 26产生标识每个特征量模型组的代表性模型,并且将由所产生的多个代表性 模型组成的代表性模型组32输出到特征量模型DB 27。特征量模型DB 27将 映射到其中的内容ID与输入的代表性模型组32存储在一起。在步骤S5,人物列表产生器28从元数据DB 22获取要被处理的视频内容的元数据。基于所获取的元数据,人物列表产生器28产生与要被处理的视 频内容相关的人物的人物列表31,并且将所产生的人物列表31输出到元数 据DB 22。元数据DB 22将映射到其中的内容ID与输入的人物列表31存储 在一起。可以以相反顺序或同时执行在产生代表性^f莫型组32的步骤Sl到S4中 的处理以及在产生人物列表31的步骤S5中的处理。 已经描述了要被处理的视频内容的准备处理。下面参照图9的流程图描述产生人物和特征量模型DB 30的人物和特征 量模型产生处理。在已经积累了每一个都具有人物列表31和代表性冲莫型组32的特定数量 的视频内容之后执行人物和特征量模型产生处理。更具体地,积累至少两个 视频内容,在整个视频内容中,期望被映射到特征量模型的人物(目标人物) 不与连续地伴随目标人物的其它人物 一起表演。在步骤Sll中,目标人物确定器41从元数据DB 22获取包含添加到内 容DB 21的新视频内容CA的人物列表31,并且顺序地选择在人物列表31中 列出的人物。由此,目标人物确定器41确定目标人物a。在步骤S12中,目标人物搜索器42参照元数据DB 22上的人物列表31 来识别目标人物a始终不与出现的其它人物一起表演的视频内容。从元数据 DB 22中获取与所识别的视频内容对应的人物列表31 。除了视频内容CA,现在可以识别视频内容Cb和Cc。与视频内容ca、 CB和Cc中的每一个对应的代表性模型组32包含指示目标人物a的面部的特 征的代表性模型。基于这些模型具有高相关性的假设执行下面的处理。在步骤S13中,代表性模型组获取器43从特征量模型DB 27获取与视 頻内容Ca、 CB和Cc中的每一个对应的代表性模型组32,并且将代表性模型 组32输出到相关性确定器44。在步骤S14,相关性确定器44计算在多个所获取的代表性模型组32中 的代表性模型的相关性,在代表性模型中选择具有最高相关性的代表性模型 的组合,并且将所选择的代表性的组合输出到中心模型产生器45。假设Aa 代表从视频内容CA中的代表性模型组中选择的代表性模型,假设Ba代表从 视频内容CB中的代表性模型组中选择的代表性模型,而假设Ca代表从视频 内容Cc中的代表性模型组中选择的代表性模型。在步骤S15中,中心模型产生器45产生具有与所选择的代表性模型Aa、 Ba和Ca中的每一个大致相等相关性的中心模型Ma,然后将该中心模型Ma 输出到记录器46。在步骤S16中,记录器46将特征量模型ID附加到输入的 中心模型Ma,然后将中心模型Ma记录在人物和特征量模型DB 30上。记 录器46使人物和特征量模型DB 30将目标人物a的人物ID与映射到其中的 中心模型的特征量模型ID记录在一起。除了中心模型Ma的特征量模型ID 之外,还记录了包含面部角度、拍摄日期、类型和概率的信息。由此完成人物和特征量模型产生处理。通过重复该人物和特征量模型产 生处理,关于人物和特征量模型DB 30同一人物的特征量模型的精确度提高, 并且增加了特征量模型数。可以校正、更新和修改因此构造的人物和特征量模型DB 30。例如,可 以在因特网上公开人物和特征量模型DB 30以希望由观看者指出错误。如果 由数量高于预定阈值的观看者指出相同的错误,则可以校正特征量模型DB 30。图1的包括所产生的人物和特征量模型DB 30的信息提供系统10从操 作者接收面部图像和面部合成图画,并且输出对应人物的人物相关信息。信 息提供系统10还可以显示这样的网页,用户可以从该网页购买与该人物有关 的产品(诸如紧凑盘(CD)、紧凑多功能盘(DVD)或书籍)或由人物出版 的产品。信息提供系统10可以找出其它应用程序。例如,通过输入任何人的 面部图像,可以搜索具有相似面部的女演员,并且可以学习该女演员的化妆 技术。通过输入视频内容和人物,可以输出在视频内容中表演的场景。通过 输入一个视频场景,可以输出该视频场景的对应视频内容的内容ID和时间信 息(时间标签)。可以使用图2的硬件和软件之一执行上述一系列处理步骤。如果使用软 件执行处理步骤,从程序记录介质将形成软件的程序安装到计算机内置专用 硬件或通用目的计算机,其利用安装在其上的各种程序执行各种功能。图10是图解执行上述处理步骤的计算机的硬件结构的方框图。在计算机中,中央处理单元(CPU) 101、只读存储器(ROM) 102和 随机存取存储器(RAM) 103经由总线104互连。总线104还连接到输入-输出接口 105。输入-输出接口 105连接到包 括键盘、鼠标和麦克风的输入单元106、包括显示器和扬声器的输出单元107、包括硬盘和非易失性存储器的存储器108、包括网络接口的通信单元109和驱动诸如磁盘、光盘、磁光盘和半导体存储器之一的记录介质111的驱动器110。当CPU 101经由输入-输出接口 105和总线104将存储在存储器108上的 程序加载到RAM 103并执行所加载的程序时,由此构造的计算机执行上述处 理步骤。可以以上述处理步骤的顺序执^^程序。替代地,可以并行或在调用发生 的定时执行程序的处理步骤。可以由单个计算机或多个计算机执行程序。可以将程序传送到远程计算 机来执行。在说明书中的术语"系统"可以指包括多个设备的系统。 本领域技术人员应该理解,根据设计需要和其它因素可以有各种修改、 组合、子组合和改变,其落入所附权利要求或其等效物的范围内。
权利要求
1. 一种用于产生指示人物和人物的面部图像之间的映射的数据库的信息处理设备,包括列表产生装置,用于基于内容数据的元数据产生在内容数据中出现的人物的列表;检测装置,用于从内容数据中检测人物的面部图像;模型产生装置,用于产生指示所检测到的人物的面部图像的特征的特征量模型;和映射装置,用于将基于内容数据产生的特征量模型映射到在人物列表中包含的人物。
2. 如权利要求1所述的信息处理设备,还包括分类装置,用于根据相似 性将从内容数据产生的多个特征量模型分类成特征量模型组,并且产生代表 分类到在每个特征量模型组中的多个特征量模型的代表性模型,其中映射装置将代表性模型映射到在人物列表中包含的人物。
3. 如权利要求1所述的信息处理设备,其中映射装置包括 确定装置,用于确定目标人物;获取装置,用于根据人物列表搜索目标人物出现的内容数据,并且获取 从所搜索到的内容数据产生的特征量模型;判定装置,用于从获取的特征量模型中确定相互具有高相关性的多个特 征量模型;和映射产生装置,用于产生用作被确定为相互具有高相关性的多个特征量 模型的中心的中心模型,并且将该中心模型映射到目标人物。
4. 如权利要求1所述的信息处理设备,其中列表产生装置基于内容数据 的元数据产生包括由多个人物组成的组的人物列表。
5. 如权利要求1所述的信息处理设备,其中检测装置从内容数据检测人 物的面部图像,而不管其视面角如何,以及其中映射装置将从以不同视面角检测的面部图像产生的多个特征量模型 映射到同一个人物。
6. —种用于产生指示人物和人物的面部图像之间的映射的数据库的信息 处理设备的信息处理方法,包括步骤基于内容数据的元数据产生在内容数据中出现的人物的列表; 从内容数据中检测人物的面部图像;产生指示所检测到的人物的面部图像的特征的特征量模型;和 将基于内容数据产生的特征量模型映射到在人物列表中包含的人物。
7, —种用于使计算机产生指示人物和人物的面部图像之间的映射的数据 库的计算机程序,包括步骤基于内容数据的元数据产生在内容数据中出现的人物的列表; 从内容数据中检测人物的面部图像;产生指示所检测到的人物的面部图像的特征的特征量模型;和 将基于内容数据产生的特征量模型映射到在人物列表中包含的人物。
8. —种用于产生指示人物和人物的面部图像之间的映射的数据库的信息 处理设备,包括列表产生单元,用于基于内容数据的元数据产生在内容数据中出现的人 物的列表;检测单元,用于从内容数据中检测人物的面部图像; 模型产生单元,用于产生指示所检测到的人物的面部图像的特征的特征 量模型;和映射单元,用于将基于内容数据产生的特征量模型映射到在人物列表中 包含的人物。
全文摘要
用于产生指示人物和人物的面部图像之间的映射的数据库的信息处理设备,包括列表产生单元,用于基于视频内容的元数据产生在视频内容中出现的人物的列表;检测单元,用于从视频内容中检测人物的面部图像;模型产生单元,用于产生指示所检测到的人物的面部图像的特征的特征量模型;和映射单元,用于将基于视频内容产生的特征量模型映射到在人物列表中包含的人物。
文档编号G06F17/30GK101281540SQ20081009112
公开日2008年10月8日 申请日期2008年4月7日 优先权日2007年4月4日
发明者角田智弘 申请人:索尼株式会社
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1