使用在网络节点处具有软件代理的网络进行机器学习并然后对网络节点进行排名的方法和装置与流程

文档序号:19159138发布日期:2019-11-16 01:09阅读:244来源:国知局
使用在网络节点处具有软件代理的网络进行机器学习并然后对网络节点进行排名的方法和装置与流程

相关文件的交叉引用

本申请是基于2017年2月17日提交的美国临时申请号62/460,570并且要求所述申请的优先权权益,其全部内容通过引用并入本文。

本文描述的说明性实施方案涉及在根据接收的排名标准对网络节点进行排名时快速应用网络信息,并且更具体地,涉及通过将表示排名标准的状态向量乘以作为替代排名运算符(surrogaterankingoperator)的矩阵来对网络的节点进行排名。进一步地,本文描述的说明性实施方案涉及交互式网络中的学习模式并且快速应用所学习的模式来答复询问,并且更具体地,涉及通过将表示排名标准的状态向量乘以作为替代排名运算符的矩阵来对网络的节点进行排名。



背景技术:

计算机相关领域的许多技术问题本质上归纳为应用在互连的节点网络中提供的信息以根据特定的标准集和/或用户输入集对节点进行排名的问题。

例如,netflix.comtm可以被视为数字媒体内容(即,电影)网络,并且基于用户对先前观看电影的评级以及已观看电影的记录,可以提供用户可能未来更愿意观看哪些电影的推荐。这种推荐可以基于电影之间表示其相似性的连接网络,或基于来自随时间累积的其他用户的评级以及观看倾向的相关性和统计信息的贝叶斯推断。因此,推荐器系统(像是netflix.comtm或其他在线媒体内容提供商提供的电影推荐)可以被理解为本质上使用特定的标准集和/或用户输入集来基于节点之间的互连提供节点的排名。

类似地,万维网(worldwideweb)可以明确地被理解为互连节点(即,通过超链接、相关内容等互连的互联网页面/站点)的网络。进一步地,搜索引擎和算法(如googletm的pagerank算法)可以被理解为使用用户输入(例如,作为文本录入到搜索输入中的关键词)并且根据节点相对重要性(例如,基于网络内节点之间的互连)以及搜索标准(例如,文本搜索中的关键词)与网络节点的内容的连接两者来对此网络的节点进行排名。

随着技术的进步,在从医学(例如,使用例如通过症状、治疗和结果的相似性连接的相关医疗记录的网络,以将类似于当前病史的情况进行排名或对可能实现有利结果的程序进行排名)到社交网络到消费者广告到安全和消费者欺诈威胁到交通/gps导航系统等的各种背景下重复这种基于互连网络解决对数据进行排名的技术问题的模式。因此,这种技术问题是根植于计算机相关技术的显著性反复出现的问题。鉴于其显著性,已经使用各种方式来解决这种技术问题,并且通常基于(i)给定的搜索标准集和(ii)网络的结构/互连来对网络元素进行排序的潜在技术问题的一种解决方案在所有类似构成的基于网络进行排名的应用中也是完全且普遍适用的。例如,已经提出pagerank算法可以应用于生物化学中以提供相对重要性的度量并且识别蛋白质中有希望的药物靶标。由于排名网络/图节点是如此常见且反复出现的技术问题,需要改进的并且更快速的方法用于从网络信息中生成排名。

例如,常规的链接分析算法(如pagerank算法)可以为一个超链接文档集合(如万维网)的每个元素指派数值加权,目的是度量其在集合中的相对重要性。通常,所述算法可以应用于具有形成连接基础的内容(包括例如相互引用和参考)的任何节点集合。基于这些连接为任何给定节点指派数值权重。进一步地,排名可以受到与嵌入元数据中的属性以及所传送的内容相对应的多于一个层次的网络的影响(例如,可以根据作者及其互连的网络对作者进行排名,并且可以根据互连和引用的网络对学者进行排名)。

例如,在pagerank算法中,数值权重被指派给元素e,称为e的pagerank,如s.brin和l.page的,“theanatomyofalarge-scalehypertextualwebsearchengine”,计算机网络和isdn系统.30:107-117(1998)所述,其全部内容通过引用并入本文。具体而言,pagerank是由数学算法基于以所有万维网页面作为节点和超链接作为边而创建的webgraph、考虑了权威度中枢(authorityhub)而产生的。排名值表示特定页面的重要性。到页面的超链接计为支持票。页面的pagerank是以递归的方式定义的,并取决于链接到它的所有页面(即传入链接)的数量和pagerank度量。因此,具有高pagerank的许多页面链接到的页面本身获得高排名。这种递归遍历网络的缺点是它所需要的时间和计算资源。因此,需要更快速的排名方法用于网络,网络也可以更一般地称为图,这是用于通俗地称为网络的数据结构的更严格的数学术语。

此外,在许多情况下,网络/图表示不是先验已知的,而是必须从经验测量和数据中学习到的。已知如人工神经网络(ann)等各种常规方法用于基于训练数据来学习模式。然而,这些常规方法具有各种缺点。因此,需要更好的网络和模式学习方法,这将应用更快速、更鲁棒的方式以对网络和模式进行高效地学习和建模。

本文提供的背景描述为了一般地呈现本公开的背景。目前命名的发明人的工作,包括背景技术部分中描述的工作,以及在提交时可能不具备现有技术资格的描述的方面,既不明确也不含蓄地被承认为相对于本公开的现有技术。

机器学习和人工智能(ai)技术已经应用于许多不同的问题和技术,但是常规方式具有限制其影响的若干缺点。但是ai技术的巨大优势在于它几乎涵盖了智能的各个方面,但它最大的弱点是碎片化。大多数ai系统都是从一个范式设计和构建的。例如,今天最著名的ai范式是深度学习,它是机器学习的子集,机器学习本身就是ai的子集。在深度学习范式中,多层人工神经网络(“ann”)是最常用的方法,而反向传播是最常用的ann学习方法。反向传播包含了在由权重矩阵定义的空间中误差表面上的梯度下降。也就是说,它计算损失函数的梯度。因此,深度学习并不能直接与其他ai范式(如逻辑)组合使用。其他机器学习方法也能是同样的。也就是说,它们是碎片化的,使得将它们组合起来需要专门的考虑,这通常是不鲁棒的。

进一步地,虽然机器学习方法擅长细微的分类和预测,但它们缺乏上下文能力和最小的推理能力。相反,符号化方法擅长在所定义的问题上进行推理,但没有学习能力并对不确定性的处理能力差。如果这些方式可以组合起来,一个范式的长处可以弥补另一个范式的不足,且反之亦然。然而,任何努力组合多个范式的系统都需要大量的专业工作来定制组件、使其共同工作、并针对期望输出来测试许多组合。即使这样,结果也可能对变化缺乏鲁棒性。

遗憾的是,常规方法未能为以上挑战提供稳健的解决方案。

附图说明

我们将很容易获得对所公开的发明及其许多附带优点的更全面的了解,因为当结合附图考虑时,通过参考以下具体实施方式,可以更好地理解它们,其中:

图1示出了根据一种实现方式的基于输入排名标准对网络进行排名的方法的流程图的示例;

图2示出了根据一种实现方式的由加权边/链接所连接的概念网络的示例;

图3示出了根据一种实现方式的生成替代排名运算符(sro)的过程的流程图的示例;

图4示出了根据一种实现方式的基于输入排名标准对网络节点进行排名的方法的示意图的示例;

图5示出了根据一种实现方式的基于输入排名标准对网络节点进行排名的方法的流程图的另一示例;

图6示出了根据一种实现方式的使用双复数来表示双向链接的示例;

图7示出了实现基于输入排名标准对网络节点进行排名的方法的计算硬件的示例;

图8示出了根据一种实现方式的软件代理(agent)网络的示例;

图9示出了根据一种实现方式的网络中的代理学习方法的流程图的示例;以及

图10示出了根据一种实现方式的代理使用偏好函数、目标函数和效用函数生成和修改假设的过程的流程图的示例。

具体实施方式

本文描述的方法和装置克服了常规方法中的上述缺陷,常规方法使用多个递归步骤来遍历网络节点从而对网络(也称为图)的节点进行排名。与常规方法相比,本文描述的方法从对量子力学和量子场论的见解和类比中得出,以便生成替代排名运算符(sro),其在单个操作步骤中对来自网络的结果进行排名。类似于理查德费曼(richardfeynman)的变分法用于量子场论(其中传播运算符被视为所有可能状态的求和/积分),sro是可以用单个运算符表示图/网络中所有路径的求和的矩阵,从而基于sro与表示输入查询的向量(例如,搜索标准)之间的矩阵乘法输出图/网络节点的排名。

例如,在本文描述的方法的某些实现方式中,sro被制定为近似于n步递归遍历的封闭解,其中内部遍历历史(与真马尔可夫(markovian)性质相反)由单个应用仿真到输入概念向量。在此,概念网络被用作非限制性示例,并且嵌入在节点处的概念被类比为离散空间中的点,量子力学中的粒子/概率波函数(即,输入概念或搜索标准)在向输出(即,最终量子状态或概念排名)演化的过程中穿过所述点。换言之,代替计算粒子在从一个节点移动到下一节点时的n递归计算步骤,考虑到先前顶点(类似典型的贝叶斯网络)的贡献,这个运算符产生了使粒子(即输入概念)在单个迭代步骤中直接演化成排名结果的“跳跃”。

在某些实现方式中,通过对一阶路径矩阵取幂以生成sro来表示该演化,一阶路径矩阵经历归一化和双随机性条件。

在某些实现方式中,还对sro进行路径调整以去除路径冗余。

首先,提供关于如何从一阶路径矩阵生成sro的描述。然后,提供关于sro如何相比并在很多方面类似于无电位空间(或量子场论中的配分函数)中的量子力学的海森堡(heisenberg)图片中的演化运算符的描述。

现在参照附图,其中在若干视图中类似的参考标记指代相同或对应的部分,图1示出了生成和使用图模型来对图信息执行询问并快速生成输出的方法100的流程图。

在方法100的过程110中,生成图模型112。在一些情况下,图模型112已经存在,如在互联网网站及其链接的情况下。在这种情况下,图模型112是简单地从其来源或在计算机可读存储器中先前存储的位置读取的。在其他情况下,所述模型是例如使用机器学习方法从训练数据中学到的。

在方法100的过程120中,从图模型112的一阶路径矩阵122生成sro。一阶路径矩阵122可以采用不同的表示。例如,如下面讨论的,顶点之间的连接可以表示为正数、实数、复数、或双凸数,这取决于图中顶点之间的边是加权的还是方向性的等等。在此,连接顶点的加权边的非限制性示例用于举例说明一阶路径矩阵。一阶路径矩阵表示图中顶点之间的连接。例如,图2示出了单词(即,概念)网络的示例以及表示为加权边的网络/图的节点/顶点之间的连接的强度。图2中所示的网络是在经典人工智能(ai)文本中找到的典型网络,其表示各个节点之间的关系。通常,任何网络都可以由矩阵表示,其中每行(列)表示相应的节点/顶点。当边不是加权的时,可以使用非加权邻接矩阵的某种变型,如本领域普通技术人员所理解的并且如美国专利号9,158,847中所述,其全部内容通过引用并入本文。对于图2所示的顶点之间有加权边的网络,网络可以用表1中所示称为一阶路径矩阵(t)的矩阵表示,其中概念向量如下给出:

概念=[

‘蝙蝠’,

‘鸟’,

‘羽毛’,

‘飞行’,

‘企鹅’,

‘鸵鸟’,

‘奔跑’,

‘海鸥’,

‘翅膀’,

],

并且概念顶点之间的加权链接的定义如下给出:

链接=[

(‘飞行’,2.3,‘鸟’),

(‘飞行’,2.0,‘蝙蝠’),

(‘飞行’,0.2,‘企鹅’),

(‘翅膀’,2.8,‘鸟’),

(‘翅膀’,1.0,‘海鸥’),

(‘翅膀’,0.5,‘羽毛’),

(‘翅膀’,1.5,‘飞行’),

(‘蝙蝠’,0.25,‘羽毛’),

(‘蝙蝠’,1.7,‘鸟’),

(‘鸟’,0.2,‘企鹅’),

(‘鸟’,2.2,‘海鸥’),

(‘鸟’,1.5,‘羽毛’),

(‘企鹅’,4.2,‘鸵鸟’),

(‘企鹅’,1.0,‘海鸥’),

(‘企鹅’,0.75,‘奔跑’),

(‘鸵鸟’,0.75,‘奔跑’),

(‘海鸥’,0.25,’奔跑’),

(‘海鸥’,1.5,‘羽毛’),

(‘奔跑’,1.25,‘羽毛’),

]。

图3示出了由一阶路径矩阵生成sro的过程的一种实现方式的流程图,如下所述。

表1:图1所示网络的一阶路径矩阵(t)。

在方法100的过程130中,将sro应用于表示关于网络模型中信息的询问的输入向量,并且生成表示对所述询问的答复的输出向量,作为对图中顶点内容的排名。我们要注意的是“顶点”和“节点”可以互换使用,正如“网络”和“图”在以下讨论中可以互换使用。因此,我们以下将采用仅使用术语“顶点”和“图”的表示法。

返回到图2中的图形模型112的示例,在方法100的一个示例性实现中,根据排序标准对图中的概念进行排序的查询。<bird,flight>(即,此概念标准由概念向量[0,1,0,1,0,0,0,0]表示)当排名标准的概念向量乘以sro时,返回以下结果:

排名=[

(‘鸟’,0.10682496574236461),

(‘飞行’,0.07405044308261416),

(‘翅膀’,0.06795166019737214),

(‘海鸥’,0.05237253912237341),

(‘蝙蝠’,0.050509732912895844),

(‘羽毛’,0.040901599425686726),

(‘企鹅’,0.013721569470986938),

(‘奔跑’,0.009300038104282584),

(‘鸵鸟’,0.006327943268444871)

]。

概念右侧的数字表示与排名标准匹配的度量。不出所料,‘鸟’和‘飞行’的概念排名较高,与‘鸟’和‘飞行’强连接的概念也是如此,如‘翅膀’和‘海鸥’。类似地,基于<企鹅>的排名标准的排名询问返回如下排名:

排名=[

(‘企鹅’,0.05111524080300288),

(‘鸵鸟’,0.029911422806821922),

(‘奔跑’,0.014030105982093257),

(‘海鸥’,0.009914599034979397),

(‘鸟’,0.009838069472489839),

(‘羽毛’,0.008170846911161714),

(‘翅膀’,0.006046069210972645),

(‘飞行’,0.0038834999984971),

(‘蝙蝠’,0.0027102214155942748)

]。

进一步地,基于<鸟>的排名标准的排名询问返回如下排名:

排名=[

(‘企鹅’,0.05111524080300288),

(‘鸵鸟’,0.029911422806821922),

(‘奔跑’,0.014030105982093257),

(‘海鸥’,0.009914599034979397),

(‘鸟’,0.009838069472489839),

(‘羽毛’,0.008170846911161714),

(‘翅膀’,0.006046069210972645),

(‘飞行’,0.0038834999984971),

(‘蝙蝠’,0.0027102214155942748)

]。

图3示出了过程120的一种实现方式的流程图,和图4示出了方法100的实现方式的示意图。

在过程120的步骤210中,一阶路径矩阵被处理成使得它满足某些强加条件。在某些实现方式中,可以强加双随机性和矩阵归一化的条件。可以通过将矩阵的每个元素除以矩阵的行列式来强加归一化条件。此外,可以强加双随机性,从而确保每行总和为一并且每列总和为一。进一步地,通过进行改变以确保每个本征值是唯一的可以强加非简并条件(例如,当两个量子态具有相同的能量时,量子系统中发生简并)。可以强加的另一个条件是矩阵的维度等于其排名/基数(例如,非零本征值,或者一阶路径矩阵的零空间为空)。在某些实现方式中,矩阵的零空间可以被定义为矩阵的核。在某些实现方式中,图拉普拉斯算符(laplacian)可用于生成一阶路径矩阵。进一步地,对一阶路径矩阵的处理可以包括对顶点进行排序(例如,改变矩阵的哪些索引对应于图/网络的哪些概念/内容)。步骤210的结果是经处理的一阶路径矩阵

在过程120的步骤220中,计算经处理的一阶路径矩阵的幂并将其用于计算替代排名运算符(sro)。例如,的n次幂表示为二次幂矩阵表示概念之间具有两个边的连接。例如,在图2中,‘蝙蝠’通过经过‘飞行’(链接权重为2.0和1.5)、“鸟”(链接权重为1.7和2.8)和“羽毛”(链接权重为0.25和0.5)的两个边的路径连接到‘飞行’。在某些实现方式中,使用以下表达式来生成sro

实际上,这可以使用泰勒级数展开来计算。进一步地,可以对经处理的矩阵执行本征分解(eigen-decomposition),使得

其中λ是矩阵的特征值的对角矩阵,q是酉矩阵,其中第n个列向量是对应于第n个本征值的本征向量λn=λn,n,并且q-1是q的逆(即,第n个行向量是q的第n个列向量的复共轭)。因此,i次幂矩阵简化为并且λi简化为相应本征值的i次幂的对角线。

在某些实现方式中,对于其中节点/顶点无序的网络/图,计算sro为表达式

同样,当网络/图具有任意排列时,此表达式可用于计算sro。

在某些实现方式中,对于其中节点/顶点被排序的网络/图,计算sro为表达式

此外,当网络/图是二进制系统时,此表达式可用于计算sro。

要注意的是,上面讨论的矩阵归一化包括计算矩阵的行列式、并且将矩阵的每个元素除以所计算的行列式的步骤。进一步地,矩阵归一化可以包括为矩阵的每一行计算向量范数。此外,强加双随机性条件可以包括执行验证过程以验证归一化的向量满足双随机性条件。具体而言,确保每行以及每列的元素之和总计为一。本领域普通技术人员将理解这些过程,并且如本领域普通技术人员将理解的,可以在不脱离本发明的精神的情况下实现变型。

例如,在某些实现方式中,过程120可以包括使用由本征分解提供的反馈来检测简并(例如,当一个或多个本征值相对于其他本征值本质上为零时),以及使用变化的数据元素以消除或提升简并。

进一步地,在某些实现方式中,过程120可以包括返回经路径调整的sro的步骤。例如,可以如下应用冗余路径擦除功能:

1)作为自身邻居的数据是网络同一位置处的两个完全相同数据元素之间的路径。因此,将对角线值设置为1.0以擦除数据为自身邻居的自路径。

2)将t的所有非零值设置为1,并且将对角线值设置为1.0以产生一阶路径矩阵t1。

3)求矩阵t1的平方(提升到二次幂)以得到二阶路径矩阵t2。

4)此时,可能存在一些冗余路径,如a-c-a。

5)为了去除冗余,可以通过将对角线设置为1.0来实现矩阵的二次幂下的路径擦除。这确保了在路径a-b-c中‘a’不等于‘c’,因此像a-c-a这样的路径不会被计入两次。

6)求矩阵t1的立方以得到三阶路径矩阵t3。

与二次幂情况类似,可能存在冗余路径。使数据元素(a)和(b)之间的三阶路径通过(c)和(d)。因此,三阶路径矩阵中的三个一阶路径可以是:a和c;c和d;d和b。首先,我们确保c和d与a或b都不同。注意:通过将对角元素设置为1.0以确保一阶路径擦除,这确保了a≠c且d≠b。三阶矩阵幂下的路径擦除遵循类似的过程:对于如a-b-c-d的路径,我们希望擦除a-b-c-b和a-b-a-c模式以确保唯一性。为了实现这一点,我们使用零阶路径矩阵,它是原始矩阵t0(例如,邻接矩阵)。对于t0的每一行,我们计算元素的总和以产生行成本的列向量c(这也相当于元素的列总和的行向量,因为路径是双向的)。

7)(等效路径的)路径冗余矩阵被写为要从三阶路径矩阵中减去的路径折扣矩阵。使用以下公式计算其元素i、j的每个的路径折扣矩阵:

di,j=ci+cj-1;对于i≠j

di,j=0;fori=j

其中列向量的元素是:c1=3;c2=2;c3=2;c4=3。因此,(仅显示第一行的计算):

d1,1=0

d1,2=c1+c2-1=3+2-1=4

d1,3=c1+c3-1=3+2-1=4

d1,4=c1+c4-1=3+3-1=5

计算全矩阵:

8)为了通过擦除冗余路径来校正三阶路径矩阵,我们对t3进行如下变换:

t3=t3–d*t,

其中对于每个i=i'和j=j',符号‘*’是di,j*ti',j'的元素乘积的标量元素。

然后使用如上所述的矩阵t的幂来计算sro。

在过程130的步骤310中,创建输入向量,其中零被填充到向量的每个数据元素中。接下来,如果排名标准中的数据元素具有来自原始矩阵t的性质,则将对应索引处的向量的元素的值设置为0到1。可选地,对于图/网络中使用的排名标准中的非原始元素,可以使用与图/网络中的元素的相似性度量来将元素映射到输入向量中的一个或多个索引上。例如,所述度量可以是雅卡尔(jaccard)度量或其他度量体系。考虑包括概念<鹰>的搜索标准,然后考虑语义距离度量,如p.d.turney和p.pantel的“fromfrequencytomeaning:vectorspacemodelsofsemantics”,人工智能研究杂志37,141-181(2010)中所讨论的正逐点互信息(pmmi),其全部内容通过引用并入本文,以及如d.jurafsky和j.h.martin的“speechandlanguageprocessing”,prenticehall系列人工智能(2008)中所讨论的,其全部内容通过引用并入本文。用于表征语义意义上的接近度的度量也可以是美国专利号8,566,321中讨论的任何度量,其通过引用并入本文。例如,概念<鹰>可能主要映射到概念<鸟>,并且在较小程度上映射到<羽毛>和<飞行>的概念。

接下来,在过程130的步骤320中,使用点积将输入向量乘以sro来应用sro。结果是输出向量,在每个索引处为图中对应的元素/顶点提供值。经排名列表是通过根据输出向量的对应值的数值顺序来排列图的元素(例如,概念)而生成的,如上面针对使用<鸟,飞行>和<企鹅>的标准对排名查询所说明的。

图5示出了根据另一种实现方式的方法100的另一流程图。

在步骤510中,生成概念和链接的输入图。在某些实现方式中,图中的每个链接对应于一对概念之间的方向性概率度量。

在步骤520中,从输入图生成基于输入图的路径矩阵。

在步骤530中,处理路径矩阵以满足各种强加条件。例如,在某些实现方式中,处理对路径矩阵进行归一化并确定是否满足双随机性条件,且如果不满足,则可以执行处理以调整行(列)值以确保双随机性。

在步骤540中,计算本征分解以生成经归一化矩阵的本征值和本征向量。

在步骤550中,生成本征值的对角矩阵,并且生成路径幂矩阵,其中n路径幂矩阵分别表示路径的n个链接。

在步骤560中,计算替代排名运算符(或经路径调整的替代排名运算符)。

如本领域普通技术人员将理解的,可以在不偏离本方法的精神的情况下实现方法100的变型。

在某些实现方式中,sro可以是增强的替代排名运算符。例如,在存在标记数据项的外部元数据的情况下,可以将包括元数据与数据的关系的附加行和列添加到一阶路径矩阵(例如,在如万维网之类的网络背景下的作者网络和排名)。然后过程如前所述进行。该步骤可用于增强或个性化矩阵。

在某些实现方式中,sro可以是偏置的替代排名运算符。例如,可以由偏好矩阵在sro上做运算。这提供了对排名的个性化偏好,并且基于每个用户计算偏好。这可以实现个性化索引和搜索。例如,可以引入偏好矩阵作为在计算幂级数以生成sro之前计算幂矩阵的过程中插入的矩阵。在某些实施方式中,相对于用于生成sro的一般群体的个人偏好矩阵可以被学习并应用于表示排名标准的状态向量,或者可以在被计算之后直接应用于sro。

如上面讨论的,有不同的方式可以将网络节点相互关联。在图2中,节点通过加权边相关。然而,在其他网络中,节点可以简单地通过没有权重的边连接,或者在更复杂的情况下,边可以是定向的。仍然在其他网络/图中,连接/边可以包括相似性或喜好/喜欢的表达式,其可以表示为边的符号。因此,可以使用不同类型的一阶路径矩阵来表达这些不同类型的网络/图中的关系,并且因此,这些不同类型的一阶路径矩阵将产生不同类型的sro。然而,如本领域普通技术人员将理解的,将上述方法100和过程110、120和130一般化为其他数据类型将是直截了当的,并且不会脱离本发明的精神。表2中列出了网络节点之间的若干类型的链接,连同用于在一阶路径矩阵和sro中表示所述链接的数字/数据结构的类型以及链接类型所传达的语义。因此,替代排名运算符有如表2所示若干种不同的语义类型。

表2:替代排名运算符类型及其语义

双曲复数是由jamescockle于1848年引入的:它们是tessarine的特例,且因此被称为真正的tessarine。双复数形成一个环,而不是像实数一样的段。双曲复数通常与诸如四元数的数字系统一起研究,例如由williamclifford在1873年。双曲复数也称为双复数或双曲线复数,因为它们可以表示双曲线角度。然而,解释是取向是可以编码的,如同义词对反义词或相似对非相似或偏好上的喜欢对不喜欢,如图6所示。

此外,如上面讨论的,sro部分地由量子力学和量子图论中的类比启发。例如,在量子力学中,基本的方程是薛定谔方程

这可以使用幺正演化运算符ut=eihth在海森堡图片中解出,使得

ψt=utψ0。

具体而言,当电势u(x)为零时,哈密顿算符(hamiltonian)简化为与拉普拉斯算符成比例的值;

进一步地,在图量子力学中,图拉普拉斯算符是邻接矩阵加上图的相应顶点的配价的对角矩阵。本领域普通技术人员将认识到这是离散化的二阶导数。还可以注意到,该拉普拉斯运算符是一阶路径矩阵的变型,并且与上述一阶路径矩阵t相关。进一步地,演化运算符ut与sro相关,但在sro中,项iht/2m被设置为一(例如,在某些实现方式中,sro可以被视为扩散方程而不是波动方程)。

鉴于以上相似性,可以利用量子力学和量子场论的一些理论装置来生成和应用sro。因此,不但图论而且量子图论都可以应用于基于给定排名标准对顶点进行快速排名的问题。也就是说,sro代表根植于图论的基础中的概念,并且这些概念可以从图论扩展到量子图论。

本文描述的方法的某些实现方式将一般网络理论方式用于组合的和无符号的拉普拉斯矩阵的图的关联性密度矩阵(以及特征元素)的语义和行为性质,所述组合的和无符号的拉普拉斯矩阵与具有复边权重的对应加权有向图相关联的,其中这些图可以是非循环或循环的。

利用量子图论工具的一个优点是理查德费曼(richardfeynman)使用历史总和制定了量子理论,该理论延续到图论并使sro能够在单个步骤中执行以其他方式将需要递归遍历网络节点的计算密集型多步骤过程。

例如,在一种图论方式中(即量子图论,如在p.mnev,“quantummechanicsongraphs”,mpimjahrbuch2016(可在https://www3.nd.edu/~pmnev/graphqm.pdf中获得)中所讨论的,其全部内容通过引用并入本文),图的模块性用于计算费曼(feynman)路径积分的离散化。这些路径积分结果提供了具有图类型的拓扑不变量特性的路径计数。这可以应用于网络(诸如互联网网络、社交网络、和语言(语义)网络)中的信息传播模型、复杂性度量以及可能还有材料科学参数化。

可以从薛定谔时间演化波动方程中重新计算量子力学的这种路径积分公式,并且上面的讨论以及下面的附加讨论的内容说明了如何基于这种基于路径积分的方式制定图中的路径以及这如何在波动方程的背景下起作用。如上面讨论的,拉普拉斯运算符是依据邻接运算符和配价运算符定义的一阶路径矩阵。我们可以:

1.定义邻接运算符(即顶点邻接矩阵,共同边界):a

2.定义配价运算符(即顶点处的发生率基数,边界):ν

3.定义相对于选定取向的发生率运算符,其将边映射到其端点(边界和共同边界)的差分:γ

然后,拉普拉斯运算符被定义为:

在某些实现方式中,可以应用图拉普拉斯算符的定义来使用节点/顶点之间的链接/边的值来生成一阶路径度量,以生成扩散有限差分方程的链接依赖扩散系数。例如,扩散方程可以表示为

其中d是扩散系数。可以通过差分方程

来近似计算一维中的扩散方程,其中右侧括号中的项可以被识别为表示在x方向上具有间距δx的笛卡尔网格的图的图拉普拉斯算符。如果允许扩散系数根据位置而变化,则差分方程变为

在二维中,差分方程变为

在时间t处的安排为向量(即,上面的差分方程可以表示为矩阵方程vt+1=mvt。其中矩阵m满足类似于一阶路径矩阵的某些实现方式的双随机性条件。矩阵m与一阶路径矩阵之间的进一步比较揭示,在某些实现方式中,一阶路径矩阵可以被理解为对应于δt/δx2和δt/δy2的特定选择并且具有对应于节点/顶点之间的链接/边权重的“空间”变化的扩散系数的图扩散运算符。主要区别在于,与矩阵m不同,一阶路径矩阵不限于统一的笛卡尔网格,而是可以在任何图上生成。进一步地,如本领域普通技术人员将理解的,对于扩散的类比可以一般化为节点之间的链接包括超出权重的信息和关系的情况,如节点之间的方向性、取向和态度关系,如上面所讨论的(参见例如图6和表2)。

而且,如上面讨论的,在某些实现方式中,去除冗余对于生成可能是重要的。例如,从一个节点到另一个节点的路径:p→s可能包括冗余。假设有一个链:p→q,q→r,r→s。因此,取邻接运算符a,路径x为:

因此,对于整数枚举n={1,2,...,n}和路径集x={p,q,r,s},路径集可以被看作是集合n中从p到s的离散路径。如上面讨论的,在路径集内可以存在冗余,但是可以使用上述方法来解释和克服这些冗余。也就是说,在某些实现方式中,经路径调整的aro用于解释一阶路径矩阵的幂的矩阵系数等于项的总和的事实;从某一列索引到某一行索引的每个路径即为一项,并且当多个项对应于相同路径时,可以考虑冗余以便不重复计算贡献,如在c.yu的“super-walkformulaeforevenandoddlaplaciansinfinitegraphs”,rose-hulman本科数学期刊,2017年春第1期第18卷中所讨论的,其全部内容通过引用并入本文。

回到生成sro的讨论,在量子力学中,通过对矩阵h取幂,如下生成演化运算符(例如,哈密顿算符):

ut=eth

类似地,ut的矩阵系数是空间s内的连续路径的积分(类似于求和),其离散表示是图,穿插有跳跃的节点到节点间隔的序列。对于量子情况,它是一个在指数中包括虚数的波动方程,但对于图,丢弃了普朗克常量,如以下方程所给出的

ut=eith

可以在下述意义上进一步类推此方程:在量子场论中,运算符作用于希尔伯特(hilbert)空间,其中状态是r上的复值函数,和ut是积分运算符(表示场中的电势)。一旦运算是离散的并且在图中,它们是有限维的且ut可以以离散路径积分形式形成以便作为交互进行计算,因为系统没有被关闭也没有与外部系统分离(即,存在发生计算的交互边界,与被视为完全绝缘的经典理想化系统不同)。在qft中,状态的演化由充当薛定谔运算符的解的配分函数描述:

在此,我们看到z(t)是配分函数。可以为不同的图设计不同的配分函数。例如,在某些实现中,分区函数可以采用以下形式t=[0...∞),配分函数可以采用以下形式:

这种形式的配分函数有若干重要的结果,包括z作为准晶体结构的配分函数的关系。用于计算sro的配分函数的不同选择将对图的顶点排名有不同有利效果。

给定初始状态(例如,表示排名标准的输入向量),可使用配分函数来计算状态的演化:配分函数充当演化运算符的角色,并且图拉普拉斯算符进而形成演化运算符的基础。

qft中系统的演化由配分函数z(m)确定,其中m是对场空间进行建模的流形(在我们的情况下,我们的图是从场的角度看到的)。其行为取决于网络本身的组合学。进一步地,与图相关联的配分函数是指数,并且根据期望的结果/询问来选择指数的变元。例如,对于关于排名的询问,邻接运算符被用为变元(例如,一阶路径矩阵t)。另一方面,对于关于信息或信息的传播的询问,指数中的变元可以是拉普拉斯运算符乘以虚数。通过分析这些运算符的谱,为排名或传播问题生成显式解。进一步地,在依据图表和地图集计算配分函数时,可以表征z(m)的胶合性质,并因此在融合两个网络时提供定量表征(如信息融合、数据库仓储、互操作性和许多其他行为中)。

如本文所述,使用sro来执行网络的排名具有优于常规方法的若干优点。例如,本文描述的方法实现了计算网络中顶点或节点之间的相对排名的独特方式(例如,可以应用方法的网络包括网络安全网络、医学信息网络、社交网络、符号化网络、语义网络、web网络等)。排名运算符基于输入排名标准(即,表示在网络节点处表示的类型的数据元素的状态向量)来计算排名,并根据排名对节点进行排序。

节点不限于特定类型。例如,节点可以是原始数据,但是节点也可以是代理网络,如美国专利申请号14/965,728和美国专利申请号14/971,769中所讨论的,两者的全部内容通过引用并入本文。一旦通过在用作训练数据的原始数据(例如,经验测量结果)上进行训练使代理网络达到纳什均衡(nashequilibrium)就可以例如使用机器学习方法以及用于一阶路径矩阵的网络连接来训练网络。

因此,排名运算符将一个状态向量(由图中节点的位置表示的状态)映射到另一个状态向量(由子图中节点之间的排名表示的状态)。凭借这些属性,本文描述的方法使得能够收敛到唯一的主导本征向量,而不需要例如如pagerank所使用的“容差因数”来强制实施不可约性。进一步地,本文描述的方法使得能够在已排名向量的元素之间进行更准确区分。也就是说,sro是底层关系网络结构的精确和准确的构造。本文描述的方法进一步实现个性化(例如,使用偏好矩阵来修改和个性化使用来自一般群体的数据而学习到的sro)。因此,本文描述的方法提供了用于诸如信息检索和推荐引擎之类的任务的网络测距的普遍方式,仅列举了sro受益的许多应用中的一些。

因此,上述讨论仅公开和描述本发明的示例性实施方案。如本领域技术人员将理解的,本发明在不脱离其精神或本质特性的情况下可以呈其他特定形式体现。因此,本发明的公开旨在说明而不是限制本发明的范围以及其他权利要求。本公开(包括本文教导的任何容易辨别的变型)部分地定义了前述权利要求术语的范围,使得没有创造性主题专用于公众。

可以使用某种形式的计算机处理器来实现本发明的特征。如本领域普通技术人员将认识到的,计算机处理器可以实现为离散逻辑门、专用集成电路(asic)、现场可编程门阵列(fpga)或其他复杂可编程逻辑设备(cpld)。fpga或cpld实现可以用vhdl、verilog或任何其他硬件描述语言编码,并且代码可以存储在直接在fpga或cpld内的电子存储器中,或者存储在作为单独的电子存储器的电子存储器中。进一步地,电子存储器可以是非易失性的,如rom、eprom、eeprom或闪存。电子存储器也可以是易失性的,如静态或动态ram,并且可以提供处理器(如微控制器或微处理器)以管理电子存储器以及fpga或cpld与电子存储器之间的交互。

可选地,计算机处理器可以执行包括执行本文描述的功能的一组计算机可读指令的计算机程序,所述程序存储在任何上述非暂时电子存储器和/或硬盘驱动器、cd、dvd、闪存驱动器或任何其他已知的存储介质中。进一步地,计算机可读指令可以提供为实用应用、后台daemon或操作系统的组件或其组合,结合处理器(如来自美国英特尔公司的xenon处理器或来自美国amd公司的opteron处理器)、以及操作系统(如microsoftvista、unix、solaris、linux、apple、mac-osx和本领域技术人员已知的其他操作系统)执行。

此外,本发明可以使用基于计算机的系统900来实现,如图7所例示的。计算机900包括总线b或用于传送信息的其他通信机制,以及与总线b耦合用于处理信息的处理器/cpu904。计算机900还包括耦合到总线b用于存储信息和由处理器/cpu904执行的指令的主存储器/存储器单元903,如随机存取存储器(ram)或其他动态存储设备(例如,动态ram(dram)、静态ram(sram)和同步dram(sdram))。此外,存储器单元903可以用于在cpu904执行指令期间存储临时变量或其他中间信息。计算机900还可以进一步包括耦合到总线b用于存储cpu904的静态信息和指令的只读存储器(rom)或其他静态存储设备(例如,可编程rom(prom)、可擦除prom(eprom)和电可擦除prom(eeprom))。

计算机900还可以包括耦合到总线b的磁盘控制器,以控制如大容量存储装置902等用于存储信息和指令的一个或多个存储设备,以及驱动设备906(例如,软盘驱动器、只读压缩盘驱动器、读/写压缩盘驱动器、压缩盘点唱机、磁带驱动器、和可移动磁光驱动器)。可以使用适当的设备接口(例如,小型计算机系统接口(scsi)、集成设备电子器件(ide)、增强型ide(e-ide)、直接存储器存取(dma)或超级dma)将存储设备添加到计算机900。

计算机900还可以包括专用逻辑设备(例如,专用集成电路(asic))或可配置逻辑设备(例如,简单可编程逻辑设备(spld)、复杂可编程逻辑设备(cpld)和现场可编程门阵列(fpga))。

计算机900还可以包括显示器控制器909,其耦合到总线902以控制显示器(如阴极射线管(crt)),用于向计算机用户显示信息。计算机系统包括输入设备,如键盘911和指向性设备912,用于与计算机用户交互并向处理器提供信息。指向性设备912可以是例如鼠标、轨迹球或指向杆,用于将方向信息和命令选择传送到处理器并用于控制显示器上的光标移动。此外,打印机可以提供由计算机系统存储和/或生成的打印数据列表。

响应于cpu904执行存储器(如存储器单元903)中包含的具有一个或多个指令的一个或多个序列,计算机900执行本发明的处理步骤的至少一部分。可以将此类指令从另一计算机可读介质(如大容量存储装置902或可移动介质901)读入存储器单元。还可以采用处于多处理安排的一个或多个处理器来执行存储器单元903中包含的指令序列。在替代实施方案中,硬连线电路可以代替或与软件指令组合使用。因此,实施方案不限于硬件电路和软件的任何特定组合。

如上所述,计算机900包括至少一个计算机可读介质901或存储器,用于保存根据本发明的教导而编程的指令,并用于包含本文所述的数据结构、表格、记录或其他数据。计算机可读介质的示例是压缩盘、硬盘、软盘、磁带、磁光盘、prom(eprom、eeprom、闪存eprom)、dram、sram、sdram或任何其他磁介质、压缩盘(例如,cd-rom)、或计算机可以读取的任何其他介质。

存储在任何一个计算机可读介质或其组合上,本发明包括用于控制主处理单元、用于驱动用于实现本发明的一个或多个设备、以及用于使主处理单元能够与人类用户交互的软件。此类软件可以包括但不限于设备驱动程序、操作系统、开发工具以及应用软件。此类计算机可读介质进一步地包括本发明的计算机程序产品,用于执行在实现本发明时执行的处理的全部或一部分(如果处理是分布式的)。

本发明的介质上的计算机代码元素可以是任何可解释的或可执行的代码机制,包括但不限于脚本、可解释的程序、动态链接库(dll)、java类、和完整的可执行程序。此外,本发明的部分处理可以是分布式的,以获得更好的性能、可靠性、和/或成本。

如本文使用的术语“计算机可读介质”是指参与向cpu904提供指令以供执行的任何介质。计算机可读介质可以采取许多形式,包括但不限于非易失性介质和易失性介质。非易失性介质包括例如光盘、磁盘、和磁光盘,如大容量存储装置902或可移动介质901。易失性介质包括动态存储器,如存储器单元903。

各种形式的计算机可读介质可以涉及将具有一个或多个指令的一个或多个序列载送至cpu904用于执行。例如,最初可以在远程计算机的磁盘上承载指令。耦合到总线b的输入端可以接收数据并将数据置于总线b上。总线b将数据载送到存储器单元903,cpu904从所述存储器单元检索并执行指令。存储器单元903所接收的指令可以在被cpu904执行之前或之后可选地存储在大容量存储装置902上。

计算机900还包括耦合到总线b的通信接口905。通信接口904提供到网络916的双向数据通信耦合,所述网络连接到例如局域网(lan)或连接到如互联网等另一通信网络。例如,通信接口915可以是要附接到任何分组交换lan的网络接口卡。作为另一个示例,通信接口905可以是非对称数字用户线(adsl)卡、综合业务数字网(isdn)卡或调制解调器,以提供与对应类型的通信线路的数据通信连接。还可以实施无线链接。在任何这种实现方式中,通信接口905发送并且接收电、电磁或光信号,其载送表示各种类型的信息的数字数据流。

网络916通常通过一个或多个网络向其他数据设备提供数据通信。例如,网络可以通过本地网络915(例如,lan)或通过由服务提供商操作的设备提供到另一计算机的连接,所述服务提供商通过通信网络提供通信服务。本地网络和通信网络使用例如承载数字数据流的电、电磁或光信号,以及相关的物理层(例如,五类线、同轴线缆、光纤等)。此外,网络可以提供与如个人数字助理(pda)膝上型计算机或蜂窝电话等移动设备的连接,并且计算机900可以是如个人数字助理膝上型计算机或蜂窝电话等移动设备。

如上面讨论的,在许多情况下,网络/图表示不是先验已知的,而是必须从经验测量结果和数据中学习的。已知各种常规方法(如人工神经网络(ann)等)基于训练数据来学习模式。然而,这些常规方法具有各种缺点。因此,需要更好的网络和模式学习方法,这将应用更快速、更鲁棒的方式以对网络和模式进行高效地学习和建模

进一步地,常规的机器学习方法有若干缺点。例如,常规的ai方式缺乏上下文能力和最小推理能力。相反,符号化方法擅长就已定义的问题进行推理,但没有学习能力并对不确定性的处理能力差。如果这些方式可以组合起来,一个范式的长处可以弥补另一个范式的不足,且反之亦然。然而,任何努力组合多个范式的系统都需要大量的专业工作来定制组件、使其共同工作、并针对期望输出来测试许多组合。即使这样,结果也可能对变化缺乏鲁棒性。

本文描述的方法和装置克服了常规机器学习方法的上述缺陷,并且可以鲁棒地生成网络,可以从所述网络生成sro。例如,本文描述的方法提供了一种机器学习方式,其可以直接且鲁棒地与符号化方法和其他机器学习方法整合。在某些实现方式中,本文描述的方法提供了机器学习方式,其将多个ai范式高效地组合成灵活的容错性系统。用来自经济学的概念控制被称为代理的不同算法的总体(ensemble)/网络,包括(i)偏好函数、(ii)效用函数、以及(iii)目标函数。每个代理都被赋予推理范式(例如,信念网络、决策树等)或偏好函数。基于代理的相应推理范式或偏好函数,代理然后寻求优化目标函数(例如,利润函数、效用函数、回报函数等),从而为其偏好指派实数。代理使用训练数据根据博弈论原理通过与总体/网络中的其他代理交互来学习。在博弈背景下看代理之间的这些交互,可以理解代理将收敛到纳什均衡。纳什均衡基于训练数据和代理就所述数据进行推理和分类的方法来表示代理在决策环境中的稳定点。此稳定决策点可以被认为是该空间中代理的已学习状态的状态向量。

进一步地,此已学习状态可以用作已学习数据的索引,而无需存储原始数据本身。事实上,已学习状态可以被视为单个模型,所述单个模型可以被保存、存储、检索、使用、或甚至与其他不同或类似已学习模型重新组合成受用户的学习参数选择限制的大小和深度。例如,可以使用本文描述的替代排名运算符(sro)在给定时间捕获已学习状态,并且在美国专利申请公布号(对应于代理人案号506878us)和临时专利申请号62/460,570中对此更详细地描述,两者的全部内容通过引用并入本文。

因为代理基于使用共同“货币”的经济模型进行交互,所以可以无缝且鲁棒地整合不同、各种不同的ai范式/模型。进一步地,可以创建代理网络的层次结构,其中在一个层次的交互代理的较小规模经济可以被捆绑为具有集体输出的单个代理,所述集体输出在第二层次的其他代理的较大规模经济内以第二层次进行交互,如例如在美国专利申请号14/965,728和美国专利申请号14/971,769中所描述的,两者的全部内容通过引用并入本文。

如上面讨论的,与本文描述的方法对照的常规方法不可避免地具有许多固有缺陷,包括例如:

(1)由于丢失模型变量和关系而导致信息不足;

(2)短时间段到较长时间段的固有数据修正;和

(3)虽然弱但可能会产生重大影响的波动和干扰。

本文描述的方法借助于下面讨论的属性克服了这些缺陷。例如,本文描述的方法提供了单元学习模型,其通过构建灵活的容错性系统来解决这些缺陷,从而在适应数据修正的同时维持对数据中微弱信号的敏感性。另外,机器学习过程表现出向已学习状态的快速收敛以及易实现性、速度、和复杂情况的处理能力。进一步地,它可以被称为排名运算符合成方法(例如,用于生成sro的方法)。本文描述的方法提供了“单元的”模型,因为它依赖于单位的双随机矩阵结构。

术语“单元的”在抽象代数中广泛用来指包含单位的代数结构。如本文使用的术语“单元的”也指这种结构,但是内部由与输入数据的非一致(non-identity)的单位(即,表示数据性质的异质选手)组成的,以避免由与数据一致的单元组成的模型(即大小与输入数据的大小完全相同的轻易学习的模型)。因此,如本文使用的,所引用的“单元的模型”是通过使用共同的感知语言(例如,在代理之间交换信息作为共同货币的经济模型)来互操作和协作的各种算法的网络,从而学习以任意精确度、保真度和准确度近似输入数据的模式。

现在参照附图,其中相同的附图标记指代若干视图中相同或对应的部分,图8示出了代理1010(1)至1010(n)的网络1000的示意图。如图8所示,代理1010(1)-(n)可以通过通信网络1030进行通信,并且在某些实现方式中,通信网络1030被配置为具有基于云的架构,或者可以在任何其他计算或通信架构上实现。在最低层次,代理通过相应的传感器1020(1)-(3)接收关于“世界”的信息并感知“世界”。在较高层次,代理从较低层次和/或处于类似位置代理接收数据流1020(4)-(n)。例如,如果代理分析文本流,它们将接收一系列单词并处理这些单词以根据代理的有利位置和偏好生成表示数据知觉的信号/签名。代理可以通过以下方式来表达其对特定类型信息的偏好:经由通过与其他代理的链接的元数据交换(例如,通过特殊的端对端(p2p)连接)来交换信息。信息还可以在代理的层次结构中向上传递并由更高层次/层代理聚合,直到生成了可以例如通过用户界面1040提供给用户的可执行结果1050(如报告)。

通过非限制性示例,在某些实现方式中,将低层次数据聚合并提取成更高层次概念和含义被称为取得数据并生成语义原子(称为sematon),随后在更高层次精制和提取所述语义原子,在该更高层次借助sematon的组合来辨别出模式,所述模式被称为完形(gestalt)。因此,代理网络通过在社会和文化背景下合成新模式或完形来进行学习。例如,通过引用整体并入本文的美国专利申请号14/965,728描述了这些完形可用于新颖的背景中以识别其中不再出现原始数据的类似情况。这极大地提高了用户生产力,因为系统从用户输入进行了类比,并创造了单个用户无法设想的新可能性。因此,可以使用智能软件代理来形成具有鲁棒性的认知模型,所述认知模型可以通过自组织成分类器或决策器的总体来处理结构化和非结构化数据。也就是说,在该非限制性示例中,代理被整合并作为代理社会/网络来演化,其发生在层次结构的各种规模和层次。例如,网络内的代理具有各自的偏好函数,其通过信息/元数据的交换寻求最大化所述偏好函数。

进一步地,通过引用整体并入本文的美国专利申请号14/971,769提供了称为层次语义边界索引的代理的另一非限制性示例,其中代理的层次结构演化并从各种数据流中提取信息。

如上面讨论的,借助于代理之间的交互,本文描述的方法使得在多代理技术的框架内实现新算法的混合式组合。因此,可以基于在社会中进行计算的代理来构建本文描述的方法的应用,其中社会是内聚网络。代理可以沿其所属网络的顶点虚拟地通信或移动以使配置空间演化。代理将数据转换为决策,并且使用虚拟货币而不是用直接计算资源在工作中测量其性能和效率。

进一步地,代理可以使用分布式共享存储器模型,其中代理使用图的顶点存储和提取信息。分布式共享存储器模型的长处在于它更容易实现和维护(与例如集中式模型相比),具有高容错性并具有高可扩展性,并且与完整知识共享的最强模型(如最大的专家系统及其相关联的真值维护系统)相比,其产生的结果质量非常高。

代理拥有“大脑”,其能力范围从简单的仿昆虫感知(insect-likesensing)到高级推理。复杂的代理可以通过协作从更简单的代理获取数据并与使用不同算法的“同事”一起工作:使用类比来猜测解决方案的代理可以将假设传递给可以通过演绎来验证它们的代理,或者传递给使用统计学来估计其可能性的代理。通过对以协作的方式感知数据流中的模式的代理组进行索引来实现海量数据流的高速智能知觉。

使用本文描述的方法,可以在实用循环中使用归纳、演绎、和反绎推理在最低层次回答查询,如下面参照图9所描述的。然后,查询结果被抽象、融合、并向上传播作为更高层次代理识别的证据模式。模式结构由较低层次的感知产生,这些感知被作为信号传播到代理层次结构中的下一层,信号被解释为高层次认知表示。这些表示是被聚合成形成类似语义字段的数据表示的完形的感知。

每个代理都封装一个或多个模型,这些模型基于其来自较低层次代理的知觉生成关于数据理论的一个或多个假设。代理选择其已经学习的就以下各项评价为最符合其自身利益的那些模型和假设:

1)效用函数;

2)目标函数;和

3)偏好函数。

如上面讨论的,模型可以像代理中的仿昆虫响应一样简单,也可以像一起充当总体分类器的代理的社会或分组一样复杂,从而提供对基础数据的感知。因此,每个个体代理都可以发现根据其自身利益应该加入哪个代理社会。用博弈论的语言来说,向代理呈现了选择(例如,要与哪些代理交换信息)并且代理寻求优化其自身利益。如果在做出选择之后,代理观察到不同的选择将具有更有利的结果(即,更好地优化其自身利益),则代理在下一次迭代时改变其选择。最终,在没有更好的选择时将实现均衡,并且这被为纳什均衡。

图9示出了代理网络学习并且然后继续适应变化的环境的实现方式的流程图。与可能产生难以计数的无关分析的流水线机器处理的常规方法相比,本文描述的方法使得代理网络能够反映其自身的有效性以从大数据产生高质量有洞察力的信息。例如,代理网络使用协同智能模型,如m.minsky的societyofmind,西蒙与舒斯特(1988)中所描述的,其全部内容通过引用并入本文。在此模型中,自主组件和模块化组件的集合具有用于感知和推理的本地化能力。进一步地,此模型假设,在聚合时,简单决策器的总体可以取代任何(多个)主题专家在解决问题方面的表现。上面讨论的用于层次重新表示的完形原理用于从低层次数据映射成高层次概念和模式。

在图9中,当首次启动系统时,在过程1110中启动/创建(并且然后更新)代理群体1112,并且系统准备开始从连接到数据源(例如,图8中的传感器和数据流)的源接收输入。总体目标由用户指派的任务设定(即,用户任务分配1102)。也就是说,即使系统正在接收数据1122,在没有初始的人类操作者输入目标(即,用户任务分配1102)的情况下,它也不会做任何事情。因此,在某些实现方式中,方法1100开始于分析者提供用户任务分配110。例如,在方法1100的过程1110,分析者已经向代理分派了特定业务要求的任务,如从可能包括聊天、推文、博客、企业电子邮件和消息中单个或多个会话间和会话线程的来源“识别流氓交易者”。代理系统通过提供相关的证据信号纲要和相关的测量结果立即响应请求,所述测量结果是早期通过样品输入从训练期间获得的。因此,在方法1100的过程1120,代理将证据信号度量应用于环境中生成“感知”集合的语言流,所述感知聚合在一起形成“知觉”。最简单层次的感知是证据信号度量与语言流之间的相关性。

在方法1100的过程1130中,代理对反绎过程中的知觉起作用,所述反绎过程寻求通过组合背景知识(包括启发法)合成可行的“假设”来解释被感知的内容的“意义”。在规模的一个最末端,当存在总知识时,所述假设符合已知模型,而在另一最末端则没有背景知识并因此系统通过随机的假设选择过程将感知与假设随机地连接起来。一旦制定了假设,就会修正假设池。此池可以包括用户输入或反馈以及机器学习。如果没有可用的背景知识,系统将通常需要来自用户的反馈。所述反馈用于生成相关性约束,以通过竞争机制修剪掉无用的猜想或假设。修正阶段是系统最复杂阶段之一,因为它涉及使用一套经济学模型来评估“生存能力”并因此评估假设的看似合理性。在过程1130期间,代理可以交易证据和假设,然后拍卖其结果。反馈或其他信号度量(来自先前的学习过程)改变了对看似合理假设的选择。

在方法1100的过程1140中,将假设组合/聚合成演绎理论,然后将演绎理论用于形成预测。在我们的示例情况下,由于分析者请求了“流氓交易者”,系统将输出其响应。在此阶段,响应可能保留在系统内部,或者如果模型输出足够高的相关性得分,则响应被作为报告输出给分析者。在我们考虑分析者对报告的反馈之前,让我们假设系统将报告作为正在进行的假设维持在“内部”,因为相关性得分低于分析者所定义阈值(即没有足够的证据证实任何主张)。在此阶段,系统将寻找更多数据来确认或拒绝主张。

在方法1100的过程1150中,代理网络可以对进一步的输入进行采样并自己进行反馈。例如,在某些实现方式中,反馈源可以是分析者/用户和/或新输入数据(例如,来自传感器、股票市场自动收报机等),并且代理网络可以使用反馈来评估其部分形成的理论的交互并相应地改变其理论。

无论反馈的来源如何,在方法1100的过程1160中,系统可以从反馈或与数据的交互中学习并产生新的发现。当方法1100循环回到过程1110时,这些发现可以促使向活动代理池进行新的添加。过程1160中的学习和归纳推理过程利用之后可以馈入方法1100的另一次迭代的新证据和部分结构来增大池。因此,方法1100可以连续且动态地适应变化的环境。在某些实现方式中,方法1100还可以包括条件性停止/输出标准,并且操作循环继续直到足够的证据(例如,高于阈值值)触发停止/输出标准,从而导致生成报告(或预测)给分析者/用户。

鉴于以上所述,可以理解,本文描述的方法(统称为“modelandpatternstructureonlineunitallearning(模型和模式结构在线单元学习)”(mapsoul))是用于组织被表示为选手的多种数据处理算法的计算模型。将选手组织到工作流中的能力是使得mapsoul能够执行深度模式学习和模式识别的能力,在所述工作流中,选手组而不是任何单个选手自己产生所述能力。实现这一点的部分原因是mapsoul的解释基于操作上不正确的数据和错误指定的算法的假设,所述算法在一般的零和博弈中重铸为自利选手,其中选手寻求“真值”。

mapsoul将选手集合基于其彼此之间以及与被指定为“管理员”的特殊选手的优选通信模式表示为其连接图。选手之间的关系以及他们在集合中的成员资格根据选手作为个人是否有利可图、收支平衡或无利可图而演化。选手之间每轮博弈的特征在于,所有选手使用其先前状态和当前数据来决定购买、出售、还是持有他们从数据中获得的知识片段。每个选手的特征进一步在于每场博弈中其开发的知识的图。mapsoul通过取得其博弈的图谱的组合来取代通常的支付计算。以这种方式,将选手抽象为其图谱的时间演化。这些图谱基于作为经济学选择的决策,并因此可以达到选手没有动机改变决策位置的不动点。不动点是纳什均衡。

在某些实现方式中,不同层次级的代理可以具有品质上不同类型的优化标准。例如,在不同层次,代理可以寻求满足多样性条件、与训练数据(例如,黄金标准)的一致性、向更高层次的代理提供大量的逐点互信息等。

mapsoul机器学习利用纳什均衡条件,这些条件是使用无量纲数概念指定的,非常类似于经验测量的物理系统中表示无量纲数(例如,弗劳德(froude)数或雷诺(reynolds)数)的方式。下面参照图10描述用于确定选择交换信息的相对优点的各种无量纲数。现在根据一种实现方式提供了过程1130的非限制性示例。

第一,考虑数据集d,它是训练数据。将给每个选手(如在本文使用的术语“选手”和“代理”是可互换的)一个目标。例如,此目标可能已被系统的用户设定为供选手产生参考向量集的机器学习测试集(即,黄金标准数据)。也就是说,选手的目标可能是对数据集d进行操作并从而由数据d产生值的向量,其尽可能地与参考向量集(即,黄金标准或训练数据)紧密匹配。在某些实现方式中,由选手产生的数据d的此向量值表示可以是复值向量。在某些实现方式中,可以根据此向量值表示计算模式向量(pv),其被称为偏好向量。如针对过程1130的步骤1220所描述的,pv可以被理解为表示从代理的角度相对于其他代理的位置的感知。

第二,向量值表示被归类(可能被错误地归类)到集群中。进一步地,对于给定数据集d中数据的n个已知正例中的每一个,每个选手可以具有相同数据的一个或多个向量。

第三,选手将设置灵敏度阈值,由此认为数据的向量与另一数据向量完全相同(如果其余弦度量的差异未达到一个小于或等于阈值的量)。

该过程可以被理解为类似于基于向量语义中使用的项相关矩阵的共现向量(例如,按余弦计算逐点互信息(pmi)度量之间的相似性,从而将不同项(类似于元数据标签或代理之间的连接)作为上下文进行处理),如在d.jurafsky和j.martin,自然语言处理综论,第3版(草稿),https://web.stanford.edu/~jurafsky/slp3/ed3book.pdf中所描述的,其通过引用整体(且尤其是在描述向量语义的第15章中)并入本文。例如,在某些实现方式中,代理可以引用已经用元数据标记的数据流的特定位置,并且元数据标签之间的链接可以对应于相应代理之间的连接。因此,像在向量语义中用于测量给定距离内的单词对之间的频率的项相关矩阵那样,代理向量的矩阵表示可以表示在代理的一定数量链接内出现的元数据标签的频率(即,代理的连通性及其接近度)。

下面参照图10更详细地描述这些计算中的每一个。

因为代理之间的链接可以移位或被删除或被添加,所以发生学习过程。在稳定网络(多个周期内事物保持不变)的情况下,则该状态是已学习状态。从经济学角度来看,已学习状态已达到纳什均衡。训练数据用于学习网络,在该网络中没有代理被(效用函数)激励改变其与任何其他代理关于数据的连接。该不动点通常根据(例如,3次迭代的,如果没有任何变化则考虑是已学习状态)计算周期数被设置为参数。当系统首次被初始化时,代理被随机分配给数据。

要注意的是,目标本身就是效用函数的性质。目标函数和偏好函数调整代理的价值,所述代理的价值随着代理(通常随机地)使用这些函数来探索其数据而趋向于最优:代理只有在网络中达到(纳什)均衡时才会进展良好。

训练数据设定了数据和元数据,并且目标通常是人类提供的期望预期结果或解释:这是由网络学习到的。网络是动态的,因为代理可以改变其位置或与他人的关系,直到对于要改变其位置的代理不再是最优。此时,实现了纳什均衡。

图10示出了用于根据所提供的数据来制定和修正假设的过程1130的流程图。如上面讨论的,代理基于其来自较低层次代理的相应知觉并基于所选模型和假设来做选择,所述模型和假设是就以下各项根据代理自身利益所学习到

1)效用函数;

2)目标函数;和

3)偏好函数。

在过程1130的步骤1210中,通过将元数据标签应用于所接收的数据,将数据映射成域无关的形式。也就是说,偏好函数被指派给代理,并且偏好函数将元数据映射到数据。根据某些实现方式,对于任何输入数据,将最通用的元数据类型指派给每个输入数据。为任何选手都定义了5个主要类别的顶级元数据类型。这些是(i)供体;(ii)受体;(iii)否认体(iv)肯定体和(v)逻辑类型(介词关系词、隐含门、以及一阶逻辑“和”和“或”运算符)。这些类型可以由用户可能希望添加的任何子类型结构来补充,如在视觉输入情况下的语言案例角色或主题或图像描述符或在音频输入情况下的音频描述符。

例如,在自然语言输入的情况下,可以用元数据类型“供体”标记在输入的句子中识别的名词。在同一输入句子中,可以用元数据类型“受体”标记所识别的动词。形容词/副词可以通过使用这些项来从情绪或判断的角度(根据人类)表示词的极性来被标记为否认体/肯定体。逻辑类型可用于标记介词和其他功能词。结果是用标签标记的句子图。

示例#1:“johnwenttoboston”

在此示例中,我们将(借助一定的外部标记资料库)使用以下元数据标签来标记句子:供体john受体went逻辑to供体boston

在另一示例中,在图像输入和其他类型的数据输入的情况下,图像场景中的“供体”的概念可以代表较亮的反射区域,而“受体”可以代表较暗的非反射区域,而它们的子组成部分(子图像区域)可以用其他类型标签的组合来表示。结果是用标签所标记的图像的图。

因此,域相关过程导致使用顶级元数据类型的受限制集合(具有5个顶级类型的集合)进行元数据标记,并且数据引起了被表示为类型的图或树的任何子类型。

在步骤1220中,如下计算相应代理的模式向量1222:

1)将两个被标记部分(一对)之间的距离定义为该对之间的最小连接链接数(在其介入已标记数据之间建立的介入链接)。将这个数字称为“n”。

2)通过针对选手交换集合(时间t)对发现每对顶级元数据类型每个所处距离均小于给定“n”的频率进行计数来创建频率和链接距离矩阵(频率“f”对链接距离“n”),因为选手的偏好可能会随着时间而改变。

3)将矩阵解释为被称为偏好频率相关向量(pfcv)的向量集:n*f

4)通过将向量的每项除以时间帧内的选手交换总数来对pfcv值进行归一化:npfcv=(n*f)/(交换数)

5)计算全局向量为偏好向量npfcv的逻辑“或”。

6)最后,对于选手集合的管理员,计算偏好逆频率相关向量:pifcv=npfcv/选手数。

回到示例#1:“johnwenttoboston”

供体john受体went逻辑to供体boston

john与boston之间(即从供体到供体)的邻接数量是3:

以下是3的列举:[john,go],[go,to],[to,boston]

我们将数字3称为链接距离,并且因此我们分别针对类型组合而不是单词将链接距离计数为2和1。因此,供体到供体之间的链接距离为3。

这里是向量的子矩阵表示:

这导致元数据模式=[(供体/受体),(供体/逻辑),(逻辑/受体),(供体/供体)的模式向量(列的总和)=(2,2,1,1)。

对于每个选手,我们将针对输入的模式向量定义为:

由“n”给出第n个选手,和d是数据总数(在句子的情况下,“johnwenttoboston”有4个单词)。计算第i个元数据与第j个元数据标签的距离矩阵,取其总和并除以数据总数d。

针对该示例,pv(1)=1/4*(2,2,1,1)=(0.5,0.5,0.25,0.25)。

对于都在同一位管理员下的许多不同的选手,我们有:

pv(管理员)=pv(n)|pv(n-1)|….pv(1),

其中对十进制数执行的“或”运算返回所述十进制数的最大值。类似地,对十进制数执行的“和”运算返回所述十进制数的最小值,返回所述十进制数的最小值。

因此,pv可以被理解为代表从代理的角度相对于其他代理的位置的感知。由于代理是节点,因此它只是为网络中的每个节点计算的一种指纹。每个节点将具有略不同的值,但有些节点可能具有相同的值(因为其局部邻域与另一代理的局部邻域相同)。例如,pv(n)是从第n个代理的“角度”陈述的路径矩阵。因此,在下面考虑的示例中,使用矩阵表示:

(供体/受体)(供体/逻辑)(逻辑/受体)(供体/供体)来表征引用第一位置(即,n-1)的代理的“角度”(例如,偏好)。

对应于n=2的另一个代理引用第二位置,即“受体”。因此,将使用矩阵表示:

(受体/逻辑)(逻辑/供体)(逻辑/受体)(受体/供体)对该另一代理进行表征。因此,不同的代理引用不同的位置、具有不同的角度、并因此产生不同的向量表示。

在步骤1230中,对偏好向量执行相似性搜索,并且结果用于计算相似性轮廓比(spr)1232。利用使用多优势点(mvp)树的非限制性示例来说明相似性搜索,但是可以使用执行相似性搜索的任何已知方法。

回想起的是,数据集d与参考向量一起提供,并且向量值表示(pv)被归类到集群中(例如,使用相似性搜索)。进一步地,对于给定数据集d中数据的n个已知正例中的每一个,每个选手可以具有相同数据的一个或多个向量。

在某些实现方式中,通过将偏好向量存储在mvp树中来执行聚类步骤。目标函数衡量选手和数据之间的一致性。使用mvp树在选手到选手数据之间执行相似性搜索。因此,有n个相似性搜索(每个选手的数据一个),其中每个已知正例又是从选手到mvp树的查询结构,以返回其最近邻居作为相似性得分。结果实际上是各个选手的逐对相似性。在mvp树中标出逐对相似性中使用的每个数据。

接下来,任何未标记的剩余数据则用于计算针对所有剩余已标记数据示例(n-1)和过滤数据库的所有负例的额外逐对相似性得分(不存在匹配相似性,因为这些在最近邻居搜索的阈值之外)。

此过程产生n个相似性排名列表,这些列表被融合到包含n个单独列表的排名的最终相似性排名列表中。

然后使用向量计算随时间t变化的称为相似性轮廓比(spr)的目标函数。此目标函数导致无量纲数的时间演化轮廓,因为它们是通过以下比率计算的:

其中,在初始迭代时间t=0,spr(t-1)=0。变元p总是选手关于目标(即,目标类别)分别识别且归类或未识别的正例和负例的总数。值p正是选手在数据集上正确归类的正例的数量。值s总是当前处理的数据集中的输入数据示例的总数。值s正是在当前处理的子集中找到的正例的数量。值q是参考人类选手的随机试验中算法的肯定标识的数量,所述人类选手扮演真值黄金标准的角色。值r是算法上的随机试验中可用的示例总数。一些算法将具有其中q/r=1.0的比率(例如,相对于另一类别数据标识一类别的数据的那些算法),而其他算法将取决于语义复杂度而具有比所述比率更小的比率(例如,识别使两个不同的数据类别相关的模式)。

任何优于对查询的随机选择答案的方法都会返回spr>1.0。因此,这是衡量系统执行其归类相对于随机猜测的良好程度(即像猴子和镖靶类比)。

spr1232具有上限。此上限与数据集中的正例部分和选手质量(等于人类表现)成比例。当spr1232达到固定上边界时达到限制。spr1232及时达到其上边界所需的迭代次数被解释为执行归类并同意归类的选手集合的效率。

比较几个不同的选手是有意义的(如果他们仅对同一数据集执行),因为根据随机变化的数据来校准选手是没有意义的。

在步骤1240中,计算效用函数。例如,通常根据距离度量(如成本或旅行时间)来定义效用函数。在欧几里德(euclidean)距离度量作为效用函数的情况下,假设特征向量语义以相同的方式同质地表示对象。对于具有多种类型元数据的演变系统(由于深度域差异,这些元数据可能不容易将一个映射到另一个),即使存在这种不相称的语义表示(即,元数据不是同质表示),本文定义的效用函数也将能够产生有用的测量结果)。效用函数是无量纲数,是基于对相似性和类比性质的直觉的启发式度量。第一种直觉是可以在从最小零(完全不相似)到1(完全相似)的范围之间判断相似性。

为了测量相似性,我们选择两个不同的选手a和b:

1)ρi是选手a的pv的第i个元素的(使用该选手的元数据语义基础的)值;并且

2)σi是选手b的pv的第i个元素的值,是从不一定与选手a相同的元数据基础导出的。

3)n是元数据的最大链接距离的基数(如果一个元数据具有更大的维度,则使用常见的较小者)。

第二种直觉是,如果值ρ被定义为σ中存在特征的期望(即,如果ρ和σ都是相关数据),则可以评估相关数据,尽管元数据存在差异。这导致高得分,我们用所述高得分来识别在查询数据区域中具有许多特征的集群,所述查询数据区域对来自其他选手的相邻相关数据具有高概率。然而,作为第三种直觉,在概率非常低的区域中惩罚选手对的存在也很重要。在这种情况下,分母利用集群(即,解释感兴趣语义特征的若干数据元素的模型)中数据的逆概率来加权对的存在。

因此,我们定义spr1232用于选择可在选手之间进行比较的适当元数据标签,否则概率将随机分布,并且集群将在区域中被“抹掉”(即,它们将无法可靠地识别相互关联的语义类别)。选择选手之间的高度多样性非常重要,从而使得他们对高保真数据归类的最大相互潜力才是最佳的。例如,marvinminsky在他的作品societyofmind中所说的直觉就是多样性的原则。mapsoul包括多样性执行器(enforcer),所述执行器随机地对数据进行采样并拒绝选手基于用户定义的多样性阈值对该数据学习,而这本身进而基于高度多样性作为知觉力指示符(indicator)的直觉。在计算多样性时,使用了两个二进制串表示,一个用作选手(a)的搜索查询,并且一个用于假定选手是人类用户(b)情况下进行比较的参考结构(黄金标准)。选手的大小和数据基于其元数据存储以及其未归类的数据。对于匹配操作,使用以下值:

1.a=位向量a中的1的数量

2.b=位向量b中的1的数量

3.c=a和b的公共1的数量

4.d=a或b中非公共的所有1(xor)

5.n=位串的长度

tanimoto系数(tc)是使用位串相似性得出关于相似性的任何结论时最常用的系数。

示例#2:4种公共特征

a:(01011111000)

b:(10101111000)

tc=1/2

tanimoto多样性度量如下:

使用此度量,与较大型选手相比,仅使用少数或有限数量的特征来编码元数据的选手将趋向于高度多样性。汉明(hamming)度量具有逆趋势线—具有许多元数据特征的较大型选手将趋向于高度多样性。

我们使用的度量是基于组合了两种多样性度量的互补性长处和弱点,被称为dixon-koehler修改:

在dixon-koehler多样性度量中,与多样性度量相关的大小影响相互抵消。我们使用这些度量将选手向量以序列化方式转换为(长)二进制串,并且可以描绘其在一段时间内的轮廓。

鉴于上述情况,可以理解,mapsoul提供了一种新颖的方式用于以非常高的复杂度快速实现数据的学习和分类,并胜过了建模和使用纳什均衡来学习数据的所有传统方式。在给定时间,所学习的代理之间的关系表示顶点处为代理且顶点之间的链接/边表示信息交换的图。此图可以被捕获并表达为可以用于快速对图中的顶点进行排名的替代排名运算符,如上所述用于生成sro。

也就是说,mapsoul可以用作使用排名运算符来学习和排名网络内数据的系统和方法。当应用于数据时,排名运算符产生排名相关的数据。机器学习方面具有比基于在网络内关联的节点之间的传播性计算或激活(用于机器学习或关联索引)的常规方式更快地学习、模仿、和产生权重的性质。排名方面是网络中结构和相互关系的可扩展高速逼近子,如包括人工神经网络、深度学习、和强化学习(仅举几例)的机器学习得到的那些。本公开可以应用于信息检索,即从信息资源集合中获得与信息需求相关的资源的活动。google、bing、和yahoo等网络搜索引擎是最著名的信息检索应用。本公开还可以应用于信息过滤系统,例如向用户推荐内容的推荐器系统或推荐引擎。本公开还可用于任何机器学习或人工智能系统,以进行医疗、金融和其他领域的数据分析。

系统包括持续优化与软件代理交互的目标函数的过程并行框架和独特适配方法。代理收敛至纳什均衡,纳什均衡表示在处理一批数据之后每个代理的推理范式(例如,信念网络、决策树等)的贡献。代理网络表示用于之后计算排名运算符的最佳矩阵。本专利能够高效地将多种推理范式组合成灵活的容错性系统。本专利还能够实现人工神经网络、机器学习代理(处理模块或实体)的总体、或任意网络的收敛所必需的计算资源的效率和优化。本专利使得系统能够在进行处理的同时自调谐到较差和噪声数据中的微弱信号。

此系统还包括用于计算网络中的顶点或节点之间的相对排名的独特方法,例如在网络安全网络、医学信息网络、社交网络、符号化网络、语义网络和web网络中。排名运算符计算将节点相对于彼此进行排序的输入或状态向量的排名,其中节点可以是原始数据但在优选实施方案中是代理。换言之,排名运算符将一个状态向量(由图中节点的位置表示的状态)映射到另一个状态向量(由子图中节点之间的排名表示的状态)。本专利使得能够收敛到唯一的主导本征向量,而不需要如pagerank所使用的“容差因数”来强制实施不可约性。本专利还能够实现更高排序的准确性,以在被排名向量的元素之间进行区分。运算符是底层关系网络结构的精确和准确的构造。本专利使得能够对如信息检索、推荐引擎(仅举几例)等任务进行个性化。

总的来说,本专利解决了高效构建将多个推理范式组合成灵活的容错性系统的机器学习系统,并高效地存储已学习状态以供使用和/或重新使用的问题。我们将所述系统称为:模型和模式结构在线单元学习,或mapsoul。

mapsoul是通过使用经济学作为软件代理的组织原则以替代排名运算符为基础而建立的,使得这些代理可以在赢利、亏损、或收支平衡的博弈中充当选手。每个选手都有环境的主观模型,所述主观模型是作为其自身行动和信息的函数的、其自身后果上的一组定向概率密度分布(实数和复数)。在mapsoul中,主观选手信念的集合不包括真实的客观分布(即,无知假设)。可以理解为这是一个区别性元素。具体而言,在对数据进行分类和预测方面,所有代理本身被证明正确之前都被假定是错误的。换言之,所有选手总是假定最大的无知,并因此推论被视为假,直到不存在相反的证据允许修正或承诺所推断的假设。

mapsoul的工作原理是从就绪并等待的选手目录中随机选择一个选手子集(处理模块)。通过一个实施方案,通过遗传算法(geneticalgorithm)执行选手随机选择。假定每个选手具有部分不正确或完全不正确的主观模型。选手模型基于支付相关的目标函数相对于效用函数的偏好集合。每个选手遵循最优自我利益策略,其中关于数据或环境的信念在可能的信念集合下被假设为最优的。具体而言,就博弈论而言,选手不仅与数据博弈,而且还要彼此博弈,从而从其各自的角度形成关于彼此的预测。纳什均衡的出现表明,数据已经引起了特定的上下文。如果引起了所有上下文(即,所有纳什均衡的集合),则选手是已经学习了正确模型且可以被重新用作演绎机器的学习机器。

总而言之,mapsoul结合运行时系统提供高度自适应和通用的并行处理控制模型,以便在云中执行(即网络上分布式计算)。进一步地,与常规方法相比,mapsoul提供了以下优势

·不规则的通用计算代理或演员或选手

·资源(时间、存储器、和cpu消耗)弹性,

·交互、同步、数据传送、局部性和调度抽象,

·处理不规则分布的选手的大型集合的能力

·处理不规则非结构化数据的能力,以及

·容错、自调谐和和自适应恢复。

虽然已经描述了某些实现方式,但是这些实现方式仅作为示例呈现,并且不旨在限制本公开的范围。本文描述的新颖设备、系统和方法可以多种其他形式实施;此外,在不脱离本公开的精神的情况下,可对本文中描述的设备、系统和方法做出各种省略、替代和形式变化。所附权利要求及其等同物旨在涵盖。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1