一种导入人工智能超深度学习用于语音识别的方法与流程

文档序号:14519654阅读:270来源:国知局
一种导入人工智能超深度学习用于语音识别的方法与流程

【技术领域】

本发明属于信息处理领域,尤其是一种导入人工智能超深度学习用于语音识别的方法。



背景技术:

当前在全世界范围内人工智能成为热点话题,与人工智能相关的专利也引人注目,在这方面日本著名古河机电公司发表了“图像处理方法和图像处理装置”(专利文献1)的专利申请,该专利提出通过人工智能的神经网络的算法选取图像的处理阀值从而高精度的将图像的轮廓抽出。

在汽车自动驾驶的应用中日本著名的丰田公司发表了“驾驶指向推定装置”的专利(专利文献2),该专利提出根据汽车自动驾驶过程中,针对突发的情况,即使驾驶员没有反映的情况下,通过人工智能的逆传递神经网络的机器学习算法,自动的选择驾驶状态,以避免行车事故的发生等。

【专利文献】

【专利文献1】(特开2013-109762)

【专利文献1】(特开2008-225923)

上述(专利文献1)和(专利文献2)都提到采用人工智能的神经网络算法,但是,神经网络算法中的加权值w,与阀值t在学习的过程中,要想得到最佳的解,需要将所有的状态都要进行测试,所要组合的总次数是{(w×t)n}×p,这里n为一层的神经网络的节点数,p为神经网络的层数,如此高指数的计算复杂度使计算量庞大,最终造成自组织收敛太慢;再加上加权值和阀值这两个参数是互关联的,针对整体的目标进行各个加权值和阀值的调节不能保证所得到的结果是整体的最佳解;另外,神经网络的模型中的阀值的定义属于初等数学,同人的大脑的神经网络的机理相差甚大,脑神经的刺激信号的原理不能在传统的神经网络模型中充分体现,人的头脑的根据神经元的神经信号所产生的兴奋程度不同进行不同的判断的机理在目前的神经网络的模型中也不能体现,再有目标函数往往是随机分布的,神经网络模型并没有考虑针对随机变量的处理等等,目前的神经网络模型只能是学术上的,代表一种方向性的理论,同达到实际应用的程度差距甚大。如今进入深度学习的阶段,同传统的神经网络相比只增加了隐藏层的数量,这更加使计算的复杂度加大,虽然在学习中导入了一些优化算法,但是并没脱离原来的神经网络的基础,传统神经网络的致命问题得不到解决,广泛应用的前景很难期待。

再有,组合理论通过图论解决最佳组合问题最初是由美国佛罗里达州大学刘教授发明的,80年代初我国访问学者王教授提出了利用“墒”的最佳组合理论,该理论由于从理论上可以证明能够获得最佳的组合结果,因此引起世界学界的高度重视。然而,利用“墒”的最佳组合理论的问题点也是计算复杂度大,收敛慢致使应用受到局限。

人工智能的定义

什么是人工智能?简单讲就是用计算机实现人的头脑功能,即通过计算机实现人的头脑思维所产生的效果,人工智能算法所要处理的问题,以及处理后的结果是不可预测的。

目前之所以在社会上把普通的模式识别,机器人技术混同于人工智能,其根本原因就是对人工智能的概念不清楚,因此把一切先进的技术统统归属于人工智能,这反而会影响人工智能的发展。

长期以来人们习惯于把导入计算机处理的系统统称为智能系统,所以看到人工智能的词汇时马上就联想到智能系统,其实这是完全不同的两个概念,智能系统是依据确定性的算法所实现的系统,是按照一种算法实现某种目标函数的处理,其处理结果是确定性的系统。例如自动控制系统,通过闭环的pid调节,使机械位置能够尽快达到事先要求的位置,使温度尽快到达事先的要求指标等等,这种算法往往是经典的理论,还有在模式识别的智能系统中有很多经典的分类的算法,例如利用欧几里德距离,可以计算出一个特征向量数据同若干个向量数据中的那个向量数据最接近,这些都是模式识别的基本算法,导入这些算法的模式识别系统就是一个智能的系统。

再有在机器人系统中,机器人的行走以及手臂的动作需要人为的事先通过程序输入到机器人系统中,机器人才可以按照人为输入的程序进行行走以及各种手臂动作,局外人看着机器人的动作还以为是同人一样可以随心所欲的作出各种动作,其实不然,在机器人行走过程中如果路上出现一个不可预知的障碍物,这时机器人肯定会被绊倒,然而如果在机器人系统中搭载了人工智能的算法,就可以由机器人自己的判断,自主的绕过障碍物。所以普通的智能系统与人工智能的区别归纳起来就是:普通智能系统是经典的算法,是仅以满足目标函数的的算法,是解决其结果是可预测性问题的算法,人工智能是模仿大脑处理问题的方法,或能客观上实现了人脑所能实现的处理,所要解决的问题,以及处理的结果往往是不确定性的,或者说是事先不可预知的。



技术实现要素:

本发明的第一个目的是:提出一个导入人工智能的超深度学习的语音识别的方法,该方法符合人的大脑神经所产生的神经触发的神经信号的神经网络阀值的定义方法,使神经网络算法能够适应如语音识别那样的以概率分布的复杂系问题为对象的应用。

本发明的第二个目的是:提出一个适应语音识别实际应用需要的,具有计算复杂度低的,高效率的,适用于导入超深度学习的语音识别的算法。

为解决上述传统的神经网络算法所存在的问题,提出一种人工智能超深度学习模型的语音识别方法,本发明提出如下技术方案:

一种导入人工智能超深度学习用于语音识别的方法,其特征如下:

语音信号经过微机器学习产生特征值的特征信息,或语音状态信息输入到超深度学习神经网络的输入层;输入层通过微机器学习输入到隐藏层即神经层;神经层以阀值为基准产生神经信号输入到输出层即头脑层,头脑层进行识别结果的判断。

而且,上述微机器学习是指以概率尺度,或测度尺度为基准,通过迭代的方式不断的产生更加精确的新的概率尺度,或测度尺度,以及数据的中心值的自组织算法。

上述概率尺度是指在具有概率分布的数据中可以找到一个尺度,可以标定数据中最大分布概率的范围。

上述测度尺度是指在含有概率与模糊信息的数据中可以找到一个尺度,可以标定数据中最大分布概率与最紧密的模糊关系的范围。

上述概率尺度,或测度尺度可作为超深度学习模型中的构成头脑神经触发的阀值。

本发明还提出一种导入人工智能超深度学习用于图像识别的方法,其特征如下:

图像信号的经过微机器学习产生特征值特征信息,输入到超深度学习神经网络的输入层;输入层通过微机器学习输入到隐藏层即神经层;神经层以阀值为基准产生神经信号输入到输出层即头脑层,头脑层进行识别结果的判断。

本发明还提出一种人工智能超深度学习模型的构成方法,其特征如下:

神经网络的输入层的每一个节点所对应的目标函数的若干个输入的信息是通过所对应的微机器学习处理后连接到输入层的各个节点的;输入层与隐藏层的各个节点之间也是通过微机器学习相互连接的;由输出层判断处理结果与自学习的处理。

本发明提出了一种导入超深度学习的语音识别的方法,可实现真正的仿真头脑神经元的处理方法实现及其机器学习的算法。可处理语音识别所具有概率分布的复杂系的问题。

全新的“超深度学习”的计算复杂度为o2,普通智能终端都可以进行应用,学习过程目标明确,处理效率高,特别适用于硬件电路的实现,可构成机器学习芯片。以自组织后的概率尺度作为触发神经元的阀值与实际的大脑神经元的机理很接近,而且可适应于含有随机分量的语音识别对象的应用,这将在神经网络理论上具有突破性。

附图说明

图1是一种人工智能超深度学习模型的构成示意图

图2是实际人工智能超深度学习模型的构成示意图

图3是一种针对语音识别的超深度学习的模型构成的示意图

图4是实际针对语音识别的超深度学习的模型构成的示意图

图5是概率尺度的自组织算法流程图

图6是导入人工智能超深度学习理论的股票预测平台的搭建方法的示意图

图1中:

fz(z=1,2,…,w)是第z次被学习图像

fs是被识别图像s

mlz1h(z=1,2,…,w,h=1,2,…,k)是针对第z次图像的第h图像区域的信息所进行的微机器学习

ml2h(h=1,2,…,k)是输入层节点到隐藏层节点之间的针对h输入节点信息所进行的微机器学习

mls1h(h=1,2,…,k)是被识别对象s的信息到输入层之间信息所进行的微机器学习

lz1h(h=1,2,…,k,z=1,2,…,w)是微机器学习mlz1h输入到输入层的学习数值

l2h(h=1,2,…,k)是输入层w次学习在节点h上微机器学习ml2h产生的学习值

t2h(h=1,2,…,k)是触发第h神经层的阀值

pz(z=1,2,…,w)是第z次学习的输入层

图2中:

f是被学习的图像或被识别的图像

ml1h(z=1,2,…,w,h=1,2,…,k)是针对图像f的第h图像区域的信息所进行的微机器学习

ml2h(h=1,2,…,k)是输入层节点到隐藏层节点之间的针对h输入节点信息所进行的微机器学习

l1h(h=1,2,…,k,z=1,2,…,w)是微机器学习ml1h输入到输入层的学习数值

l2h(h=1,2,…,k)是输入层w次学习在节点h上微机器学习ml2h产生的学习值,是输入到神经层的第h节点上的学习值

t2h(h=1,2,…,k)是触发神经层的第h节点的阀值

图3中:

vz(z=1,2,…,w)是第z次学习时的语音信号

vs是被识别的语音信号

fft是快速傅立叶变换

mlz1h(z=1,2,…,w,h=1,2,…,k)是针对第z次学习的语音信号的第h频谱进行学习的微机器学习

ml2h是针对w个输入层的第h节点的w个信息进行学习的微机器学习

mls1h(h=1,2,…,k)是针对被识别语音信号的h个频谱进行学习的微机器学习

nz1h(h=1,2,…,k,z=1,2,…,w)是第z次学习的输入层的节点

n2h(h=1,2,…,k)是隐藏层的节点

ns1h(h=1,2,…,k)是被识别的语音信息输入层的节点

l2h(h=1,2,…,k)是通过微机器学习ml2h产生出的学习值

t2h(h=1,2,…,k)是通过微机器学习ml2h产生出的触发神经的阀值

pz(z=1,2,…,w)是第z次学习的输入层

图4中:

v是学习的语音信号或被识别的语音信号

fft是快速傅立叶变换

ml1h(h=1,2,…,k)是针对语音信号的谱进行学习的微机器学习

ml2h是针对输入层的各节点的信息进行学习的微机器学习

n1h(h=1,2,…,k)是输入层的节点

n2h(h=1,2,…,k)是隐藏层的节点

l1h(h=1,2,…,k)是通过微机器学习ml1h产生出的学习值

l2h(h=1,2,…,k)是通过微机器学习ml2h产生出的学习值

t2h(h=1,2,…,k)是通过微机器学习ml2h产生出的触发神经的阀值

p1(z=1,2,…,w)是输入层

p2(z=1,2,…,w)是隐藏层即神经层

p3(z=1,2,…,w)是输出层即头脑层

图6中:

f1是社会学信息

f2是经济学信息

fw是历史信息

mlz1h(h=1,2,…,k,z=1,2,…,w)是第z个预测因素第h个信息的微机器学习

nz1h(h=1,2,…,k,z=1,2,…,w)是第z个预测因素第h个输入层的节点

n2h(h=1,2,…,k)是隐藏层的第h个节点

n31是是输出层即头脑层的节点

具体实施方式

以下结合附图对本发明实施例做进一步详述,但本发明所述的实施例是说明性的,而不是限定性的。

图1是一种人工智能超深度学习模型的构成示意图。

首先进行字母表达的如下定义:

设输入信息的数量与输入层节点的数量为h(h=1,2,...,k),再设学习次数为z=1,2,...,w,神经元的层数为p(p=1,2,...,e)。被学习的图像也应为fz(z=1,2,...,w),隐藏层即神经层的节点数量与输入层的节点数量对应也为h(h=1,2,...,k),第一次学习的输入信息到输入层节点之前需要进行学习的微机器学习为mlzph,输入层p=1,所以mlz1h有

(公式1)

ml111,ml112,...,ml11k,

ml211,ml212,...,ml21k,

...,

mlw11,mlw12,...,mlw1k,

所以在学习阶段每一次的微机器学习的计算复杂度是线性的,而需要进行w次的学习的计算复杂度严格讲应该是o3

再定义各层的节点nzph,在输入层p=1,所以nz1h有输入层节点:

(公式2)

n111,n112,...,n11k

n211,n212,...,n21k

...,

nw11,nw12,...,nw1k

同样,第二次学习的输入层节点到隐藏层节点之间也需要进行学习的微机器学习为mlph,在这一层只有一种数据,所以不存在w次的数据,隐藏层p=2,所以ml2h有

(公式3)

ml21,ml22,...,ml2k

同样,在隐藏层即神经层的节点只有一种数据,所以不存在w次的数据,隐藏层p=2,所以n2h有输入层节点:

(公式4)

n21,n22,...,n2k

同样决策层即大脑层p=3,而且仅存在一个节点,所以n3h有输入层节点的节点为n31。

再对被识别的对象s进行定义,被识别对象s的信息到输入层之前的微机器学习为mlsph输入层p=1,所以mls1h有

(公式5)

mls11,mls12,...,mls1k

同样,被识别对象s的信息到输入层的节点只有一种数据,所以不存在w次的数据,输入层p=1,所以n1h有输入层节点:

(公式6)

n11,n12,...,n1k

被识别对象s的输入层到隐藏层之间的微机器学习为mlsph隐藏层p=2,所以mls2h有:

(公式7)

mls21,mls22,...,mls2k

这里先以图像识别为例说明人工智能超深度学习的神经网络模型的构成方法,如图1所示:f表示被学习的图像,可将图像分割成n×m的区域,可产生fij(i=1,2,...,n,j=1,2,...,m)个图像,n+m=k,被学习对象的每一个区域对应一个学习层的节点,再设每个区域有g(g=1,2,...,t)个像素。

将第h(h=1,2,...,k)个区域中的所有的g个像素的灰度值输入到第一次微机器学习ml11h中,学习结果值l11h送到第一个输入层的h个节点n11h,第z次被学习的图像fz的k个区域经过k×z个微机器学习mlz1h(h=1,2,...,k,z=1,2,...,w)后,输入到第一个输入层的k个节点上,针对w次的不同环境下所得到的被学习的识别图像fz(z=1,2,...,w),可产生w×h个输入层的微机器学习数值lz1h(h=1,2,...,k,z=1,2,...,w)即:

(公式8)

l111,l112,...,l11k

l211,l212,...,l21k

lw11,lw12,...,lw1k

将w个输入层的每一个节点nz1h上的lz1h再进行第二次微机器学习ml2h,产生学习值l2h以及最大概率,或最大测度的尺度,把这个尺度作为触发神经的

阀值t2h,其结果送到隐藏层(p=2)的k个节点n2h(h=1,2,...,k)。

当被识别图像s的第h(h=1,2,...,k)个区域,经过机器学习的结果产生学习值ls1h,送到k个节点n2h,经过计算当|ls1h-l2h|≤t2h→“1”,隐藏层的k个节点n2h触发,输出“1”的神经信号,否则|ls1h-l2h|>t2h→“0”无神经信号输出。

输出层即大脑层,通过隐藏层输出的神经信号的多少,决定大脑的兴奋程度,根据神经元的兴奋程度,即隐藏层各个节点的输出“1”的个数决定被识别图像s是否是所学习的图像的程度,可起到头脑决策的效果,另外,在具体识别时,还可以根据多次的对被识别的图像的识别,计算出隐藏层的各个节点的输出“1”的概率,可进行自动修正识别参数,起到自学习的效果。

这里修正识别算法有两种方式,一种是计算出隐藏层的各个节点的输出“1”的概率,将隐藏层的各个节点的输出值乘以该节点的概率值,即设隐藏层的各个节点的输出值为nvh(h=1,2,...,k),隐藏层的各个节点的输出“1”的概率值为ph(h=1,2,...,k),则输出层的兴奋值为

另一种是把被识别的图像的数据重新送入隐藏层作为学习数据,重新学习得到新的学习结果。

上述节点之间通过微机器学习进行连接,还可以使用统计学的算法,比如计算平均值和方差,或是统计学的其他算法,以及机器学习的其它算法等等的方法,达到上述定义的超深度学习的构成方法,均属于本发明的范围之内。

图2是实际人工智能超深度学习模型的构成示意图。

上述,在图像学习时采用了通过w次的图像采集,产生了f1,f2,...,fw个图像,针对fz(z=1,2,...w)个图像,通过mlz1h(h=1,2,...,k,z=1,2,...w)的h×w个微机器学习,把学习结果lz1h(h=1,2,...,k,z=1,2,...w)分别送到w个输入层p1,p2,...,pw的各个节点nz1h(h=1,2,...,k,z=1,2,...w),再由输入层通过ml2h(h=1,2,...,k)个微机器学习产生(l2h,t2h)(h=1,2,...,k)。

如图2所示:上述在学习时所产生的f1,f2,...,fw个图像是反复通过对应f图像k的小区的k个微机器学习ml1h(h=1,2,...,k),得到w回的学习结果l1h(h=1,2,...,k)分别送到输入层的各个节点n1h(h=1,2,...,k),微机器学习ml2h(h=1,2,...,k)的输入端把输入层的h节点n1h得到的w个数据进行微机器学习得到(l2h,t2h)(h=1,2,...,k)k个神经网络的学习值和阀值,作为神经层的输出“1”的判断依据,节点n2h,经过计算当|ls1h-l2h|≤t2h→“1”,神经层的h节点n2h触发,输出“1”的神经信号,否则|ls1h-l2h|>t2h→“0”无神经信号输出。

输出层即大脑层同上述相同,通过隐藏层输出的神经信号的多少,决定大脑的兴奋程度,根据神经元的兴奋程度,即隐藏层各个节点的输出“1”的个数决定被识别图像s是否是所学习的图像的程度,可起到头脑决策的效果。

图3是一种针对语音识别的超深度学习的模型构成的示意图。

如图3所示:最初在语音识别的学习时,将z(z=1,2,...,w)回相同内容的语音信号vz通过快速傅立叶变换产生fn(fn=1,2,...,y)个不同频谱的数据,将相邻每x个频谱的数值看作是一种频谱的数值,将h=y/x得到h(h=1,2,...,k)个输入层的信息,再将每x个频谱的数值输入到一个微机器学习中去,mlz1h个微机器学习产生lz1h(h=1,2,...,k,z=1,2,...,w)个学习值,分别送到输入层的nz1h(h=1,2,...,k,z=1,2,...,w)个节点,将输入层的w个第一节点的学习值lz11(z=1,2,...,w)送到隐藏层的输入微机器学习ml21中,第二节点的学习值lz12(z=1,2,...,w)送到隐藏层的输入微机器学习ml22中,以此类推,第k节点的学习值lz1k(z=1,2,...,w)送到隐藏层的输入微机器学习ml2k中,由k个微机器学习产生出k个学习值l2h以及k个触发神经的阀值t2h,即(l2h,t2h)(h=1,2,...,k),其结果送到隐藏层(p=2)的k个节点n2h(h=1,2,...,k),保存在神经网络的存储器中,作为识别该声音的学习值和阀值。

在识别阶段,当被识别的语音vs的语音所产生的与学习状态一致的通过快速傅立叶变换产生fn(fn=1,2,...,y)个不同频谱的数据,将相邻每x个频谱的数值看作是一种频谱的数值,将h=x/y等到h(h=1,2,...,k)个输入信息,再将每x个频谱的数值输入到一个微机器学习中去,mls1h个微机器学习产生ls1h(h=1,2,...,k)个学习值,分别送到输入层的k个节点ns1h(h=1,2,...,k)中,k个节点ns1h的k个学习值ls1h(h=1,2,...,k)直接送到隐藏层即神经层所对应的节点上,在神经层上经过计算当|ls1h-l2h|≤t2h→“1”,隐藏层的第h个节点n2h触发,输出“1”的神经信号,否则|ls1h-l2h|>t2h→“0”无神经信号输出,所有的神经层上节点与输出层即头脑层连接,将神经层输出的神经信号直接输入到大脑层。

输出层即大脑层,通过隐藏层输出的神经信号的多少,决定大脑的兴奋程度,根据神经元的兴奋程度,即隐藏层各个节点的输出“1”的个数决定被识别语音vs是否是所学习的语音的程度,可起到头脑决策的效果,同上述一样,在具体识别时,还可以根据多次的对被识别的语音的识别,计算出隐藏层的各个节点的输出“1”的概率,可进行自动修正识别参数,起到自学习的效果。

图4是实际针对语音识别的超深度学习的模型构成的示意图。

同图3一样,实际针对语音识别的超深度学习的模型构成如图4所示:在语音识别的学习阶段,w次的语音信号vz通过快速傅立叶变换产生fn(fn=1,2,...,y)个不同频谱的数据,将相邻每x个频谱的数值看作是一种频谱的数值,将h=y/x得到h(h=1,2,...,k)个输入层的信息,再将每x个频谱的数值输入到一个微机器学习中去,k个微机器学习ml1h经过w次学习分别产生w×h个学习值l1h(h=1,2,...,k),分别输入到输入层p1的k个节点n1h(h=1,2,...,k),在输入层的节点n1h经过w次学习所产生的w个学习值l1h被送到所对应的微机器学习ml2h的输入端,进行微机器学习后,产生k个学习值l2h以及最触发神经的阀值t2h,即(l2h,t2h)(h=1,2,...,k),其结果送到隐藏层(p=2)的k个节点n2h(h=1,2,...,k),保存在神经网络的存储器中,作为识别该声音的学习值和阀值。

在识别阶段,当被识别的语音vs的语音所产生的与学习状态一致的通过快速傅立叶变换产生fn(fn=1,2,...,y)个不同频谱的数据,将相邻每x个频谱的数值看作是一种频谱的数值,将h=x/y等到h(h=1,2,...,k)个输入信息,再将每x个频谱的数值输入到一个微机器学习中去,k个微机器学习ml1h产生k个学习值l1h(h=1,2,...,k),分别送到输入层的k个节点ns1h(h=1,2,...,k)中,k个节点ns1h的k个学习值l1h(h=1,2,...,k)直接送到隐藏层即神经层所对应的节点上,在神经层上经过计算当|ls1h-l2h|≤t2h→“1”,隐藏层的第h个节点n2h触发,输出“1”的神经信号,否则|ls1h-l2h|>t2h→“0”无神经信号输出,所有的神经层上节点与输出层即头脑层连接,神经层输出的神经信号直接输入到大脑层。

输出层即大脑层,通过隐藏层输出的神经信号的多少,决定大脑的兴奋程度,根据神经元的兴奋程度,即隐藏层各个节点的输出“1”的个数决定被识别语音vs是否是所学习的语音的程度,可起到头脑决策的效果。

在具体进行语音识别时,为提高语音识别的精度,还应考虑将语音信号根据说话的单词或语音状态,先将语音信号进行分割,分别对语音的各个内容,以及状态进行分别的频谱分析,并将状态转变的概率值也纳入学习内容中,在识别时就可根据若干个状态的不同的组合,判断语音的内容,以及考虑语音状态转变的概率来提高语音识别的准确率。

上述被识别的图像仅仅是进行区域分割,再进行超深度学习的处理,以及语音的频谱分析的结果,不仅仅是这种处理方法,还可以根据空间映射的算法,通过人为介入把图像或语音映射到各个简单空间,再通过上述超深度学习的方法进行处理。

下面介绍空间映射的原理。空间映射这个理论是属于人工智能范畴的理论。空间映射理论的原理是针对类似人脸识别,图像识别或文字识别这样的复杂系的模式识别问题,由于复杂系的问题往往很难找到可以直接解决的算法,因此不能像传统的智能系统,直接的通过传统的算法进行处理,基于模糊数学的空间映射理论是把一个复杂系空间的问题映射到若干个简单系的空间的问题,虽然在每一个简单系的空间中只能解决有限的问题,但是根据组合理论若干个简单系空间的组合却能解决复杂系空间的问题,在这里最重要的是由复杂系空间问题映射到简单系空间,是基于人的大脑的处理,学术上称为人间介入的方法,由于传统的数学方法非常死板不易进行人间介入,模糊数学给我们提供了便利,可以根据人为对处理对象的理解,从若干个角度通过模糊数学的membership函数进行定式,从而实现对复杂系问题的解决,由于这样的算法是按照人的头脑处理方式再通过模糊数学的定式达到解决复杂系问题的效果,因此应当属于人工智能的理论范畴。

利用这样的理论可在手写体数字的自动识别上得到了非常高水平的应用效果,可以根据人为的认识文字的结果,比如在区别数字“9”和数字“4”的识别上,当使用的扫描仪的解像度只有100dpi,扫描后的数字“9”和数字“4”如果数字“4”在下面的笔画较长时,很容易识别成数字“9”,反过来手写的“9”在下面的笔画较短时,可能会识别成数字“4”的结果,利用空间映射这个理论中的membership函数定式,可以把数字“9”,以及数字“4”的模糊值都可以量化,所以可以针对非在线手写文字的识别问题,得到非常高精度的识别结果。

导入上述空间映射的理论,可以针对图像在不同位置上的形状,方向,大小,集中分散,均匀分布等在内的几何学的特征,以及重心,能量,热量,频谱,密度,导数,纹理,灰度值的比例等物理学的特性,加入人为的主观的分析,按照人为的理解与人为的辨别方法构建membership函数,构成对整个被识别图像的各个空间映射的模型,形成可表达图像特征的各个输入数据。

同传统的神经网络技术相竞争提出的概率尺度自组织理论是属于人工智能理论。这个理论的出发点是出于人为思想,如果能找到一个最大概率值的尺度就可以通过自组织的方法得到一个超越传统的概率值最大的解,由此产生了概率尺度自组织的算法。

传统算法的程序制作者对程序的开始,中间乃至结束的处理过程都是程序员事先设计出来的,是具有预知性的,而概率尺度自组织算法的一个显著特点就是程序员对处理的过程以及结果都具有不可预知性的。

截止到这一理论的出现之前,一切与统计学有关的算法的处理结果都停留在这一算法的处理之前,反过来讲该算法处理之后的结果都可以让一切与统计学有关的算法的处理结果产生突破,而且这种算法出现之后目前被人们视为不可逾越的统计学的各种常数已经不是最佳的常数了。

同深度学习的算法相比,概率尺度自组织算法的自组织的目标清晰,效率极高,每一次迭代必有作用,计算复杂度为线性的,普通手机app就可实现,极具应用前景。

由于这种算法在理论上的突破,计算复杂度低,使得它的出现一直显示出其特殊的应用效果,例如在文字识别ocr系统上,在计算机打印出的文档文件上,在没有基准线的情况下,当文件在扫描仪上放偏时利用这个算法,仅通过文字的排列就可以很快的计算出文件的放偏的角度。

在人脸识别的应用中,例如找到人脸的部位,传统的方法是先给出人脸的颜色数据,按照程序进行顺滕摸瓜的方法找到属于人脸颜色的所有像素,问题是同样一个人在不同的光线下拍摄出的图像的颜色差别很大,再有世界上有不同肤色,一种肤色所包含的具体颜色也是千差万别的,传统的定义一种颜色进行搜寻的算法肯定不能满足实际应用的需要,导入概率尺度自组织算法可以直接的仅通过若干次的自组织就可精确的找到人脸部位,因为不管是哪种肤色,不管由于拍摄光线的不同所拍摄的图像的颜色失真,在整个图像中的人脸部位的颜色的分布密度值最大,也就是说人脸部位的肤色的概率值最大,通过概率尺度自组织的算法当然会很简单的解决这一难题,而且无需采用顺滕摸瓜的方法,在初始时可以通过图像的任何部位,在概率尺度自组织的过程中自动的移向人脸部位,并最终给出整个人脸部位的轮廓,这是在传统的模式识别的算法里不可想像的识别效果。这么一个胜似深度学习的算法仅仅通过手机终端就可在瞬时实现,概率尺度自组织理论应该属于机器学习理论。

以下具体介绍本发明一种人工智能超深度学习模型中所使用的微机器学习,实际上就是上述概率尺度自组织的算法,将神经网络的节点织之间使用微机器学习的算法进行连接可使神经网络理论产生突破性的发展,下面具体的介绍导入概率尺度自组织的微机器学习的具体算法。

设给定的一个具有概率分布的数列g1,g2,…gζ的集合为g∈gf(f=1,2,…,ζ),该集合的中心值为a(g),中心值为a(g)的概率尺度为m[g,a(g)],而且由自组织化迭代所算出的以第n-1次的中心值a(g(n-1)),并且以该中心值为基准的半径m[g(n-1),a(g(n-1))]内存在着k个概率分布的数列g1,g2,…gk的集a合为g(n)∈gf(f=1,2,…,k),则

(公式9)

a(n)=a(g(n))

m(n)=m[g(n),a(g(n))]

g(n)=g{[a(g(n-1)),m[g(n-1),a(g(n-1))]]

由上述迭代公式1经过若干次迭代所计算出的中心值是针对概率分布的数列g1,g2,…gζ所得到的最为接近母体的估计值,而最终的基准半径值为一概率尺度,以最终的中心值为基准,在概率尺度的范围内的所有的概率分布的数列g1’,g2’,…gk’均可属于概率分布数列g1,g2,…gζ的真值。

图5是概率尺度距离的自组织处理流程。

如图5所示:设给定的一个具有概率分布的数列g1,g2,…g1的集合为g∈gf(f=1,2,…,1),则基于概率尺度的自组织算法由下边4个步骤构成。

step1:预处理步骤:m(0)作为初始化概率尺度,a(0)作为自组织的初始中心值,v作为自组织的收敛值,mn作为自组织最大组织次数值,最初n=0作为自组织的当前次数。

关于m(0)作为初始化概率尺度和a(0)作为自组织的初始中心值的决定方法,无需进行严密的设定。通过人工预测,对于最终的范围,至少有一部分数值是包含在初始化概率尺度m(0)的范围内的。初始化概率尺度m(0)越大,计算的时间就越长,反之太小,有可能得不到正确的结果。

关于v作为收敛值的设定方法,收敛值v越大,就有可能得不到正确的结果。收敛值越小,计算花费的时间越长。正确的设定方法是最终自组织的概率尺度的10%左右。

关于最大自组织次数mn的设定方法,一般是5-10次就足够了。

step2:自组织步骤:进行n次自组织处理,把a(n)作为自组织中心值,概率尺度m(n)作为半径,以中心值a(n)为基准,计算半径以内的所有数值gf(f=1,2,…,ζ)的平均值v(n+1)与分散值s(n+1),v(n+1)=a(n+1),s(n+1)=m(n+1),n=n+1。

(公式10)

(公式11)

step3:自组织判别步骤。自组织处理达到最大次数(n≥mn)或者自组织处理收敛(m(n)-m(n+1)≤v),如为yes,就不再进行下次的自组织处理,自组织结束跳转到step4。如果是no,就跳转到step2继续进行自组织处理。

step4:自组织处理结束。

概率尺度m(n)是一个具有多重属性的概率统计的参数。比方说正态分布,指数分布,爱尔朗分布,韦伯分布,三角分布,贝塔分布等等。例如概率尺度m(n)就可以作为正态分布的分散值。

概率尺度自组织的算法使传统的统计学的基本常数产生了颠覆性的突破,与基本常数密切相关的相关分析,回归分析等都将产生突破,新的统计学的算法将会产生。以此将形成在人工智能理论下的新的统计学相关的理论。

机器学习中的尺度问题,概率尺度自组织的算法所以能够产生突破性的结果就是因为引进了概率尺度,以及自组织的计算方法。总结目前所有传统的有关尺度的定义好像没有比概率尺度更加有效的了,但是,概率尺度自组织的算法是否就此不可发展了呢?回答是否定的,上述解决最佳化组合理论的模糊事项概率实际上是个测度,测度的尺度相信可以产生新的突破,因为测度尺度不仅保函概率信息,同时还保函模糊信息,而且测度是将作用不明显的微小的概率信息与微小的模糊信息进行积分从而获得了比较稳定的测度,用测度作为自组织的尺度这将是当今最高水平的机器学习算法,这也是人们预测到的人工智能的基础理论是组合理论,既然如上所述的测度可以解决组合理论中的最佳化问题,就足可证明测度尺度自组织算法是机器学习的最为理想的算法。这也是概率理论,模糊理论与自组织理论在信息学领域中走到了终极阶段,这意味着在信息领域中将产生重要的突破,人工智能也由仅仅是利用规则缺乏基础理论的支持而一直停留在初期阶段,走向以基础理论为支持的高级阶段。

下面提出基于模糊事项概率的最佳组合理论,组合理论是人工智能的基础理论,因此人工智能理论的突破必然依赖于组合理论的突破。

组合理论所要解决的问题是如何高效率的实现最佳的组合结果,以及面对大规模集成电路需要实现面积最小,配线长最短,甚至还要考虑电气特性等多目的的组合,这是传统的组合理论所无法解决的难题,这里提出一个模糊事项概率的最佳组合理论,这个理论把复杂的集成电路的各个模块之间的连接关系通过模糊事项概率的测度进行定量化,通过考虑各个单元间的连接关系越密切越要尽可能的排列在一起的模糊关系,同时还要考虑针对一个单元同各个单元有可能在这个单元附近排列的概率关系,将不明显的微小的概率信息,以及不明显的微小的模糊信息积分起来就可以得到稳定的,明显的以及有价值的信息,这就是模糊事项概率理论的突破点,因此可以高效率的,针对多目的的集成电路的优化需求,直接的计算出最佳化的组合结果。这个理论的基础是出于人为主观的对单元之间的连接关系的模糊值的定义,因此也是属于人工智能理论的范畴。

作为组合理论属于40个以上的组合要素都属于图灵机不可解的np问题,对于下棋问题是属于np问题,但是,如果加入人为的经验,np问题仍然可以解决,如果下棋的经验做到了程序中去了,因此可以实现战胜棋手的效果。

这里对模糊事象概率测度的定义。首先定义概率测度(probabilitymeasure):函数μ在概率空间上的概率测度必须满足空集合为“0”,全集合为“1”,如果集合a是集合b的一部分,那么集合a的概率值小于集合b的概率值(单调性),以及满足可计算性。

再定义模糊测度(fuzzymeasure):函数μ在模糊空间上的模糊测度必须满足空集合为“0”,全集合为“1”,如果集合a是集合b的一部分,那么集合a的模糊值小于集合b的模糊值(单调性),但是,模糊测度不满足可计算性。

模糊事象概率测度(probabilitymeasuresoffuzzyevents)的定义:首先假定函数f(x)在模糊空间的集合中是独立的,因此具有可计算性,f(x)与p(x)又分别满足上述概率测度与模糊测度的条件,则模糊事象概率测度为:(公式12)

公式12的物理意义是:针对一个复杂系的问题,可以通过将众多的微小的模糊信息,与微小的概率信息利用它们的测度性质,可以通过积分的方法取得一个稳定的信息值,将这一模糊概率测度作为自组织的尺度可以得到意想不到的解决复杂系问题的效果。

下面介绍本发明应用上述理论可进行如下的具体应用:

首先在三维立体移动目标识别

在移动物体识别技术中导入了人工智能算法,可针对由于恶劣的环境造成图像的严重干扰的情况下,可以非常准确的打击移动目标。

当前通过无人驾驶飞机对地形地貌的测绘,自动搜索遇难人员等都需要具有人工智能的三维移动物体的识别产品,这样的高端技术产业具有无限的商业价值。

下面介绍自动股票交易基金对冲以及金融预测的应用方法。

在社会上最具有价值的技术是预测技术,因为正确的预测股市将可获得巨额财富,然而事与愿违正确预估股市结果的算法却并不能满足人们的需要,因此,在预测方法上哪怕有一点技术进步都将是非常重要的,美国的一些号称军事机密的预测算法,在公开后我们会感到这些算法即使在当时并没有想象之中的那种高水平的技术进步。

但是进入人工智能的时代,预测技术将展现突出的颠覆性的效果,首先在最佳预测的概念上显示其进步性,以往人们渴望着得到一个最佳的预测值,然而,根据数学上的最佳化解的理论,最佳化解一定是建立在给出的某一边界条件上的最佳化。人工智能的最佳化预测值就是建立在预测者对社会诸因素的了解,对预测目标的认识程度,以及个人的智力情况等等诸因素以及诸条件的影响下所得到的最佳化值,这将把预测理论推向了最高阶段。

首先人工智能所以能在最佳化预测上具有突破性,其一是运用了概率自组织理论,颠覆了传统的统计学的预测。其二是运用了模糊数学的空间映射理论,可以把预测者对社会诸因素与预测对象的关系的认识通过membership函数定式构建成社会模型,可以把有关对预测产生效果的社会学,哲学,历史学甚至八卦即易学中所提炼出的经验在人工智能的最佳化预测系统中都可以定式,都可以起到对最佳化预测的作用。其三是在数学模型上可以导入时序列的线性相关分析,函数的逼近,回归分析,最小二乘法,生物学的增值与死亡,以及各种统计学的模型与常数,都作为预测的其中一个要素。其四是可以建立社会性的专家系统,针对预测对象建立大型的社会性的大专家库。最后,通过人工智能的超深度学习的模型建立最佳化预测平台,将所有与预测有关的算法,知识以及信息全部利用起来。

人工智能最佳化股票预测平台不是将这些算法分离的进行计算,而是构建成一个最佳化预测中央决策平台,各种不同的算法的计算结果是融合在一起的,相互验证,信息彼此共享,并通过机器学习算法最终进行自组织运算,去伪存真从而获得超越统计学的计算结果,得出最大概率的预测值。系统还具备用已经发生的数据同该系统的各个算法所得出的结果进行自动评价的功能,自动的修正系统的各种参数,平衡各种因素的影响的实际效果,实现自动的知识更新以及知识积累,这些都是在自动的基础上瞬间实现的,在这个平台上预测结果包括股票交易,基金对冲都是自动的进行。从另一方面,作为系统尚需人为处理的功能,运行时可以不断的根据操作者对预测因素的认识的提高,人为的修正各种因素的数值,或增加信息,增加预测要素,或重新或调整预测战略的框架等使预测水平不断提高。这样的系统所能正确预测是来源于人的头脑的智慧,但是在高速处理果断决策上是人类望尘莫及的,这样的系统一定会在自动股票交易基金对冲以及金融预测上发挥不可估量的作用。

图6是导入人工智能超深度学习理论的股票预测平台的搭建方法的示意图。

如图6所示:将与预测相关的社会学信息f1中所具有的fn(fn=1,2,...,y)个因素分类,假设每一类有x个因素,通过模糊数学的membership函数进行人为介入,构造出h=y/x即h(h=1,2,...,k)个输入层的信息,再将每x个因素的数值输入到一个微机器学习m11h(h=1,2,...,k)中去,按同样的方法将与预测有关的经济学中信息f2,以及与预测有关的历史上的信息fw的各个因素通过人为介入所产生的数值也通过微机器学习,这样w×h个微机器学习mlz1h产生w×h个学习值lz1h(h=1,2,...,k,z=1,2,...,w),分别送到输入层pz(z=1,2,...,w)的nz1h(h=1,2,...,k,z=1,2,...,w)个节点,针对每一个输入层节点的学习值l11h,l21h,...,lw1h(h=1,2,...,k)再用微机器学习ml21,ml22,...,ml2k学习得到l21,l22,...,l2k个学习值,以及t21,t22,...,t2k个阀值,每个学习值反映了在这种信息类中所产生的预测值,预测值以及阀值通过神经层的各个节点送往头脑层进行决策,在头脑层中把所有因素所产生的预测值中计算出预测范围,并在这个范围中进行假设检验,假设检验的方式是这样的,头脑层给出一个检验值tvi(i=1,2,...,r),r为检验的次数,将tvi发到神经层的各个节点上,在神经层的各个节点上进行|tvi-l2z|≤t2z→1,|tvi-l2z|>t2z→0,(z=1,2,...,w,i=1,2,...,r),同上述相同,头脑层根据神经层的兴奋状况,找出最大的兴奋预测值,将这个值作为最终的预测值。如果预测失败,头脑层还可以用实际产生的值去评测各个因素所设的模糊参数是否正确,可以自动的或人为的调整模糊参数,达到最高精度的预测效果。

综上所述,一种人工智能超深度学习的股票预测方法,其特征是将与预测有关的所有信息,或数学预测模型的计算结果通过微机器学习的处理送往超深度学习的输入层的各个节点;每一个输入层的各个节点信息通过微机器学习产生预测值与阀值送往神经层;头脑层根据各个预测值得出预测范围,并提出检验值再到各个神经层通过该神经层的预测值,或阀值进行兴奋检验,最终得出最佳的预测值。

上述微机器学习是指以概率尺度,或测度尺度为基准,通过迭代的方式不断的产生更加精确的新的概率尺度,或测度尺度,以及数据的中心值的自组织算法。上述概率尺度是指在具有概率分布的数据中可以找到一个尺度,可以标定数据中最大分布概率的范围。

上述测度尺度是指在含有概率与模糊信息的数据中可以找到一个尺度,可以标定数据中最大分布概率与最紧密的模糊关系的范围。

上述概率尺度,或测度尺度可作为超深度学习模型中的构成头脑神经触发的阀值。

上述与预测有关的所有信息包括社会学信息,经济学信息,哲学信息,法律学信息,金融学信息,政治学信息,历史信息,股票信息,基金对冲信息,预测相关的历史数据信息中的至少一种信息。

上述数学预测模型的计算结果包括通过相关分析计算方法所得到的预测值,曲线逼近计算方法所得到的预测值,统计学模型所获的的预测值,最小二乘法所获得的预测值,回归分析所获得的预测值在内的至少一种数学模型所获的得计算结果。

再介绍汽车自动驾驶方面的应用方法。

导入人工智能理论的汽车自动驾驶系统是当前产业界最为关注的应用课题。在这个应用领域中其一是导入人工智能的机器学习理论的模式识别系统,可以在线的将路况信息自动的识别出,供自动驾驶系统作为汽车运行的依据,其二是导入人工智能的汽车自动运行系统,汽车自动驾驶为什么需要人工智能,可以刹车控制为例,首先汽车不可能以一个速度运行,当需要停止在某位置上时有好多情况,熟练的驾驶员有时会不踩刹车直接停在需要的位置,有时会轻轻地踩一下刹车,也可能会使劲踩一下刹车等等,会有很多的情况,这样的控制问题是目前所有的传统自动控制理论不可解决的,导入人工智能的模糊推论技术就可以把熟练的驾驶员的经验通过membership函数定式,再按照模糊推论的算法实现同熟练驾驶员接近的自动驾驶控制。

这里举出的仅仅是刹车控制,在实际道路上的自动驾驶还有更复杂的控制问题,因此导入人工智能算法势在必行。

有关itc图像变换代码应用方法。

随着代码技术的进化,当今已发展到无需事先设计出代码符号,构成代码图形以求得到稳定的识别结果。在人工智能的算法下,依据自然的纸纹,声纹,自然的图像甚至生体信息都可以直接变换成代码。

近年社会上流行的ar技术,可以通过手机拍照某一个印刷图像,就可以上网连接某一网站。由于这种技术可以从网络上下载开源程序,所以迅速普及。但是ar技术是通过图像识别的算法,识别结果是一个占用十几兆内存的文件,不利于网络操作,以及大量的图像的应用。

从另一个角度,谷歌眼镜,图像检索都需要通过拍摄一个图像就可直接上网,或进行网络检索。为此提出图像直接变换代码的itc(imagetocode)的实现方法,运用空间映射的算法可以把图像的某些特征构造成图像的特征向量,再通过概率尺度自组织的算法组织成一个1036的代码。实现了将任何一个图像经过移动终端的拍摄就可成为一个代码,也就是说可以把任何图像直接作为二维码使用,这一成果可以让任何商品标识在无需任何处理的情况下成为一个二维码,可以使世界上的所有产品,在一夜之中都可以连接到网上去,不破坏商品标识的美观。可以实现谷歌眼镜看到任何图像都可以连接网络的设想,可以实现通过手机拍照任何商品图像就可直接在网上检索该商品,促进网络销售的发展,再有对于目前的vr产品的发展将起到重要作用等等。与传统的ar相比具有代码容量在十万分之一,便于手机终端识别,占用服务器容量小,检索速度快的特点,适于国际性的大范围,大容量的应用。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1