一种机械视觉听觉嗅觉以时间相互映射的设计方法与流程

文档序号:14571943发布日期:2018-06-01 22:47阅读:214来源:国知局

一种机械视觉听觉嗅觉以时间相互映射的设计方法的技术领域,是属于,机器人、人工智能、计算机、图像处理、嗅觉传感器技术、听觉传感器、数学等技术领域,主要技术是通过摄像头采集的图像、听觉传感器采集的数据和嗅觉传感器采集的数据,同时记录下来,然后通过计算处理,让图片里的气味产生物的图像和闻到的气味和听到的声音对应起来,并且通过运算要保存时,同时保存起来,把这个时间也同时保存起来,并且以这个时间为映射,这样当接收到已保存的气味,可以在数据库里找到,并通过记录的时间,同时找到对应的图像和声音,当看见那副图像,也通过时间映射找到对应的气味和声音,当听到这样的声音,也可以通过时间映射找到对应的图像和气味。



背景技术:

智能型机器人是最复杂的机器人,也是人类最渴望能够早日制造出来的机器朋友。然而要制造出一台智能机器人并不容易,仅仅是让机器模拟人类的行走动作,科学家们就要付出了数十甚至上百年的努力。1920年 捷克斯洛伐克作家卡雷尔·恰佩克在他的科幻小说中,根据Robota(捷克文,原意为“劳役、苦工”)和Robotnik(波兰文,原意为“工人”),创造出“机器人”这个词。1939年 美国纽约世博会上展出了西屋电气公司制造的家用机器人Elektro。它由电缆控制,可以行走,会说77个字,甚至可以抽烟,不过离真正干家务活还差得远。但它让人们对家用机器人的憧憬变得更加具体。1942年 美国科幻巨匠阿西莫夫提出“机器人三定律”。虽然这只是科幻小说里的创造,但后来成为学术界默认的研发原则。1948年 诺伯特·维纳出版《控制论——关于在动物和机中控制和通讯的科学》,阐述了机器中的通信和控制机能与人的神经、感觉机能的共同规律,率先提出以计算机为核心的自动化工厂。1954年 在达特茅斯会议上,马文·明斯基提出了他对智能机器的看法:智能机器“能够创建周围环境的抽象模型,如果遇到问题,能够从抽象模型中寻找解决方法”。这个定义影响到以后30年智能机器人的研究方向。1956年 美国人乔治·德沃尔制造出世界上第一台可编程的机器人,并注册了专利。这种机械手能按照不同的程序从事不同的工作,因此具有通用性和灵活性。1959年 德沃尔与美国发明家约瑟夫·英格伯格联手制造出第一台工业机器人。随后,成立了世界上第一家机器人制造工厂——Unimation公司。由于英格伯格对工业机器人的研发和宣传,他也被称为“工业机器人之父”。1962年 美国AMF公司生产出“VERSTRAN”(意思是万能搬运),与Unimation公司生产的Unimate一样成为真正商业化的工业机器人,并出口到世界各国,掀起了全世界对机器人和机器人研究的热潮。 传感器的应用提高了机器人的可操作性。人们试着在机器人上安装各种各样的传感器,包括1961年恩斯特采用的触觉传感器,托莫维奇和博尼1962年在世界上最早的“灵巧手”上用到了压力传感器,而麦卡锡1963年则开始在机器人中加入视觉传感系统,并在1964年,帮助MIT推出了世界上第一个带有视觉传感器,能识别并定位积木的机器人系统。1965年 约翰·霍普金斯大学应用物理实验室研制出Beast机器人。Beast已经能通过声呐系统、光电管等装置,根据环境校正自己的位置。20世纪60年代中期开始,美国麻省理工学院、斯坦福大学、英国爱丁堡大学等陆续成立了机器人实验室。美国兴起研究第二代带传感器、“有感觉”的机器人,并向人工智能进发。1968年 美国斯坦福研究所公布他们研发成功的机器人Shakey。它带有视觉传感器,能根据人的指令发现并抓取积木,不过控制它的计算机有一个房间那么大。Shakey可以算是世界第一台智能机器人,拉开了第三代机器人研发的序幕。 日本早稻田大学加藤一郎实验室研发出第一台以双脚走路的机器人。加藤一郎长期致力于研究仿人机器人,被誉为“仿人机器人之父”。日本专家一向以研发仿人机器人和娱乐机器人的技术见长,后来更进一步,催生出本田公司的ASIMO和索尼公司的QRIO。 世界上第一次机器人和小型计算机携手合作,就诞生了美国Cincinnati Milacron公司的机器人T3。 美国Unimation公司推出通用工业机器人PUMA,这标志着工业机器人技术已经完全成熟。PUMA至今仍然工作在工厂第一线。 英格伯格再推机器人Helpmate,这种机器人能在医院里为病人送饭、送药、送邮件。同年,他还预言:“我要让机器人擦地板,做饭,出去帮我洗车,检查安全”。 中国著名学者周海中教授在《论机器人》一文中预言:到二十一世纪中叶,纳米机器人将彻底改变人类的劳动和生活方式。 丹麦乐高公司推出机器人(Mind-storms)套件,让机器人制造变得跟搭积木一样,相对简单又能任意拼装,使机器人开始走入个人世界。1999年 日本索尼公司推出犬型机器人爱宝(AIBO),当即销售一空,从此娱乐机器人成为机器人迈进普通家庭的途径之一。2002年 美国iRobot公司推出了吸尘器机器人Roomba,它能避开障碍,自动设计行进路线,还能在电量不足时,自动驶向充电座。Roomba是目前世界上销量最大、最商业化的家用机器人。iRobot公司北京区授权代理商:北京微网智宏科技有限公司。2006年 6月,微软公司推出Microsoft Robotics Studio,机器人模块化、平台统一化的趋势越来越明显,比尔·盖茨预言,家用机器人很快将席卷全球。因此对于智能机器人重要的输入信息就是视觉、嗅觉和听觉,现在的技术没有把视觉、嗅觉和听觉很好的对应起来,因此有了本发明。



技术实现要素:

由于人工智能和机器人的快速发展,在现有的技术上,人类利用摄像头能很好的识别一些事物,同时人类利用电子鼻能很好的区分各种气味,人类在听觉分辨能力上也超过人类,在单方面的技术都超过了人类的识别的能力,在人类的行为中,当人类看见狐狸,就会想起它的气味,同时想起狐狸的叫声,闻到狐狸的气味,就会想起狐狸,同时也能想起它的叫声,当听到狐狸的叫声,也能想起狐狸,同时想起狐狸的气味,现在的计算机技术还没有办法实现这种联想的作用,因此本发明正好是解决这种技术,实现这种相互映射的功能,本发明的重中之重是通过时间把它们联系起来,通过时间映射来实现。一种机械视觉听觉嗅觉以时间相互映射的设计方法,其特征是,机械视觉听觉嗅觉以时间相互映射的设计方法,由5部分构成,1是机械视觉处理部分,2是机械嗅觉处理部分,3是机械听觉方面,4是建立对应关系,5是以时间作为映射进行存储的方法,机械视觉处理部分主要是使用摄像机把图片拍摄下来,通过各种算法把图片进行处理,然后把图片提取的特征和储存的数据进行比较或通过深度学习方法进行识别,嗅觉处理的方法就是用电子鼻对空气中的气体进行识别,把这些信息转换成数据,然后让这些数据存储起来,听觉处理就是对声音信号频率进行处理,通过模数转换适合计算机处理,建立图像、气味和听觉的对应关系,当摄像头拍到一个事物就把这个事物的特征提取,同时电子鼻也闻到这个事物发出的气味,同时也通过声音传感器的不同位置排列,确定这个物质发出的声音,也可能先通过声音传感器的排列听到事物发出的声音,然后再根据气味的浓度梯度,确定物质的位置,然后把摄像头转过去拍摄物质的图像,再进行特征提取,或先闻到物质发出的气味,根据气味的浓度梯度确定方向,同时听到物质发出的声音,通过声音传感器的排列,确定方向,然后通过摄像头拍摄,提取特征,以时间作为映射进行存储方式,这是重中之重,让机械想起这是什么时候发生的事,以时间记忆作为3者的关联,具备唯一性和实时性,因此采用如下设计,当气味传感器收到信号,起先和存储的数据库里的数据进行匹配,如果匹配上了就知道是什么东西发出气味,如果匹配不上,通过气味的浓度梯度进行定位,通过定位,也是根据浓度梯度,移动机械视觉去拍摄,这时启动图片处理技术,同时接收到这个事物发出的声音,对声音进行处理,把这3者进行运算,然后确定是否要存储,如果需要存储这种现象,就去调来时间计时器的时间,同时把图片处理后的物质特征和气味处理后的数据,和听觉处理后的数据分别存储起来,储存在为它们各自设立的空间里,通过时间把它们对应起来,这样以后如果机械鼻子闻到了气味,就把这气味和数据库里存储的数据进行比较,如果找到这样的数据,就调出当初记忆的时间,然后根据这个时间去寻找对应的图片和声音,同理如果机械视觉看见事物,就会和储存的数据匹配,如果匹配上了,就会调出当初记忆的时间,通过记忆的时间,对时间进行搜索找到对应的气味和声音,如果听到声音,就会和储存的数据进行匹配,如果匹配上了,就调出当初记忆的时间,然后根据这个时间去寻找对应的图片和气味,这样可以相互对应,并且可以知道这是什么时候发生的。

附图说明

图1是一种机械视觉听觉嗅觉以时间相互映射的设计方法原理图,a-1代表的是气味数据库,a-2代表的是图像数据库,a-3代表听觉数据库,b-1代表的是气味和图像的对应关系, b-2代表的是图像和听觉的对应关系,b-3代表的是气味和听觉的对应关系,c-1代表的是气味数据库的时间部分,c-2代表的是气味数据库的数据部分,d-1代表的是图像的时间部分,d-2代表的是图像的数据部分,e-1代表的是听觉的时间部分,e-2代表的是听觉的数据部分,下面的圆圈代表很多很多的意思。

实施方案

当一个机器人启动以后,系统进入工作状态,它的机械嗅觉、机械视觉和听觉也进入正常状态,这时机器人的嗅觉系统会不停的接收外部的气味传入,听觉系统不停的接收外部的声音,摄像头不停的拍摄各种物质,机械视觉听觉嗅觉以时间相互映射的设计方法,由5部分构成,1是机械视觉处理部分,2是机械嗅觉处理部分,3是机械听觉方面,4是建立对应关系,5是以时间作为映射进行存储的方法,机械视觉处理部分主要是使用摄像机把图片拍摄下来,通过各种算法把图片进行处理,然后把图片提取的特征和储存的数据进行比较或通过深度学习方法进行识别,嗅觉处理的方法就是用电子鼻对空气中的气体进行识别,把这些信息转换成数据,然后让这些数据存储起来,听觉处理就是对声音信号频率进行处理,通过模数转换适合计算机处理,建立图像、气味和听觉的对应关系,当摄像头拍到一个事物就把这个事物的特征提取,同时电子鼻也闻到这个事物发出的气味,同时也通过声音传感器的不同位置排列,确定这个物质发出的声音,也可能先通过声音传感器的排列听到事物发出的声音,然后再根据气味的浓度梯度,确定物质的位置,然后把摄像头转过去拍摄物质的图像,再进行特征提取,或先闻到物质发出的气味,根据气味的浓度梯度确定方向,同时听到物质发出的声音,通过声音传感器的排列,确定方向,然后通过摄像头拍摄,提取特征,以时间作为映射进行存储方式,这是重中之重,让机械想起这是什么时候发生的事,以时间记忆作为3者的关联,具备唯一性和实时性,因此采用如下设计,当气味传感器收到信号,起先和存储的数据库里的数据进行匹配,如果匹配上了就知道是什么东西发出气味,如果匹配不上,通过气味的浓度梯度进行定位,通过定位,也是根据浓度梯度,移动机械视觉去拍摄,这时启动图片处理技术,同时接收到这个事物发出的声音,对声音进行处理,把这3者进行运算,然后确定是否要存储,如果需要存储这种现象,就去调来时间计时器的时间,同时把图片处理后的物质特征和气味处理后的数据,和听觉处理后的数据分别存储起来,储存在为它们各自设立的空间里,通过时间把它们对应起来,这样以后如果机械鼻子闻到了气味,就把这气味和数据库里存储的数据进行比较,如果找到这样的数据,就调出当初记忆的时间,然后根据这个时间去寻找对应的图片和声音,同理如果机械视觉看见事物,就会和储存的数据匹配,如果匹配上了,就会调出当初记忆的时间,通过记忆的时间,对时间进行搜索找到对应的气味和声音,如果听到声音,就会和储存的数据进行匹配,如果匹配上了,就调出当初记忆的时间,然后根据这个时间去寻找对应的图片和气味,这样可以相互对应,并且可以知道这是什么时候发生的。如附图所示,当需要存储时,根据时间,同时存储起来,例如在2013年01月01号,12点12分,闻到狐狸的气味,就把2013年01月01号,12点12分和狐狸的气味数据一起存储在一起,同时把2013年01月01号,12点12分和狐狸的图像特征存储在一起,并且这时听到狐狸的叫声,那么就把2013年01月01号,12点12分这个时间和这个声音的数据同时存储起来,然后建立算法,建立对应关系,如果传过来的狐狸气味和数据库的数据匹配上,就显示这个气味,同时通过2013年01月01号,12点12分去搜索图像特征的存储空间的时间部分,这样找到匹配的时间,然后就把狐狸显示出来,同时2013年01月01号,12点12这个时间去听觉数据库搜索数据,就能找到狐狸的声音,用同样的道理,如果看见狐狸,就可以到图像数据库查找狐狸的图像特征,把狐狸的图像特征显示出来,同时用时间2013年01月01号,12点12分到气味数据库进行搜寻,找到气味的数据,然后显示出来,同时2013年01月01号,12点12这个时间去听觉数据库搜索数据,就能找到狐狸的声音,同理如果听到狐狸的声音,用2013年01月01号,12点12这个时间,找到狐狸的的图像特征和狐狸的气味,这样就可以按照时间对应映射关系来实现,并且知道是什么时候发生的。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1