一种电子助视器及其适用的智能手机文本辅助阅读方法与流程

文档序号:24160579发布日期:2021-03-05 16:16阅读:133来源:国知局
一种电子助视器及其适用的智能手机文本辅助阅读方法与流程

[0001]
本发明涉及数字数据处理,特别涉及文件或类似物的扫描、传输或重现,例如传真传输;其零部件的技术领域,特别涉及一种电子助视器及其适用的智能手机文本辅助阅读方法。


背景技术:

[0002]
随着图像处理技术的发展和智能终端设备应用的普及,时代也迈上了万物互联的快车道,智能手机作为重要的设备入口,已经成为日常生活中不可或缺的一部分,移动支付、健康码、导航、线上购物、智能家居等都依托于智能手机这个终端设备。即使是视障用户,也有相当大的比例每天都在使用智能手机,享受时代变革带来的便利,各家设备制造厂商也兼顾盲人用户群体,相继推出无障碍模式辅助视障用户更便捷的使用主要以图形交互为主的智能手机。然而,现阶段的无障碍模式仍在一定的局限性,为视障人群使用智能手机带来障碍。
[0003]
目前国内至少有1700万的视障人群,其中绝大多数都在生活中使用着智能手机,同时也面临着相当多的不方便之处。智能手机上无障碍模式的局限性主要体现在:
[0004]
(1)操作方式复杂,区别于正常人单指的操作,视障用户要依托于单指和双指的交替使用;
[0005]
(2)弹窗广告无法识别、无法引导视障用户关闭,更存在连正常用户都无法关闭广告的特殊情况存在,视障用户使用体验感差;
[0006]
(3)文本识别适用范围小,绝大部分的软件应用商并未针对无障碍模式进行特殊优化,无法被读屏软件识别;
[0007]
(4)语音播放没有顺序性,尤其对文本的完整流畅阅读存在极大障碍。
[0008]
申请号为202010132964.7的专利“一种盲用电脑及适配于盲用电脑的智能手机辅助控制方法”中,增加对智能手机能否使用无障碍模式读屏的判断,以手势指示位置为文本识别范围的方法;然而,使用手势来引导盲用电脑对手势位置进行文字识别并播报的方式不能解决文本阅读不连贯的问题,视障用户仍存在不能完整阅读完文本的情况。
[0009]
申请号为201811129893.4的专利“一种辅助盲人阅读的文本转换方法及系统”中,提供增加了对盲人用户视线内文本进行拼接,并最后交由语音输出的过程,有助于盲人用户流畅阅读体验的改善;然而,这种方法依旧不能解决阅读逻辑性问题,盲人用户视线范围内的文本内容存在不相关性的可能,也不能确保盲人用户视线内皆为文本内容。


技术实现要素:

[0010]
本发明解决了现有技术中存在的问题,提供了一种优化的电子助视器及其适用的智能手机文本辅助阅读方法,着重针对于视障人群接触最多的文本流畅阅读方面,对于提升视障人群的使用体验和生活获得感有十分积极的意义。
[0011]
为实现本发明目的,本发明所采用的技术方案为,一种适用于电子助视器的智能
手机文本辅助阅读方法,所述方法包括以下步骤:
[0012]
步骤1:启动电子助视器,初始化首帧标识符;
[0013]
步骤2:用训练好的视频手势识别网络检测手势,当未识别到手势时进入步骤3,否则重复步骤2;
[0014]
步骤3:抓拍一帧图像并保存在本地,对图像进行预处理,用训练好的分类器对文本进行特征提取,得到文本的检测识别结果,将检测识别结果保存至文件;
[0015]
步骤4:根据首帧标识符判断是否为第一帧图像的文字的识别文本,若是,则将文本输出至语音播放模块进行播放,执行步骤8,否则,以该文本为当前帧的识别文本,进行步骤5;
[0016]
步骤5:将当前帧的识别文本和上一帧的识别文本进行相似文本识别,若不相似,则执行步骤6,否则执行步骤7;
[0017]
步骤6:丢弃当前帧和识别后包含检测识别结果的文本,语音提示用户适当向上滑动,返回步骤2;
[0018]
步骤7:去除当前帧识别文本内容中包含的相似文本内容,将最终的文件传给语音播放模块;
[0019]
步骤8:若收到电子助视器的关闭信息,则程序关闭,否则语音提示当前已播放完毕并提示用户继续滑动页面,返回步骤2。
[0020]
优选地,所述步骤1中,所述首帧标识符用于识别当前是否已经保存有一帧图像,若为首帧则直接识别播放,否则进行相似度判断。
[0021]
优选地,所述步骤2包括以下步骤:
[0022]
步骤2.1:对摄像头拍摄到的视频使用光流法提取特征,检测移动对象,通过比较相邻帧之间的运动变化分离移动的物体和背景,得到光流信息数据流;
[0023]
步骤2.2:使用基于聚类的关键帧提取方法,获取视频关键帧;
[0024]
步骤2.3:将步骤2.1得到的光流信息数据流和步骤2.2得到的关键帧的图像数据流输入训练好的手势识别网络中,检测是否有手势出现,以此来判断用户是选择手机自带的无障碍功能还是使用电子助视器来阅读文本,当未识别到手势时,则为使用电子助视器,进入步骤3,否则重复步骤2。
[0025]
优选地,所述步骤3包括以下步骤:
[0026]
步骤3.1:抓拍一帧图像并保存在本地,将所述图像进行上下边界裁剪;
[0027]
步骤3.2:将裁剪后的图像依次进行直方图均衡化、中值滤波处理和去除前景孤立点的操作,完成图像预处理;
[0028]
步骤3.3:将预处理后的图像输入训练好的图像特征提取网络,提取并融合图像不同维度的特征,得到特征图;
[0029]
步骤3.4:将特征图输入卷积层,基于文本框从小到大,产生不同的文本预测结果,使用基于psenet的渐进尺度扩展方法解决分离相邻文本的问题,得到输入图片的预测的文字检测结果;
[0030]
步骤3.5:对于预测的文字检测结果,通过最小矩形区域去除无关的文本识别框;
[0031]
步骤3.6:输入图片经过编码网络和解码网络后得到最终的识别结果,将结果保存到文件中。
[0032]
优选地,所述步骤3.1中,将图像的上下边界各缩进原长的1/20。
[0033]
优选地,所述步骤3.4包括以下步骤:
[0034]
步骤3.4.1:特征图经过卷积层得到n个从小到大不同的文本预测结果w1,w2,
……
,w
n

[0035]
步骤3.4.2:将最小尺寸的预测结果w1按行或文本块分割为不同的文本区域;
[0036]
步骤3.4.3:使用广度优先算法将w1逐像素扩展到w2,再将新得到的w2继续扩展到w3,以此类推,扩展至w
n
,得到最终的文本检测结果。
[0037]
优选地,所述步骤5包括以下步骤:
[0038]
步骤5.1:对上一帧的识别内容和当前帧的识别内容分别进行分词处理,将一定长度的字符串分割为多个部分得到特征项集合,将各分词中使用频率超过阈值的词和标点符号去除;
[0039]
步骤5.2:将取到的每个特征项运用哈希算法变换为签名值,得到128位hash数字串;
[0040]
步骤5.3:采用tf-idf相似度算法计算每个数字串在文本表示向量中的权值,并利用步骤5.2生成的签名数据,赋予权重后累加,得到128位未降维的simhash值;
[0041]
步骤5.4:将步骤5.3得到的未降维simhash值降维成0和1组成的二进制数,得到simhash签名;
[0042]
步骤5.5:通过比较两个文本签名的汉明距离,得到两个文本的相似度,若相似度超过设定的相似度阈值,则存在相似文本。
[0043]
优选地,所述步骤5.3中,任一特征项的权值计算方法包括以下步骤:
[0044]
步骤5.3.1:计算所述特征项的tf权重tf
n
,表示所述特征项在文本中出现的频率,其中,l表示所有特征的集合,n为l中的任一特征项,n为n特征项出现的次数;
[0045]
步骤5.3.2:计算idf权重,表示所述特征项在两个文本中出现的频次,idf
n
=log(2/(n+1));
[0046]
步骤5.3.3:所述特征项的权重计算公式为w
n
=tf
n
×
idf
n

[0047]
优选地,所述步骤7包括以下步骤:
[0048]
步骤7.1:将当前文本划分为以段落为单位的多个词集;
[0049]
步骤7.2:将划分好的词集与上一帧文本形成映射关系;
[0050]
步骤7.3:将映射比例大于阈值的段落截取出来,保存到文件中;
[0051]
步骤7.4:使用已有的命令删除当前帧识别内容中相似段落的文本,将最终文本交给语音识别模块。
[0052]
一种采用所述的适用于电子助视器的智能手机文本辅助阅读方法的电子助视器,所述的电子助视器包括助视器本体,配合所述助视器的设有一个或多个摄像头,所述助视器外侧设有按键功能区,配合所述摄像头和按键功能区的助视器内设有控制器:
[0053]
所述控制器包括:
[0054]
一图像预处理单元,对摄像头采集的图像进行预处理;
[0055]
一存储单元,对采集的图像进行缓存,将文字识别后的内容保存到文件中;
[0056]
一手势识别单元,用于检测用户操作手势;
[0057]
一ocr单元,用于文字检测和文字识别;
[0058]
一文本相似度检测单元,用于当前文字识别文本和上一文字识别文本的相似度情况;
[0059]
一语音播放单元,用于将处理后的最终文本识别内容转化为语音播放。
[0060]
本发明提供了一种优化的电子助视器及其适用的智能手机文本辅助阅读方法,以训练好的视频手势识别网络检测手势,当未识别到手势时抓拍一帧图像并保存在本地,对图像进行预处理,用训练好的分类器对文本进行特征提取,得到文本的检测识别结果,将检测识别结果保存至文件;根据首帧标识符判断是否为第一帧图像的文字的识别文本,是则将文本输出至语音播放模块进行播放,否则以该文本为当前帧的识别文本,与上一帧的识别文本进行相似文本识别,若不相似,则丢弃当前帧和识别后包含检测识别结果的文本,语音提示用户适当向上滑动,否则去除当前帧识别文本内容中包含的相似文本内容,将最终的文件传给语音播放模块;基于是否收到电子助视器的关闭信息进行程序的关闭或反复。
[0061]
本发明的有益效果在于:
[0062]
(1)使用机器学习的方法对手势进行识别,检测识别速度较快,在复杂使用环境下有较好的识别精度,能识别绝大多数操作智能手机的手势,对不同手机的适配度高;
[0063]
(2)提供缓存操作,可以将采集的图片和文字识别后的文本内容保存,保留了各文本间的时间相关性;
[0064]
(3)在智能手机不支持无障碍模式的情况下,能对文本进行检测分析,去除与文本无关的文字,例如智能手机状态栏、评论以及评论框等,有较高的识别效率和准确率;
[0065]
(4)提供相关性,如时间相关性文本的相似度检测,将当前文本和上一相邻文本进行内容相关性分析,若相似,则删除当前文本内与上一相邻文本的重复文本内容,否则判定由于用户滑动过多导致相邻文本内容衔接不上,反馈上划调整直至上下文衔接,这使视障用户在阅读文本时不需要重复收听相同的内容和阅读失去中间一部分的残缺文本,提高了文本阅读的连贯性,解决了视障用户使用智能手机时遇到文本“阅读”逻辑混乱、内容不连贯、文本内容中夹杂过多无用信息的问题。
[0066]
本发明通过文本识别技术结合文本相似度检测技术来进行多帧文本图像的操作,使得低视力人群在手机使用场景下能通过电子助视器实现文本的流畅阅读,极大改善了视障用户在使用智能手机时的文本阅读体验,一定程度上解决了手机应用在不支持无障碍模式下的文本阅读问题,亦可在用户自行选择下、在支持无障碍模式条件下对文本进行识别播报,使视障用户可以从繁忙操作中解放出来,改善文本阅读体验,提高阅读效率。
附图说明
[0067]
图1为本发明的流程图;
[0068]
图2为本发明的助视器在使用过程中的示意图。
具体实施方式
[0069]
下面结合实施例对本发明做进一步的详细描述,但本发明的保护范围并不限于此。
[0070]
本发明涉及一种适用于电子助视器的智能手机文本辅助阅读方法,实时识别用户
当前操作智能手机的手势,以此为依据判断用户是正在进行手机操作还是等待语音播报文本内容。通过机器学习和图像处理的方法对采集的图像进行文字检测和识别,将识别内容交由后续文本相似度检测模块,若相似,则删除当前文本内与上一相邻文本的重复文本内容;若不相似,则由于用户滑动过多导致相邻文本内容衔接不上,反馈上划调整直至上下文衔接,最终交由语音播放模块进行播放,使视障用户的智能手机文本阅读连贯性更好。
[0071]
所述方法包括以下步骤。
[0072]
步骤1:启动电子助视器,初始化首帧标识符。
[0073]
所述步骤1中,所述首帧标识符用于识别当前是否已经保存有一帧图像,若为首帧则直接识别播放,否则进行相似度判断。
[0074]
本发明中,首帧标识符用来标识在这一刻之前,有没有图像被抓拍(当前是否已经保存有一帧图像),以此确认当前帧是否为第一帧,若是第一帧,则标识为0,表示没有重复的在先内容,可以直接识别播放,当不是第一帧时,则此时的则标识应该为1,存在之前有文本被识别了的可能性,故需要进行相似度判断。
[0075]
本发明中,当用户阅读新文本时,可以手动重置标识符为0。
[0076]
步骤2:用训练好的视频手势识别网络检测手势,当未识别到手势时进入步骤3,否则重复步骤2。
[0077]
所述步骤2包括以下步骤:
[0078]
步骤2.1:对摄像头拍摄到的rgb视频使用光流法提取特征,检测移动对象,通过比较相邻帧之间的运动变化分离移动的物体和背景,得到光流信息数据流;
[0079]
步骤2.2:使用基于聚类的关键帧提取方法,获取视频关键帧;
[0080]
步骤2.3:将步骤2.1得到的光流信息数据流,即是指分离物体和背景后的数据流,和步骤2.2得到的关键帧的rgb图像数据流输入训练好的手势识别网络中,检测是否有手势出现,以此来判断用户是选择手机自带的无障碍功能还是使用电子助视器来阅读文本,当未识别到手势时,则为使用电子助视器,进入步骤3,否则重复步骤2。
[0081]
本发明中,针对电子助视器的使用原理和智能手机这种连贯性的操作场景,选用视频手势识别的方式可以增加识别的实时性,当未检测到手势时,说明用户当前操作结束、可以进行抓拍,若检测到手势,说明用户正在操作手机,所以需要重复、继续判定;其中相关手势包括但不限于触摸音量键或开关机键的手势、智能手机在握持下的双手操作手势、智能手机摆放桌面的单手操作手势。
[0082]
本发明中,步骤2.2的基于聚类的关键帧提取方法一般预设一阈值,该值为0.9。
[0083]
步骤3:抓拍一帧图像并保存在本地,对图像进行预处理,用训练好的分类器对文本进行特征提取,得到文本的检测识别结果,将检测识别结果保存至文件。
[0084]
所述步骤3包括以下步骤:
[0085]
步骤3.1:抓拍一帧图像并保存在本地,将所述图像进行上下边界裁剪;
[0086]
所述步骤3.1中,将图像的上下边界各缩进原长的1/20。
[0087]
步骤3.2:将裁剪后的图像依次进行直方图均衡化、中值滤波处理和去除前景孤立点的操作,完成图像预处理;
[0088]
步骤3.3:将预处理后的图像输入训练好的图像特征提取网络,提取并融合图像不同维度的特征,得到特征图;
[0089]
步骤3.4:将特征图输入卷积层,基于文本框从小到大,产生不同的文本预测结果,使用基于psenet的渐进尺度扩展方法解决分离相邻文本的问题,得到输入图片的预测的文字检测结果;
[0090]
所述步骤3.4包括以下步骤:
[0091]
步骤3.4.1:特征图经过卷积层得到n个从小到大不同的文本预测结果w1,w2,
……
,w
n

[0092]
步骤3.4.2:将最小尺寸的预测结果w1按行或文本块分割为不同的文本区域;
[0093]
步骤3.4.3:使用广度优先算法将w1逐像素扩展到w2,再将新得到的w2继续扩展到w3,以此类推,扩展至w
n
,得到最终的文本检测结果。
[0094]
步骤3.5:对于预测的文字检测结果,通过最小矩形区域去除无关的文本识别框;
[0095]
步骤3.6:输入图片经过编码网络和解码网络后得到最终的识别结果,将结果保存到文件中。
[0096]
本发明中,步骤3.1中,图像一般以时间戳为名进行保存,便于确认时间的先后顺序;同时,上下边界的裁剪是为了截去手机图像的状态栏和最下方可能出现的评论框,避免手机状态栏和评论框重复识别,多次语音播报,便于后续的实际文本操作。
[0097]
本发明中,步骤3.2中,摄像头采集图像由于使用场景的光照强度、温度等会引入一定的噪声和对比度不明显的问题,直方图均衡化能使图像获得较好的对比度,图像具有更丰富的特征,而中值滤波使图像去除一些无用的信息同时保留边缘信息不被破坏,完成后,图像增强并去噪。
[0098]
本发明中,步骤3.4中,“文本框从小到大”的尺寸是指文本检测的文本框大小,n大于0。
[0099]
本发明中,步骤3.5中,最小矩形区域是指根据使用场景,能够被纳入文字识别对的文本框最小的尺寸,以长和宽都有最小值为例,小于最小值的文本识别框都是无关数据,可以去除;一般来说,最小区域矩形框的长为图像长的1/20,宽为图像原宽的3/14,目的是过滤掉评论、相关推荐等与文本内容无关的部分。
[0100]
本发明中,步骤3.6之前的部分是文字检测部分,将存在文字的区域以矩形框的形式框出内容,随后在步骤3.6将矩形区域框内的内容进行识别。
[0101]
步骤4:根据首帧标识符判断是否为第一帧图像的文字的识别文本,若是,则将文本输出至语音播放模块进行播放,执行步骤8,否则,以该文本为当前帧的识别文本,进行步骤5。
[0102]
步骤5:将当前帧的识别文本和上一帧的识别文本进行相似文本识别,若不相似,则执行步骤6,否则执行步骤7。
[0103]
所述步骤5包括以下步骤:
[0104]
步骤5.1:对上一帧的识别内容和当前帧的识别内容分别进行分词处理,将一定长度的字符串分割为多个部分得到特征项集合,将各分词中使用频率超过阈值的词和标点符号去除;
[0105]
步骤5.2:将取到的每个特征项运用哈希算法变换为签名值,得到128位hash数字串;
[0106]
步骤5.3:采用tf-idf相似度算法计算每个数字串在文本表示向量中的权值,并利
用步骤5.2生成的签名数据,赋予权重后累加,得到128位未降维的simhash值;
[0107]
所述步骤5.3中,任一特征项的权值计算方法包括以下步骤:
[0108]
步骤5.3.1:计算所述特征项的tf权重tf
n
,表示所述特征项在文本中出现的频率,其中,l表示所有特征的集合,n为l中的任一特征项,n为n特征项出现的次数;
[0109]
步骤5.3.2:计算idf权重,表示所述特征项在两个文本中出现的频次,idf
n
=log(2/(n+1));
[0110]
步骤5.3.3:所述特征项的权重计算公式为w
n
=tf
n
×
idf
n

[0111]
步骤5.4:将步骤5.3得到的未降维simhash值降维成0和1组成的二进制数,得到simhash签名;
[0112]
步骤5.5:通过比较两个文本签名的汉明距离,得到两个文本的相似度,若相似度超过设定的相似度阈值,则存在相似文本。
[0113]
本发明中,所述步骤5.1中,以并行切分方法为分词方法,对文档的切分速度比较快。将各分词中使用频率超过阈值的词和标点符号去除,比如人们常在文本中使用“我们”、“在”、“了”、“呢”等词,这些属于文本中使用频率很高的词,在文本相似度检测中会造成干扰,需要将其去除,也就是日常生活中频繁使用的词;此处的阈值可以由本领域技术人员自行设置。
[0114]
本发明中,步骤5的整体过程为对每个词计算其哈希值,如{1,1,1,0,0,
……
,1},将0转变为-1,1保持不变,得到{1,1,1,-1,-1,
……
,1},从而词转变为128位数字串,对于不同序列值进行加权相加,合并成如{1,-2,3,-4,5,
……
,-128}的数字串,根据正负号进行降维,正数置1,非正数置0。
[0115]
本发明中,步骤5.5中的n大于等于0。
[0116]
本发明中,步骤5.5中,汉明距离的区分阈值一般设置为3。
[0117]
步骤6:丢弃当前帧和识别后包含检测识别结果的文本,语音提示用户适当向上滑动,返回步骤2。
[0118]
本发明中,步骤5对文本进行相似度检测后,不相似则表示有可能是用户滑动智能手机过快,导致两个文本之间缺失了一部分文本,造成上下文本不连续,所以需要以步骤6提示上划,适当向上滑动调整后可以使两文本有一定的相交,即肯定不会跳页。
[0119]
步骤7:去除当前帧识别文本内容中包含的相似文本内容,将最终的文件传给语音播放模块。
[0120]
所述步骤7包括以下步骤:
[0121]
步骤7.1:将当前文本划分为以段落为单位的多个词集;
[0122]
步骤7.2:将划分好的词集与上一帧文本形成映射关系;
[0123]
步骤7.3:将映射比例大于阈值的段落截取出来,保存到文件中;
[0124]
步骤7.4:使用已有的命令删除当前帧识别内容中相似段落的文本,将最终文本交给语音识别模块。
[0125]
本发明中,步骤7.2使用md5映射待查询段落和对照文本。
[0126]
本发明中,文本具有映射的词的集合为in={in1,in2,in3,...,in
k
},不具有映射的词的集合nin={nin1,nin2,nin3,...,nin
k
},其中in
k
,nin
k
分别表示有序映射集合中第k
个词在有序词集中的位置;步骤7.3中,映射比例计算公式为分子是所有映射词个数的累加,整个式子代表具有映射关系的词在所有个词里面的比例。一般来说,r的阈值为0.8。
[0127]
本发明中,步骤7.4中已有的命令是指linux系统中的comm命令。
[0128]
步骤8:若收到电子助视器的关闭信息,则程序关闭,否则语音提示当前已播放完毕并提示用户继续滑动页面,返回步骤2。
[0129]
本发明还涉及一种采用所述的适用于电子助视器的智能手机文本辅助阅读方法的电子助视器,所述的电子助视器包括助视器1本体,配合所述助视器的设有一个或多个摄像头2,所述助视器1外侧设有按键功能区(图中未示出,为常规按键结构),配合所述摄像头2和按键功能区的助视器1内设有控制器:
[0130]
所述控制器包括:
[0131]
一图像预处理单元,对摄像头2采集的图像进行预处理;
[0132]
一存储单元,对采集的图像进行缓存,将文字识别后的内容保存到文件中;
[0133]
一手势识别单元,用于检测用户操作手势;
[0134]
一ocr单元,用于文字检测和文字识别;
[0135]
一文本相似度检测单元,用于当前文字识别文本和上一文字识别文本的相似度情况;
[0136]
一语音播放单元,用于将处理后的最终文本识别内容转化为语音播放。
[0137]
本发明中,在智能手机使用场景下,电子助视器1在保证清楚拍摄的前提下通过降低采集图像的分辨率至720p来实现低功耗,延长电子助视器1的续航时间,也降低系统处理视频流的数据量,提升实时性。
[0138]
本发明中,现有的电子助视器1可以设置多个摄像头2,如包括前置摄像头和后置摄像头2,在非运动场景下,仅使用一个摄像头2,如后置摄像头2采集文本图像即可。
[0139]
本发明中,电子助视器1需要垂直桌面放置且与智能手机3间保持适当距离,使用范围适用于但不局限于智能手机3,纸质文档也可使用电子助视器1识别文本。
[0140]
本发明中,如图2所示为本发明的助视器1在使用过程中的示意图,以摄像头2对智能手机3进行拍摄,获得摄像头3的取景框4,对智能手机3的最小区域矩形框5的评论、相关推荐等与文本内容无关的部分进行过滤后执行辅助阅读。
[0141]
本发明运用图像处理和机器学习的方法能实时识别用户的手势操作。检测速度较快,且能适用于多种复杂环境,对不同型号的智能手机均有较高的识别精度,提前训练的识别网络能识别多种对智能手机进行操作的手势,具有较好的鲁棒性。
[0142]
本发明中,文字检测和文本相似度检测两个模块组合使用,对智能手机不支持无障碍的情况下,分别对文本内容进行检测和文本的相似度检测,并通过语音播放模块进行播报,其中文字检测将非文本内容的无关文字去除,将处理后的识别文本内容交给文本检测模块,保证文本内容的准确性。随后通过相似性分析,若相似,则去除当前识别文本内包含上一识别文本中的重复内容,若不相似,则由于用户滑动过多导致相邻文本内容衔接不上,反馈上划调整直至上下文衔接;可以让视障用户准确的“阅读”文本,也可避免重复听取相似的文本内容,造成文本识别后语音播放的逻辑混乱,提高视障用户“阅读”文本的连贯
性,解决了视障用户使用智能手机时遇到文本阅读逻辑混乱、内容不连贯、文本内容中夹杂过多无用信息的问题。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1