用于获得与创伤相关的数据的系统和方法与流程

文档序号:22439128发布日期:2020-10-02 10:36阅读:212来源:国知局
用于获得与创伤相关的数据的系统和方法与流程

本发明涉及一种用于获得与创伤相关的数据(特别是用于评估该创伤的创伤影像)的系统和方法。



背景技术:

以下对于本发明背景的讨论仅旨在促进对本发明的理解。应当理解的是,该讨论并非承认或认可所提及的任何材料在本发明的优先权日之前已在任何管辖范围中被公开、已知或是本领域技术人员的公知常识的一部分。

尽管医疗技术的进步已帮助为多种类型的创伤带来了新的治疗方式,但对准确且客观地评估创伤仍存在大量未满足的需求。在创伤愈合过程期间客观地评估创伤是确定治疗途径的有效性的基础,并且对于选择最佳治疗方案而言是至关重要的。

但是,在临床环境中,这种评估通常是不准确的、主观的且是不一致的。这是因为常规的创伤评估通常基于定性和主观的视觉评估,该评估缺乏整体、客观且一致的测量值。特别地,在长期需要对创伤进行重新评估以评估创伤愈合进展的情况下,视觉评估的不一致性对于准确评估创伤愈合进展而言是个问题。

此外,即使技术进步已经改善了对创伤的评估,当前技术仍然缺乏可靠性和一致性,以便在没有人为干预(尤其是经验丰富的医务人员的干预)的情况下自动评估创伤。这部分是由于与患者的身体和患者所处的周围环境有关的信息会影响对创伤进行的评估。例如,如果患者的肤色与创伤的颜色相似,则基于创伤影像对创伤进行的评估就可能是不准确的。

鉴于上述情况,需要寻求一种用于获得与创伤相关的数据的系统和方法,该系统和方法减轻或克服了上述缺点。



技术实现要素:

本发明试图提供一种至少部分地解决了上述需求的系统和方法。

在整个专利说明书中,除非上下文另有要求,否则词语“包括”或诸如“包含”或“含有”之类的变型将被理解为暗示包括所述整数或整数组,但并不排除任何其他整数或整数组。

此外,在整个专利说明书中,除非上下文另有要求,否则词语“包括”或诸如“包含”或“含有”之类的变型将理解为暗示包括所述整数或整数组,但并不排除任何其他整数或整数组。

提供呈用于获得与创伤相关的数据的系统和方法的形式的技术方案。特别地,数据包括创伤影像、诸如大小、颜色、位置和温度之类的信息以及与创伤相关的临床信息中的至少一种。

在一些实施例中,该系统适合于获得呈一个或多个创伤影像的形式的数据。该系统还包括:信息系统,其可操作以存储与创伤有关的信息;至少一个传感器,其可操作以感测创伤;以及装置,其可操作以控制传感器,从传感器获得感测数据并基于感测数据显示与创伤相关的数据,其中,与创伤有关的信息被用于控制传感器以获得创伤的特征的感测数据。

本发明试图通过利用机器智能和可被实时远程定位的经验丰富的医务人员的帮助获得与创伤相关的准确而适当的数据来提高创伤评估的准确性和效率。特别地,机器智能可包括基于监督或无监督学习模型的一种或多种学习算法。

本发明进一步寻求缩短在创伤评估期间创伤暴露的时间。

根据本发明的一个方面,提供了一种用于获得与创伤相关的数据的系统,该系统包括:信息系统,其可操作以存储与创伤有关的信息;至少一个传感器,其可操作以感测创伤;以及装置,其可操作以控制传感器,从传感器获得感测数据并基于感测数据显示与创伤相关的数据,其中,与创伤有关的信息被用于控制传感器以获得创伤的特征的感测数据。

优选地,该装置可操作以使用与创伤有关的信息来设定感测参数以操作该传感器。

优选地,数据包括创伤影像、诸如大小、颜色、位置和温度之类的信息以及与创伤相关的临床信息中的至少一种。

优选地,该装置可操作以使用与创伤有关的信息和感测数据来生成创伤的交互信息,并利用创伤影像显示交互信息。

优选地,该装置可操作以从第一用户接收关于创伤影像或交互信息的第一输入,并且基于第一输入来修改或添加交互信息。

优选地,该系统还包括远程装置,该远程装置可操作以接收经修改或添加的交互信息,从第二用户接收关于创伤影像或接收到的交互信息的第二输入,并且基于第二输入修改或添加接收到的交互信息。

优选地,基于第二输入的经修改或添加的交互信息被存储在信息系统上以供将来使用。

优选地,第一输入和第二输入包括触摸输入、键盘输入、手势输入和语音输入中的至少一种。

优选地,该装置可操作以使用由至少一个3d成像传感器获得的3d信息来生成3d重构信息,并利用创伤影像、解剖学影像和交互信息中的至少一种显示3d重构信息。

优选地,该装置可操作以基于用户的输入来切换交互信息和创伤影像中的至少一种。

优选地,该装置可操作以便以混合现实格式显示叠加在创伤影像上的交互信息。

优选地,该装置可操作以在创伤影像的旁边显示交互信息。

优选地,该装置可操作以显示创伤的历史趋势。

优选地,前一创伤影像与当前的创伤影像叠加。

优选地,交互信息包括机器智能生成的建议。

优选地,这些建议包括对于创伤的描述和用于创伤的医疗用品信息。

优选地,信息系统包括本地数据库和远程数据库中的至少一种。

优选地,存储在信息系统上的信息包括以下信息中的至少一种:创伤信息、患者信息、环境信息、药物产品信息以及用于机器智能的算法。

优选地,传感器被安装在该装置中。

优选地,该装置包括第一装置和第二装置,该传感器被安装在第一装置中,第一装置可操作以使用与创伤有关的信息来控制传感器,并且第二装置可操作以从第一装置获得感测数据,基于感测数据显示与创伤相关的数据,使用与创伤有关的信息和感测数据生成创伤的交互信息,并显示交互信息及与创伤相关的数据。

根据本发明的另一方面,提供一种用于获得与创伤相关的数据的方法,该方法包括:在信息系统中存储与创伤有关的信息;在信息系统中存储与创伤有关的信息;通过至少一个传感器感测创伤;通过装置控制传感器;在该装置处,从传感器获得感测数据;以及在该装置上基于感测数据显示与创伤相关的数据,其中,与创伤有关的信息被用于控制传感器以获得创伤特征的感测数据。

优选地,该方法还包括以下步骤:通过该装置使用与创伤有关的信息来设定感测参数以操作该传感器。

优选地,数据包括创伤影像、诸如大小、颜色、位置和温度之类的信息以及与创伤相关的临床信息中的至少一种。

优选地,该方法还包括以下步骤:通过该装置使用与创伤有关的信息和感测数据来生成创伤的交互信息;以及在该装置上利用创伤影像显示交互信息。

优选地,该方法还包括以下步骤:通过该装置从第一用户接收关于创伤影像或交互信息的第一输入;以及通过该装置基于第一输入来修改或添加交互信息。

优选地,该方法还包括以下步骤:在远程装置处接收经修改或添加的交互信息;在远程装置处,从第二用户接收关于创伤影像或接收到的交互信息的第二输入;以及通过远程装置基于第二输入修改或添加接收到的交互信息。

优选地,基于第二输入的经修改或添加的交互信息被存储在信息系统上以供将来使用。

优选地,第一输入和第二输入包括触摸输入、键盘输入、手势输入和语音输入中的至少一种。

优选地,该装置可操作以使用由至少一个3d成像传感器获得的3d信息来生成3d重构信息,并利用创伤影像、解剖学影像和交互信息中的至少一种显示3d重构信息。

优选地,该装置可操作以基于用户的输入来切换交互信息和创伤影像中的至少一种。

优选地,该装置可操作以便以混合现实格式显示叠加在创伤影像上的交互信息。

优选地,该装置可操作以在创伤影像的旁边显示交互信息。

优选地,该装置可操作以显示创伤的历史趋势。

优选地,前一创伤影像与当前的创伤影像叠加。

优选地,交互信息包括机器智能生成的建议。

优选地,这些建议包括对于创伤的描述和用于创伤的医疗用品信息。

优选地,信息系统包括本地数据库和远程数据库中的至少一种。

优选地,存储在信息系统上的信息包括以下信息中的至少一种:创伤信息、患者信息、环境信息、药物产品信息以及用于机器智能的算法。

优选地,该传感器被安装在该装置中。

优选地,该装置包括第一装置和第二装置,该传感器被安装在第一装置中,第一装置可操作以使用与创伤有关的信息来控制传感器,并且第二装置可操作以从第一装置获得感测数据,基于感测数据显示与创伤相关的数据,使用与创伤有关的信息和感测数据生成创伤的交互信息,并显示交互信息及与创伤相关的数据。

一旦结合附图阅读了对于本发明的特定实施例进行的下列描述,本发明的其他方面对于本领域技术人员就将变得显而易见。

附图说明

现在将参考附图仅作为示例来描述本发明,其中:

图1示出了根据本发明的实施例的信息系统、装置和远程装置的框图。

图2示出了根据本发明的实施例的信息系统、装置和远程装置的流程图。

图3示出了根据本发明的另一实施例的信息系统、第一装置、第二装置和远程装置的框图。

图4示出了根据本发明的另一实施例的信息系统、第一装置、第二装置和远程装置的流程图。

图5至图7示出了根据本发明的多个实施例的显示伤口影像和/或交互信息的示例。

图8和图9示出了根据本发明的多个实施例的修改交互信息的示例。

图10至图14示出了根据本发明的多个实施例的示出了3d重构信息的界面的示例。

图15至图19示出了根据本发明的多个实施例的处于交互模式中的界面的示例。

本发明的其他布置结构是可能的,并且因此,附图将不被理解为取代本发明的前述描述的概括。

具体实施方式

图1示出了根据本发明的实施例的信息系统、装置和远程装置的框图。应当理解的是,该创伤可包括但不限于伤口、挫伤、擦伤、骨折和/或前述创伤中的两种或更多种的组合。

根据本发明的实施例,存在一种用于获得与创伤相关的数据的系统。数据可以呈例如创伤影像(例如伤口影像)的形式。该系统包括信息系统100和至少一个装置200。该系统可还包括至少一个远程装置300。

在一些实施例中,信息系统100可包括装置本身上的本地数据库,例如装置200、远程装置300或其他装置上的本地数据库。作为选择,信息系统100可以是与装置200位于同一位置处并且通过局域网连接的本地服务器。在一些实施例中,信息系统100可以是通过互联网通信或任何其他类型的通信连接到装置200或远程装置300的远程服务器或云服务器。

信息系统100包括提供不同功能的至少一个数据库或各自提供特定功能的多个数据库。例如,信息系统100可包括创伤数据库110(例如伤口模型数据库)、患者信息数据库120、产品数据库130和算法数据库140。因此,信息系统100存储关于一个或多个患者和环境的特定和整体信息,该环境用以提供用于获得伤口影像以进行特定伤口评估的背景环境。

伤口模型数据库110包含伤口的物理属性(例如大小、颜色、影像、位置和温度)以及临床信息(例如疾病清单和关联信息)。

患者信息数据库120包括与患者有关的以下数据中的至少一种:-患者健康状况的历史数据、与过敏相关的信息、病史、用药史、生命体征、身体属性、温度、皮肤状况、与解剖学有关的信息(例如人体图)和患者身体的3d模型。患者信息数据库120可还包括患者的环境信息,例如患者所在房间的状况、房间地图以及与诸如家具之类的物体有关的信息和/或模型。房间状况可包括但不限于照明、温度和湿度,并且关于家具的信息和/或模型可包括但不限于床、椅子和桌子信息。

应当理解的是,可以周期性地或非周期性地(例如,按照需要)更新患者信息数据库120。例如,患者信息数据库120可以实时的方式更新患者的生命体征。可以通过装置200、远程装置300或诸如生命体征感测装置之类的其他装置来感测患者的生命体征。作为选择,患者的生命体征可以由用户手动地输入。作为选择,生命体征信息可以从其他数据库(例如存储患者生命体征的历史数据的电子医疗记录)获得。

产品数据库130包含产品的库存信息、与产品的成本和/或性能有关的信息以及与产品有关的临床信息中的至少一种。产品可包括但不限于医疗用品。

算法数据库140包含数据处理算法、用于软件和/或硬件部件的控制算法、伤口评估工具和/或算法以及分析算法中的至少一种。数据处理算法可包括影像处理算法。

基于与患者和环境有关的信息,利用算法来调整和调节待用于感测的感测参数。为了基于信息对创伤进行3d测量和彩色影像处理,选择并利用特定的影像处理算法。

这些算法用于确定创伤的评估方法。每种算法都用于评估相应的创伤。例如,“算法a”用于基于患者信息、病史和/或创伤信息来评估特定类型的“创伤a”。

基于与患者有关的信息、传感器数据、由机器智能或用户输入完成的评估以及医疗产品信息,将这些算法用于提供与干预措施和管理创伤所使用的药物有关的建议。

信息系统100包括至少一个控制器(未示出)。该控制器可包括人工智能(ai)模块。控制器可被布置为与算法数据库140进行信号/数据通信,以便利用一种或多种算法来生成与伤口相关的信息。

该系统可还包括应用提供者(未示出)。应用提供者向与所描述的发明有关的至少一个装置提供应用或服务。该应用可安装在至少一个装置上。应用提供者可包括应用服务器和应用数据库中的至少一者。该应用提供者可相对于信息系统100远程定位或独立于该信息系统100定位。在一些实施例中,该应用提供者可以是信息系统100。可以在装置200和远程装置300中的至少一个上执行该应用。

至少一个装置(例如装置200和远程装置300)可以彼此通信并且可以与信息系统100通信。如图1中所示,装置200可处于患者的位置,并且远程装置300可处于远程位置。如图1中所示,可以理解的是,装置200和远程装置300可包括但不限于以下装置:诸如移动电话和平板电脑之类的移动装置、头戴式装置、机器人平台、膝上型电脑和计算机。

至少一个传感器(未示出)可用于感测创伤,例如感测伤口以用于测量伤口的特性。装置200控制传感器并从传感器获得感测数据。信息系统100中存储的与伤口有关的信息用于控制传感器以获得伤口属性的感测数据。

因此,装置200能够获得与伤口相关的数据,例如集中于诸如伤口的面积和颜色之类的特征的成像信息。伤口的特征可以包括但不限于伤口的所关注的特征。例如,如果伤口的左侧恢复缓慢,则装置200可控制传感器更为详细地获得伤口左侧的或关于左侧的感测数据。作为另一示例,如果患者的皮肤颜色类似于伤口的颜色,则装置200可以控制传感器以获得具有更多颜色的感测数据。

传感器可以包括但不限于2d成像传感器和3d成像传感器。传感器可被附接或安装到装置200。应当理解的是,可以利用装置200的摄像头或红外传感器来感测伤口。将会理解的是,可以单独地或组合地使用其他传感器或感测模式(例如生化传感器、温度传感器和超声传感器),以感测伤口的存在及伤口的特性。

作为选择,传感器可以是外部的并且并不附接或安装至装置200。例如,传感器可被附接至用户(例如患者、临床医生和非临床医生)的身体。对于另一示例,传感器可被附接到或安装在机器人机构中或诸如床或支架之类的环境中。

图2示出了根据本发明的实施例的信息系统、装置和远程装置的流程图。

存在一种用于伤口评估的系统,该系统包括信息系统100和至少一个装置200。该系统可以还包括至少一个远程装置300。装置200包括用于感测诸如伤口之类的创伤的至少一个传感器。装置200可以处于患者的位置,而远程装置300可以处于远程位置。

应当理解的是,用户可包括临床医生和非临床医生,例如护理人员、患者的家庭成员、患者本人或需要使用装置200或远程装置300来帮助评估伤口状况的任何其他人。例如,在患者的位置处可能有包括患者在内的非临床医生,而在远程位置可能会有临床医生。对于另一示例,在患者的位置有临床医生和包括患者在内的非临床医生,而在远程位置有临床医生。虽然临床医生和非临床医生可以使用装置200来帮助获得患者部位的伤口的状况,但是临床医生可根据远程位置处的临床协议来评估伤口状况。

首先,信息系统100发送与诸如伤口之类的创伤有关的信息(s110)。如上所述,信息系统100存储与伤口有关的信息。如上所述,该信息包括以下信息中的至少一个:伤口信息、患者信息、环境信息、伤口药物产品信息以及用于实现机器智能的算法,例如影像处理算法、模式识别算法、学习算法、控制算法、创伤评估算法等。装置200从信息系统100接收与伤口有关的信息。应当理解的是,装置200可通过互联网通信、蓝牙(bluetoothtm)通信、近场通信(nfc)、局域网通信等中的至少一种从信息系统100接收信息。

装置200使用信息来控制传感器(s120)。装置200可操作以使用该信息来设定感测参数,从而操作传感器。基于与患者、环境或创伤有关的信息,利用算法来调整和调节待用于感测的感测参数。例如,基于患者的身体属性、环境和创伤类型(例如伤口类型),装置200的控制器可选定一个或多个传感器以用于捕获伤口的特定属性以及待用于感测的感测参数。在一些实施例中,机器可控机构可被附接到一个或多个传感器。在这种情况下,基于与患者、环境和创伤有关的信息,可设定控制参数以控制附接于用于感测的机构的传感器。

为了基于该信息对创伤进行3d测量和彩色影像处理,使用了特定的影像处理算法。如果存在多个传感器,则装置200可基于该信息来控制多个传感器中的至少一个传感器。此后,传感器可操作以基于感测参数(特别是伤口的特性)来感测伤口,以测量伤口的特性(s130)。

装置200可获得或接收感测数据(s140)。如前所述,装置200可从传感器获得或接收伤口特征的感测数据。

装置200可使用与伤口有关的信息和感测数据来生成针对伤口的交互信息(s150)。交互信息可包括从装置200的交互界面提供的机器智能生成的建议。这些建议包括伤口描述和用于伤口的医疗用品(也称为“产品”)的信息。应当理解的是,交互信息可还包括非建议性信息,例如测量参考系。应当理解的是,可以向用户提供呈示出了伤口的测量结果或伤口的3d特征的3d重构信息的形式的交互信息,以帮助用户评估伤口。可基于由传感器驱动的评估和用户输入实时向用户提供呈影像叠加的形式的交互信息,如下所述。

在一些实施例中,装置200显示与伤口相关的数据,例如伤口影像(s160)。数据包括伤口影像、诸如大小、颜色、位置和温度之类的信息以及与伤口相关的临床信息中的至少一项。装置200还利用伤口影像显示交互信息(s170)。在此,装置200可控制与伤口影像有关的交互信息的显示。例如,装置200可操作以基于用户的偏好(例如,用户的输入)来切换交互信息和伤口影像中的至少一个。

在一些实施例中,装置200可操作以显示覆盖在伤口影像上的交互信息。在此,交互信息被显示为彩色影像。在另一实施例中,装置200可操作以在伤口影像的旁边显示交互信息,该交互信息与根据伤口的感测数据对伤口外观进行的描述有关。在这方面,用户能够控制待显示的参考影像。例如,用户能够通过触摸输入、键盘输入、手势输入和语音输入中的至少一种来选择不同组的参考影像。

应当理解的是,装置200可操作以利用从一个或多个3d成像传感器获得的3d信息来生成3d重构信息。装置200还可操作以在虚拟现实模式中显示3d重构信息(例如3d重构影像)。3d重构影像可被投影在纯虚拟的3d环境中。在虚拟现实模式下,用户能够与3d环境中的3d重构影像交互。虚拟现实模式可被用于进行交互操作以增强用户体验。

接下来,装置200从用户(下文中称为“第一用户”)接收关于交互信息或伤口影像的输入(下文中称为“第一输入”)(s180)。在一些实施例中,第一用户可包括非临床医生,例如护理人员、患者的家庭成员、患者本人或任何其他人。在另一实施例中,第一用户可包括临床医生。

之后,装置200可基于第一输入来修改交互信息(s190)。应当理解的是,装置200可删除交互信息或添加新的交互信息。

装置200将经修改或添加的交互信息(下文称为“第一经修改的交互信息”)发送到信息系统100(s200)。信息系统100可存储针对伤口的第一经修改的交互信息。信息系统100可将第一经修改的交互信息发送到远程装置300(s210)。在此,诸如伤口信息、患者信息、环境信息、伤口药物产品信息之类的信息和用于机器智能的算法可被发送到远程装置300。

远程装置300可操作以显示第一经修改的交互信息和/或伤口影像。在此,远程装置300可控制与伤口影像有关的第一经修改的交互信息的显示,例如基于第二用户的偏好来切换交互信息和伤口影像中的至少一个。

远程装置300可操作以便以混合现实格式显示叠加在伤口影像上的第一经修改的交互信息。在此,第一经修改的交互信息被显示为彩色影像。在另一实施例中,远程装置300可操作以便在伤口影像的旁边显示第一经修改的交互信息,该第一经修改的交互信息与根据伤口的感测数据对伤口的外观做出的描述有关。在这方面,用户(下文称为“第二用户”)能够控制待显示的参考影像。例如,第二用户能够通过触摸输入、键盘输入、手势输入和语音输入中的至少一种来选择不同组的参考影像。

在另一实施例中,远程装置300可操作以使用从一个或多个3d成像传感器获得的3d信息来生成3d重构信息。远程装置300还可操作以便以虚拟现实模式显示3d重构信息(例如3d重构影像)。3d重构影像可被投影在纯虚拟的3d环境中。在虚拟现实模式下,用户能够与3d环境中的3d重构影像交互。虚拟现实模式可被用于进行交互操作,以增强用户体验。

接下来,远程装置300从用户接收关于第一经修改的交互信息或伤口影像的输入(下文称为“第二输入”)(s220)。在一些实施例中,第二用户可包括远离患者的临床医生。在另一实施例中,第二用户可包括非临床医生,例如护理人员、患者的家庭成员或远离患者的任何其他人。

此后,远程装置300可基于第二输入来修改第一经修改的交互信息(s230)。应当理解的是,远程装置300可删除第一经修改的交互信息或添加新的交互信息。

远程装置300将经修改或添加的交互信息(下文称为“第二经修改的交互信息”)发送到信息系统100(s240)。信息系统100可将第二经修改的交互信息存储为用于将来分析的信息。

远程装置300的目的是为第二用户(例如,位于远程位置的临床医生)提供一种在远处进行和监视评估而不受位置和距离约束的装置。第二用户可修改由第一用户(例如非临床医生)在远程位置进行的评估。

所描述的本发明使得能够本地地及远程地存储与伤口有关的信息,以便实时或按照需要的格式进行修改和/或评估。

应当理解的是,所描述的本发明可与诸如遥现操控的传感器和其他远程传感器之类的远程医疗基础设施无缝集成,以进行远程通信和评估。

图3和图4分别示出了根据本发明的另一实施例的信息系统、第一装置、第二装置和远程装置的框图和流程图。

如上面参照图1所述,该系统包括信息系统100、至少一个装置200和至少一个远程装置300。装置200包括至少一个第一装置210和至少一个第二装置220。

第一装置210、第二装置220和远程装置300可彼此通信并且可与信息系统100通信。传感器(未示出)被安装在第一装置210中或附接到第一装置210。

如图3中所示,第一装置210可处于患者的位置,而远程装置300可处于远程位置。在一些实施例中,第二装置220可处于患者的位置。作为选择,第二装置220可处于远程位置。可以理解的是,第一装置210、第二装置220和远程装置300可包括但不限于以下装置:诸如移动电话和平板电脑之类的移动装置、头戴装置、机器人平台、膝上型电脑和计算机。

如图4中所示,信息系统100将与诸如伤口之类的创伤有关的信息发送到第二装置220(s110)。第二装置220使用与伤口有关的信息来控制第一装置210(s120)。第二装置220可操作以使用与伤口有关的信息来设定感测参数,从而操作第一装置210,使得第一装置210控制该传感器。此后,第一装置210的传感器可操作以感测该伤口,特别是伤口的特征,从而测量伤口的特征(s130)。第一装置210可获得伤口的特征的感测数据并且基于感测数据显示与伤口相关的数据(例如伤口影像)。数据包括伤口影像、诸如大小、颜色、位置和温度之类的信息以及与伤口相关的临床信息中的至少一种。

第一装置210可将从传感器获得的感测数据发送到第二装置220(s140)。第二装置220可使用该信息和感测数据来生成针对伤口的交互信息(s150)。交互信息可包括从第二装置220的交互界面提供的机器智能生成的建议。应当理解的是,交互信息还可包括非建议性信息,例如测量参考系。

此后,第二装置220显示伤口影像(s160)。第二装置220还利用伤口影像显示交互信息(s170)。在此,第二装置220可控制与伤口影像有关的交互信息的显示。

接下来,第二装置220从用户(下文称为“第一用户”)接收关于交互信息或伤口影像的输入(下文称为“第一输入”)(s180)。此后,第二装置220可基于第一输入来修改交互信息(s190)。应当理解的是,第二装置220可删除交互信息或添加新的交互信息。

第二装置220将经修改或添加的交互信息(下文称为“第一经修改的交互信息”)发送到信息系统100(s200)。信息系统100可存储针对伤口的第一经修改的交互信息。信息系统100可将第一经修改的交互信息发送到远程装置300(s210)。在此,诸如伤口信息、患者信息、环境信息、伤口药物产品信息之类的信息和用于机器智能的算法可被发送到远程装置300。

接下来,远程装置300从用户(下文称为“第二用户”)接收关于第一经修改的交互信息或伤口影像的输入(下文称为“第二输入”)(s220)。此后,远程装置300可基于第二输入来修改第一经修改的交互信息(s230)。应当理解的是,远程装置300可删除第一经修改的交互信息或添加新的交互信息。

远程装置300将经修改或添加的交互信息(下文称为“第二经修改的交互信息”)发送到信息系统100(s240)。信息系统100可将第二经修改的交互信息存储为用于将来分析的信息。

图5至图7示出了根据本发明的多个实施例的在装置200上显示伤口影像和/或交互信息的示例。应当理解的是,图5、图6和图7也可应用于远程装置300。

装置200可操作以从传感器获得感测数据并显示伤口影像201,如图5(a)中所示。装置200还可操作以使用从信息系统100获得的信息和感测数据来生成针对伤口的交互信息。

交互信息可包括从装置200的交互界面提供的机器智能生成的建议。应当理解的是,交互信息还可包括非建议性信息,例如测量参考系。

这些建议包括伤口描述和用于伤口的医疗用品信息。可基于伤口评估结果、医疗用品的库存信息和存储在信息系统100的产品数据库130中的医疗用品的成本-性能中的至少一项来获得待施用的医疗用品的建议。还可基于存储在信息系统100的患者信息数据库120中的患者信息(例如过敏史、用药史和疾病概况)和/或环境信息(例如温度和湿度)来获得待施用的医疗用品的建议。

在一些实施例中,交互信息可被呈影像叠加的形式提供给用户。在这方面,如图5(b)中所示,装置200以混合现实格式显示伤口描述202和叠加在伤口影像201上的针对伤口的医疗用品信息203。尽管未示出,但伤口描述202和用于伤口的医疗用品信息203可被显示为彩色影像。

在另一实施例中,如图5(c)中所示,装置200在伤口影像201的旁边显示伤口描述202和用于伤口的医疗用品信息203,使得伤口影像201并不被任何交互信息覆盖住。

尽管未示出,但是将会理解的是,可在并不位于伤口影像201的旁边或并未叠加在伤口影像201上的另一界面(例如列表)上显示对于伤口的任何描述202和用于伤口3的医疗用品信息20。

在另一实施例中,装置200可控制与伤口影像201有关的交互信息的显示。例如,如图6(a)和图6(b)中所示,装置200可操作以基于用户的偏好(例如用户的输入)切换伤口描述202、用于伤口的医疗用品的信息203和伤口影像201。尽管未示出,但是用户可切换到示出来自临床文献的伤口的参考影像的视图,以用于将当前伤口与参考影像进行比较,使得用户可以更为明智的方式评估伤口的状况。将会理解的是,伤口影像201和参考影像可被共同(例如并排)显示,使得用户可容易地比较当前伤口和参考伤口。

在另一实施例中,第一用户可切换到另一视图,其中将示出伤口的历史趋势。在这方面,装置200可操作以显示伤口的历史趋势。例如,如图7中所示,前一伤口影像210被与当前伤口影像201叠加。尽管未示出,但是装置200可操作以显示多个先前的伤口影像,这些影像具有与伤口的历史趋势有关的描述。在另一实施例中,装置200可操作以显示伤口影像的图表,从而示出伤口状况(例如大小和颜色)的变化。

尽管未示出,但是可以在装置200上显示包括用于测量的3d标记或参考系的其他交互特征。此外,应当理解的是,伤口影像201和交互信息被呈3d界面的形式显示。例如,装置200可操作以使用从一个或多个3d成像传感器获得的3d信息来生成3d重构信息。装置200还可操作以便以虚拟现实模式显示3d重构信息(例如3d重构影像)。3d重构影像可被投影在纯虚拟的3d环境中。在虚拟现实模式下,用户能够与3d环境中的3d重构影像交互。虚拟现实模式可被用于进行交互操作,从而增强用户体验。

图8和图9示出了根据本发明的多个实施例的修改交互信息的示例。

如图8(a)和图(b)中所示,装置200显示具有交互信息的伤口影像201(例如伤口描述202和用于伤口的医疗用品信息203。伤口描述202和用于伤口的医疗用品信息203由装置200生成。尽管未示出,但是应当理解的是,对于伤口的描述202和用于伤口的医疗用品信息203由任何其他装置(例如信息系统100)生成。

如果第一用户认为由装置200生成的交互信息不正确,则第一用户可修改该交互信息。在此,第一用户可包括非临床医生,例如护理人员、患者的家庭成员、患者本人或任何其他人。在另一实施例中,第一用户可包括临床医生。

如图8(c)中所示,装置200从第一用户接收伤口影像201上的输入204(下文称为“第一输入”)。尽管未示出,但是应当理解的是,装置200也可操作以接收关于伤口描述202和/或用于伤口的医疗用品信息203的第一输入204。

第一输入204的目的是修改或添加关于伤口的交互信息。以这种方式,第一用户能够修改由装置200完成的评估。应当理解的是,第一输入204包括触摸输入、键盘输入、手势输入和语音输入中的至少一种。

第一输入204的目的是修改或添加关于伤口的交互信息。以这种方式,第一用户能够修改由装置200完成的评估。应当理解,第一输入204包括触摸输入,键盘输入,手势输入和语音输入中的至少一个。

此后,装置200可基于第一输入204来修改或添加交互信息。如图8(d)中所示,装置200可基于第一输入204重新生成交互信息(下文称为“第一经修改的交互信息”)并显示第一经修改的伤口描述205和第一经修改的医疗用品的信息206。尽管未示出,但是应当理解的是,第一用户可手动地输入第一经修改的伤口描述205和/或第一经修改的医疗用品的信息206,并且装置200可显示这些描述和/或信息。

然后,装置200可将第一经修改的伤口描述205和/或第一经修改的医疗用品信息206发送到信息系统100,使得信息系统100将其提供给远程装置300。

在一些实施例中,如果第一用户认为由装置200生成的交互信息是正确的或者不需要修改该交互信息,则装置200可以向信息系统100发送伤口描述202和用于伤口的医疗用品信息203。作为选择,装置200可以向信息系统100发送指令以通知对交互信息没有修改。

接下来,如图9(a)中所示,远程装置300接收第一经修改的伤口描述205和/或第一经修改的医疗用品信息206,并显示这些描述和/或信息。第一输入204可被利用伤口影像201显示,使得第二用户能够识别第一输入204。

如果第二用户认为由用户修改的第一经修改的交互信息不正确,则第二用户可修改第一经修改的交互信息。在此,第二用户可包括处于远程位置的临床医生。在另一实施例中,第二用户可包括非临床医生,例如护理人员、患者的家庭成员或远程位置处的任何其他人。

如图9(b)中所示,远程装置300从第二用户接收伤口影像201上的输入207(下文称为“第二输入”)。尽管未示出,但是应当理解的是,远程装置300还可操作以接收关于第一经修改的伤口描述205和/或第一经修改的医疗用品信息206的第二输入207。

第二输入的目的是修改或添加关于伤口的第一经修改的交互信息。依此方式,第二用户能够修改由装置200或第一用户完成的评估。应当理解的是,第二输入207包括触摸输入、键盘输入、手势输入和语音输入中的至少一种。

此后,远程装置300可基于第二输入207来修改或添加交互信息。如图9(c)中所示,远程装置300可基于第二输入207重新生成交互信息(下文称为“第二经修改的交互信息”)并显示第二经修改的伤口描述208和第二经修改的医疗用品信息209。尽管未示出,但应该理解的是,第二用户可手动地输入第二经修改的伤口描述208和/或第二经修改的医疗用品信息209,并且远程装置300可以显示它们。

信息系统100可将第二经修改的交互信息存储为用于将来分析的信息。第二经修改的交互信息可被发送到装置200或任何其他患者的装置。

图10至图14示出了根据本发明的多个实施例的示出了3d重构信息的界面的示例。

传感器可包括但不限于2d成像传感器和/或3d成像传感器。在一些实施例中,成像传感器可被附接或安装到装置200。应当理解的是,成像传感器可包括但不限于摄像头和/或红外传感器。

如图10中所示,可显示由2d成像传感器生成的实时预览影像211。2d成像传感器(例如2d摄像头)可捕获诸如伤口之类的创伤的2d影像。可通过使用一个或多个3d成像传感器(例如3d扫描仪、立体摄像头系统或带运动的单色摄像头系统)使用安装在3d成像传感器上的算法获得呈一组数据点(例如点云等)的形式的伤口的3d信息。这些算法可包括视觉同时定位和建图(“visualslam”)算法。此后,在视觉上重构伤口的3d信息。以混合现实或虚拟现实格式显示3d重构信息。

在一些实施例中,如图10中所示,可基于伤口的位置信息在实时预览影像211或捕获的2d影像上显示解剖学影像218。应当理解的是,解剖学影像218可包括整个身体和/或身体的与伤口位置有关的一部分(例如上身)的解剖学影像。例如,伤口位置可以是骶骨。尽管未示出,但是应当理解的是,可通过突出显示解剖学影像218的相应部分来使用解剖学影像218示出伤口的位置。

可以基于用户的偏好或输入以多种取向和/或角度来捕获伤口。可利用实时预览影像211或捕获的2d影像显示示出了该取向和/或角度的注释。例如,如图10中所示,使用解剖学影像218示出患者头部的取向。在一些实施例中,解剖学影像218可被用作与伤口位置有关的指南针。例如,解剖学影像218可被用于基于伤口的位置指示患者头部的相对位置。应当理解的是,可以动态地显示解剖学影像218。例如,如果改变取向和/或角度以捕获伤口,则可以相应地旋转解剖学影像218。还应当理解的是,可以固定的格式(例如,固定的大小、形状、取向和/或位置)显示解剖学影像218。

在一些实施例中,可以显示伤口平面与传感器和/或摄像头之间的估计距离。传感器和/或摄像头可感测与诸如身体的正被捕获的一部分之类的对象的最近平面相距的距离,并且将该距离用作估计距离。例如,如图10中所示,“40cm”被显示为从身体的该平面到传感器和/或摄像头的距离。

解剖学影像218和/或估计距离的显示可以帮助用户以一致的方式(例如相对于患者身体的特定取向且从已知距离)捕获伤口的影像。由于可以从一致的距离捕获一系列影像,因此可以从一致的角度记录这一系列影像。因此,用户可以以一致的方式检查和比较伤口大小的发展情况。

图11示出了混合现实格式的3d重构信息210的示例。从3d成像传感器获得的3d重构信息210可被实时地叠加在实时预览影像211上。用户可随后通过致动(例如通过按压或触摸)一个或多个按钮或图标212而与信息系统100交互,以在选定区域213内捕获伤口的3d重构信息210。在一些实施例中,区域213可由用户的输入选定。在另一实施例中,可在没有用户输入的情况下自动地选定区域213。

在一些实施例中,如图11中所示,可显示辅助信息,例如解剖学影像218和/或目标感测体积的大小。例如,如图11中所示,可在实时预览影像211的底部以一种颜色(例如,白色)显示解剖学影像218。应当理解的是,可根据实时预览影像211的颜色来改变解剖学影像218的颜色。

解剖学影像218可示出人的身体的一部分(例如患者的头部)的取向。例如,如图11中所示,目标感测体积219可被设定为30×30×30cm3。目标感测体积的大小可通过诸如触摸输入和/或语音输入之类的用户输入来调节。触摸输入可包括捏合输入。尽管未示出,但是应当理解的是,如果调整了目标感测体积,则可以使用经调整的感测体积通过3d成像传感器来新近获得3d重构信息210。

图12至图14示出了虚拟现实格式的3d重构信息210的示例。捕获的3d重构信息210可以以虚拟现实格式显示。可以基于用户的偏好或输入来切换多种观看模式。如图12和图13中所示,用户可从多个视点和/或以多种颜色范围来观看3d重构信息210,以检查伤口的结构。

此外,用户可与3d重构信息210交互以执行多种操作,例如获得伤口大小的测量值或读数等。如图14中所示,用户可以通过选择伤口的区域214来测量伤口的周长。信息系统100可通过用户输入基于伤口的选定区域,自动地计算伤口区域的周长和深度。

在一些实施例中,用户可进一步执行操作,例如使用3d重构信息210获得两个选定点之间的长度的测量值或读数。用户可通过选择界面上的特定按钮或图标来设定相应的测量结果,以便更新与伤口属性有关的信息系统100。

图15至图19示出了根据本发明的多个实施例的处于交互模式下的界面的示例,在该交互模式下,用户正在评估创伤的外观。界面可显示伤口属性的信息,例如位置、类别、外观类型、大小和/或气味。在交互模式下,用户可使用从信息系统100获得或接收的交互信息来更为准确地评估创伤(例如伤口)。

图15示出了其中正在准备用于参考信息的窗口216的界面。例如,窗口216可被显示在界面的右上侧上。可基于用户的偏好或输入来改变窗口216的大小和/或位置。

伤口可被根据其外观分为几种类型。当用户在界面上选择伤口外观的类型时,如图16中所示,信息系统100可在捕获的伤口影像215的旁边显示相应的参考信息(例如参考影像217),以向用户示出针对特定类型的伤口的外观。例如,当用户选择“生上皮”作为伤口的外观类型时,显示“生上皮”的参考影像217。该功能可以帮助用户对类型做出更明智的决定。这对于经验不足的用户(例如非临床医生)很有帮助。

当用户选择“形成肉芽”作为外观类型时,如图17中所示,参考影像217被交互地改变。当用户选择“蜕皮”作为外观类型时,如图18中所示,参考影像217被交互地改变。当用户选择“坏死”作为外观类型时,如图19中所示,参考影像217被交互地改变。

应当理解的是,语音指令可被用于所述发明。语音指令的示例如下:

1)感测指令,例如“拍照”、“开始扫描”、“更大区域”、“更小区域”、“更近”、“更远”、“右”、“左”、“上”、“下”等。

2)在不同视图之间进行切换的指令:例如,“示出伤口史”、“示出伤口参考”、“示出3d视图”,“示出伤口属性”等。

3)用于录音和口述功能的指令

本领域技术人员应当理解的是,上述特征的变化和组合(而非替代或替换)可被组合以形成落入本发明的预期范围内的其他实施例。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1