人脸图像处理方法、装置、设备和存储介质与流程

文档序号:19741438发布日期:2020-01-18 05:16阅读:125来源:国知局
人脸图像处理方法、装置、设备和存储介质与流程

本发明实施例涉及计算机技术领域,尤其涉及一种人脸图像处理方法、装置、设备和存储介质。



背景技术:

随着物联网的发展,人们对服务器的响应速度的要求越来越高。在人脸技术领域,用户可以通过部署了人脸算法的图形处理服务器完成一系列人脸图像的处理操作,该图像处理服务器中集成了图形处理器(graphicsprocessingunit,gpu),可简称为gpu服务器。并且通过将人脸库上传到gpu服务器中可以更快地实现对人脸图像的操作响应。

通常,对于多个人脸业务请求,gpu服务器需要进行依次处理。如果多个人脸图像处理场景下共用一个gpu服务器中的人脸库时,会造成业务请求处理速度慢。



技术实现要素:

本发明实施例提供一种人脸图像处理方法、装置、设备和存储介质,以提高人脸图像处理的效率以及图像处理任务的执行成功率。

第一方面,本发明实施例提供了一种人脸图像处理方法,包括:

获取图像处理任务指令;

根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位,其中,每个库位中包括至少一个gpu设备;

将所述图像处理任务指令发送至所述目标库位,以使得所述目标库位中的各个gpu设备基于各自存储的图像库,并行执行所述图像处理任务指令。

第二方面,本发明实施例还提供了一种人脸图像处理装置,包括:

任务指令获取模块,用于获取图像处理任务指令;

目标库位确定模块,用于根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位,其中,每个库位中包括至少一个gpu设备;

任务指令执行模块,用于将所述图像处理任务指令发送至所述目标库位,以使得所述目标库位中的各个gpu设备基于各自存储的图像库,并行执行所述图像处理任务指令。

第三方面,本发明实施例还提供了一种计算机设备,包括:

一个或多个处理器;

存储装置,用于存储一个或多个程序,

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的人脸图像处理方法。

第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的人脸图像处理方法。

本发明实施例基于对图形处理gpu设备的运行状态信息的判断,从预先配置的多个库位中为图像处理任务选取合适的目标库位,该多个库位可以针对相同的人脸逻辑库,且该多个库位的内容、地位相同,保证了当其中一些库位出现问题时不会影响图像处理任务的执行,保证了图像处理任务的执行成功率;并且对于图像处理任务,目标库位中的各个gpu设备是并行执行的,提高了图像处理任务的执行效率以及图像处理任务的执行成功率。

附图说明

图1是本发明实施例一中的人脸图像处理方法的流程图;

图2是本发明实施例二中的人脸图像处理方法的流程图;

图3是本发明实施例二中的人脸逻辑库库位和页位的示例图;

图4是本发明实施例三中的人脸图像处理装置的结构示意图;

图5是本发明实施例四中的计算机设备的结构示意图。

具体实施方式

下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。

图1是本发明实施例一中的人脸图像处理方法的流程图,本实施例可适用于在人脸图像处理领域,提高人脸图像处理任务执行效率和任务执行成功率的情况。该方法可以由人脸图像处理装置来执行,该装置可以采用软件和/或硬件的方式实现,并可配置在计算机设备中,例如后台服务器等具有通信和计算能力的设备。如图1所示,该方法具体包括:

步骤101、获取图像处理任务指令。

其中,图像处理任务指令是指对人脸图像库发送的请求作业的任务请求。本实施例中,根据不同的图像处理需求,获取的图像处理任务指令可以是一个或者多个,并且,不同的图像处理任务指令可以是针对不同图像处理场景下的处理需求,图像处理场景可以根据图像处理请求方的不同进行划分,也可以根据图像使用场景的不同进行划分。可选的,可以通过人脸检测设备或身份发现设备或交互设备,例如,摄像头、wifi盒子、手机应用程序(application,app)、一体机等,向用于执行本实施例技术方案的计算机设备发送图像处理任务指令。

可选的,所述图像处理任务指令包括人脸图像比对处理指令、人脸信息查询指令、人脸图像质量检测指令、以及每个gpu设备中存储的人脸图像的变更操作指令,所述变更包括增加、删除和修改。人脸图像比对处理指令可以包括图像1比1比对任务指令,每个gpu设备中存储的人脸图像的变更操作指令可以包括人脸入库操作指令等。

具体的,人脸图像比对处理指令包括在人脸库中搜索与比对人脸图像相同的目标人脸图像;人脸信息查询指令包括在人脸库中查询人脸信息;人脸图像质量检测指令包括对目标人脸图像的生成质量进行检测,主要为了筛选不合格人脸图像,如人脸模糊无法识别的人脸图像;变更操作指令包括对gpu设备中存储的人脸图像的增加、删除和修改操作,例如请求删除gpu设备中存储的某张人脸图像以及相关信息。

步骤102、根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位,其中,每个库位中包括至少一个gpu设备。

其中,图形处理gpu设备是指处理器为gpu的用于进行图像处理的设备,包括集成了人脸算法的硬件服务器,人脸算法包括人脸比对算法,对人脸图像的管理方法等。运行状态信息是指能够表示gpu设备运行情况的参数信息,包括gpu设备的在线状态、内存大小、缓存信息等。目标库位是指根据gpu设备的运行状态信息识别出的符合执行任务要求的库位,例如目标库位可以是空闲的库位即当前没有执行图像处理任务的库位,或支持执行的图像处理任务数量未达到上限的库位。

在确定目标库位之前,本实施例中可以预先配置多个库位,每个库位中包括至少一个gpu设备,多个库位可以对应一个人脸逻辑库。人脸逻辑库是指为不同图像处理场景提供人脸信息的图像库,并可以按照多个库位中gpu设备数量分区存储至不同的gpu设备中,每一个gpu设备中存储的人脸图像称为一个目标库。每个库位地位相同、信息一致,且每个库位中包含多个页位,页位是指对每个库位中的gpu设备进行分组后得到的gpu设备子集合,每个页位的信息是不同的,所有页位的信息组合成一个完整的库位。这些页位可以进行顺序编号,例如可以称为1号页位、2号页位、3号页位等。例如,一个页位中包括一个gpu目标库,即一个人脸逻辑库的部分信息。判断图形处理gpu设备的运行状态信息包括判断页位的可用性,例如可用通过gpu设备的在线状态或内存信息判断每个页位的可用性,如果gpu设备不在线或内存满的情况下该页位不可用。如果一个页位不可用,则其所属的库位不可用。确定的目标库位中的每个页位均可用。目标库位中每个库位均可用可以保证目标库位的完整性,进而保证图像处理任务执行的准确性。

并且,在本实施例中,多个库位中对应的一个人脸逻辑库,支持在多个场景下被共同使用,相比现有技术,不再需要每个图像处理场景下都孤立的使用各自的人脸逻辑库,并且,每个库位可以用于不同的图像处理场景,提高了不同图像处理场景下gpu设备计算能力的利用率,减少了gpu计算能力的浪费,最大化利用gpu设备。

步骤103、将图像处理任务指令发送至目标库位,以使得目标库位中的各个gpu设备基于各自存储的图像库,并行执行图像处理任务指令。

其中,当目标库位确定完后,将图像处理任务下发至目标库位,目标库位中包括多个页位,每个页位可以包括一个gpu设备,gpu设备中存储了一个部分该目标库位对应的人脸逻辑库的图像库内容。当目标库位接收到图像处理任务后,所属于该目标库位的所有页位同时执行该图像处理任务,当某个目标页位的图像处理任务执行完毕后,即认为该图像处理任务执行结束,剩余页位停止执行,同时,该目标页位将执行结果返回给用于实现本实施例技术方案的计算机设备。

示例性的,以获取的图像处理任务指令为以图搜库任务指令为例,假设三个库位对应一个人脸逻辑库,该三个库位的编号分别为1号库位、2号库位和3号库位,每个库位中均包含三个页位,分别为1号页位、2号页位和3号页位。某时刻1号库位正在执行多个任务,2号库位中的1号页位对应的gpu设备不在线,则当以图搜库任务指令下发后,所确定的目标库位为3号库位。3号库位中的三个页位同时执行以图搜库的指令,即每个页位在各自对应的gpu目标库中搜索对应图像,当1号页位先搜索在对应图像时,2号页位和3号页位停止此次搜索任务,任务完成。通过多个页位并行执行任务,提高了图像处理任务的执行效率,通过给每个库位增加页位可以实现超大库的高效搜索。当人脸逻辑库较小或者可以接受耗时长的前提下,页位数量可为1,即为单页模式,单页模式减少了gpu设备的数量,可以节约成本。

示例性的,当图像处理任务指令为读取和查询人脸信息时,针对执行任务的每个gpu设备,首先查询每个gpu设备的堆内高频缓存,再查询其分布式缓存,分布式缓存没查到才查询gpu设备中的数据库,该数据库即目标库。其中,堆内高频缓存包括根据历史查询记录统计的储存于gpu设备缓存中查询频率高的人脸信息,可选的,堆内缓存可根据日查询频率进行更新。分布式缓存是指根据历史查询记录统计的储存于gpu设备缓存中的历史查询人脸信息,可选的,分布式缓存可以根据实时查询进行更新,在分布式缓存中增加最新查询的信息,删除达到时间阈值未被查询的信息。数据库是指gpu设备中存放完整人脸信息的数据保存区。

本发明实施例基于对图形处理gpu设备的运行状态信息的判断,从预先配置的多个库位中为图像处理任务选取合适的目标库位,该多个库位可以针对相同的人脸逻辑库,且该多个库位的内容、地位相同,保证了当其中一些库位出现问题时不会影响图像处理任务的执行,保证了图像处理任务的执行成功率;并且对于图像处理任务,目标库位中的各个gpu设备是并行执行的,提高了图像处理任务的执行效率以及图像处理任务的执行成功率。

实施例二

图2是本发明实施例二中的人脸图像处理方法的流程图,本实施例二在实施例一的基础上进行进一步地优化。如图2所示,所述方法包括:

步骤201、根据各个库位所属的人脸逻辑库,以及库位与gpu设备之间的从属关系,构建状态树,其中,人脸逻辑库是按照预设人脸图像分类策略对人脸图像进行分类后得到。

其中,人脸逻辑库可以是指为不同图像处理场景提供人脸信息的图像人脸图像分类策略可以包括按照人脸图像的使用场景对人脸图像进行分类,也可以包括按照人脸图像所属的地理区域对人脸图像进行分类。具体而言,人脸图像分类策略可以根据人脸图像的不同处理需求进行设置,本实施例不作具体限定。库位与gpu设备之间的从属关系包括页位和库位之间的所属关系,例如当前页位属于几号库位。状态树是用于监测人脸逻辑库的工作信息,包括监测各个gpu设备的运行状态信息,示例性的,如监测人脸逻辑库、所有库位和页位的状态、最大容量、当前容量、gpu类型和页位地址等。

示例性的,人脸逻辑库分配好对应的库位以及页位数量后,所有逻辑库、库位以及页位在状态树上注册,则可以通过状态树监测状态、最大容量、当前容量、gpu类型和页位地址等。并且通过状态树还可以监测工程状态、接入工程地址、管理工程地址以及配置信息。通过状态树对各个模块状态和数据的监控,可以保证各模块之间的协同工作,保证对整个工程的核心管理,通过状态树连接各模块之间的间接通信,有利于解耦。

步骤202、获取图像处理任务指令。

步骤203、利用状态树监测各个gpu设备的运行状态信息,以使得根据状态树监测的所述各个gpu设备的运行状态信息,确定执行图像处理任务的目标库位。

其中,gpu设备的运行状态信息是通过状态树获取的。示例性的,可以根据状态树所监控的gpu设备的状态、当前容量和最大容量判断gpu设备的运行状态信息,进而选取目标库位,若gpu设备状态显示为离线状态或gpu设备的当前容量接近最大容量则该gpu设备不可用,即当前页位不可用,进而页位所属库位不可用。

步骤204、调用gpu管理接口,将图像处理任务发送至目标库位,以使得目标库位中的各个gpu设备基于各自存储的图像库,并行执行图像处理任务指令。

其中,一个人脸逻辑库对应多个库位,一个库位包含至少一个gpu设备,gpu管理接口是对多个gpu设备进行统一管理的接口,即可以通过控制gpu管理接口实现对多个gpu设备的统一管理,以便于将同一个图像处理任务发送至不同的gpu设备。

可选的,每个gpu设备对应一个与其适配的适配器,相应的,将所述图像处理任务指令发送至所述目标库位,包括:

调用gpu管理接口,将所述图像处理任务发送至所述目标库位;

在所述目标库位中,通过与每个gpu设备适配的适配器将所述图像处理任务发至每个gpu设备。

其中,适配器是指为不同厂商和型号的gpu设备提供的进行统一定义的接口,可供gpu管理接口连接,实现对不同厂商和gpu设备的共同管理,提高gpu设备的兼容性,适配器实现了管理接口和gpu设备的连接。通过开发对应的适配器即可兼容不同厂商和版本的gpu设备,便于在不同场景下共用gpu设备,简化不同场景下的开发工作,减少资源投入,提高效率。

示例性的,如图3所示,一个人脸逻辑库可以对应三个库位,三个库位中的人脸信息相同,1号库位由4个页位组成,2号库位由3个页位组成,3号库位由2个页位组成,每个页位可以包括一个gpu设备,每个gpu设备中部署的目标库用于存储人脸逻辑中的部分人脸图像信息,每个gpu设备对应一个与其适配的适配器。一个人脸逻辑库可以按照库的大小以及需求对应不同数量的库位,根据需求的不同为不同库位开发不同数量的页位,以满足图像处理任务指令的执行要求。例如,当人脸逻辑库为某公司人脸库时,将该公司的人脸库对应三个库位进行存储,其中,1号库位中四个页位可以分别对应该公司a部门人脸目标库、b部门人脸目标库、c部门人脸目标库和剩余部门人脸目标库;2号库位可以分别对应该公司各个办事处的人脸目标库,如2号库位1号页位表示x市办事处人脸目标库、2号页位表示y市办事处人脸目标库、3号页位表示剩余办事处人脸目标库;3号库位可以分别对应该公司员工不同身份信息的人脸目标库,如3号库位1号页位表示管理层人脸目标库、2号页位表示其他员工人脸目标库。

可选的,在所述目标库位中,通过与每个gpu设备适配的适配器将所述图像处理任务发至每个gpu设备,包括:

通过与每个gpu设备适配的适配器,将所述图像处理任务以及任务标识发至每个gpu设备,其中,所述任务标识用于每个gpu设备对接收的图像处理任务进行认证。

其中,任务标识是指gpu设备对图像处理任务进行识别的方式,示例性的,任务标识包括消息令牌。例如,每个库位发放固定数量的消息令牌,表示同时允许对应数量的图像处理任务并行执行。在进行人脸比对时,首先对人脸比对的任务指令进行报文解析,该任务取得令牌后才能连接到gpu服务,若获取令牌失败则拒绝该任务指令。令牌定期补充保证gpu服务的连续性,为图像处理任务分配消息令牌保证了在任务高峰时期gpu服务的效率,不会因为大量的任务造成gpu崩溃。

可选的,接收所述目标库位发送的任务拒绝执行反馈,并将所述目标库位拒绝执行的图像处理任务发送至候选库位,以使得所述候选库位执行所述目标库位拒绝执行的图像处理任务,其中,所述任务拒绝执行反馈是由所述目标库位基于各gpu设备接收的任务标识数量达到数量阈值时产生。

示例性的,当1号库位的消息令牌发放完后,此时的图像处理任务指令被1号库位拒绝,则将拒绝反馈发送至管理接口,管理接口将此图像处理任务指令发送给有消息令牌的候选库位可以提高图像处理任务的效率,避免当任务达到目标库位因没有消息令牌被直接拒绝,导致图像处理任务被耽误。

可选的,如果在预设响应时间内未收到所述目标库位对所述图像处理任务指令的响应反馈,则在除所述目标库位之外的其他库位中,确定执行所述图像处理任务的候选库位。

示例性的,当图像处理任务指令发送至目标库位之前为发现目标库位下的状态信息有误,但是当图像处理任务指令发送至目标库位后,目标库位因gpu设备突然故障导致当前库位不可用,则无法对当前的图像处理任务指令作出响应,此时将在预设时间内未收到响应反馈的任务指令发送至其他可用候选库位,保证对图像处理任务指令的执行,避免因为gpu设备状态的突然变化导致的任务执行失败,完善了图像处理任务的逻辑,保证了任务指令不会被堆积,便于及时处理。

可选的,在将所述图像处理任务指令发送至所述目标库位之后,所述方法还包括:

如果所述目标库位中存在gpu设备中存储的人脸图像发生增加或者删除,则更新所述状态树中监测的所述目标库位中gpu设备的图像存储容量。

示例性的,当图像处理任务指令为对gpu设备中存储的人脸图像进行增加或者删除时,则在状态树上对已经更新了人脸图像信息的gpu设备已经对应库位进行更新状态信息,包括gpu设备的图像当前存储容量。对状态树上的状态信息进行实时更新,保证了状态树信息的准确性,以便于根据状态树的信息对图像处理任务进行处理,防止数据紊乱。

示例性的,当图像处理任务指令为对gpu设备中存储的人脸图像进行增加或者删除时,采用mq异步的方式对图像处理任务进行处理。例如,接收到人脸图像的增加指令后,将任务指令发送至mq队列中,所需进行处理的目标库位通过应用系统去依次进行更新,直至所有库位对该指令执行完成,则将执行完成的信号反馈回mq中。通过异步线程方式保证了人脸逻辑库下所有库位的数据最终一致性。

示例性的,采用连接池连接gpu设备的服务,连接池是创建和管理一个连接的缓冲池的技术,这些连接准备好被任何需要它们的线程使用。人脸逻辑库中的gpu设备都设置在同一个连接池中,当一个gpu服务请求连接上,在处理完毕后不进行断开连接操作,等到下一个相同的gpu服务请求到来时,可以直接采用上一个连接。连接池的设置减少了连接创建的时间,避免了连接方式的花销,若不采用连接池的操作,则每次服务请求都需建立一次连接操作,造成资源浪费。

本发明实施例基于状态树对人脸库及gpu设备状态信息的监控,实现了对信息的统一管理,便于各模块之间的连接,提高图像处理任务的处理效率;并且通过为不同类型、不同厂商的gpu设备开发可供管理接口统一接入的适配器,使得可以通过管理接口实现对不同接口的不可兼容的gpu设备的控制,实现统一管理,节省了在不同场景下的开发资源;并且通过mq异步的方式实现人脸信息同步,保证了多个库位之间的人脸数据的最终一致性。

实施例三

图4是本发明实施例三中的人脸图像处理装置的结构示意图,本实施例可适用于提高人脸图像处理任务执行效率的情况。如图4所示,该装置包括:

任务指令获取模块410,用于获取图像处理任务指令;

目标库位确定模块420,用于根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位,其中,每个库位中包括至少一个gpu设备;

任务指令执行模块430,用于将所述图像处理任务指令发送至所述目标库位,以使得所述目标库位中的各个gpu设备基于各自存储的图像库,并行执行所述图像处理任务指令。

本发明实施例基于对图形处理gpu设备的运行状态信息的判断,为图像处理任务选取合适的目标库位,保证了预先配置的多个库位中一些库位出现问题时不会影响图像处理任务的执行,保证了图像处理任务的执行成功率;并且对于图像处理任务,目标库位中的各个gpu设备是并行执行的,提高了图像处理任务的执行效率。

可选的,该装置还包括:

状态树构建模块,用于在目标库位确定模块420执行根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位的操作之前,根据各个库位所属的人脸逻辑库,以及库位与gpu设备之间的从属关系,构建状态树,其中,人脸逻辑库是按照预设人脸图像分类策略对人脸图像进行分类后得到;

运行状态信息检测模块,用于在目标库位确定模块420执行根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位的操作之前,利用所述状态树监测各个gpu设备的运行状态信息,以使得根据所述状态树监测的所述各个gpu设备的运行状态信息,确定执行所述图像处理任务的目标库位。

可选的,每个gpu设备对应一个与其适配的适配器;

相应的,任务指令执行模块,包括:

管理接口调用单元,用于调用gpu管理接口,将所述图像处理任务发送至所述目标库位;

图像处理任务发送单元,用于在所述目标库位中,通过与每个gpu设备适配的适配器将所述图像处理任务发至每个gpu设备。

可选的,图像处理任务发送单元,具体用于:

通过与每个gpu设备适配的适配器,将所述图像处理任务以及任务标识发至每个gpu设备,其中,所述任务标识用于每个gpu设备对接收的图像处理任务进行认证。

可选的,该装置还包括拒绝执行反馈接收模块,具体用于:

接收所述目标库位发送的任务拒绝执行反馈,并将所述目标库位拒绝执行的图像处理任务发送至候选库位,以使得所述候选库位执行所述目标库位拒绝执行的图像处理任务,其中,所述任务拒绝执行反馈是由所述目标库位基于各gpu设备接收的任务标识数量达到数量阈值时产生。

可选的,该装置还包括候选库位确定模块,具体用于:

如果在预设响应时间内未收到所述目标库位对所述图像处理任务指令的响应反馈,则在除所述目标库位之外的其他库位中,确定执行所述图像处理任务的候选库位。

可选的,所述图像处理任务指令包括人脸图像比对处理指令、人脸信息查询指令、人脸图像质量检测指令、以及每个gpu设备中存储的人脸图像的变更操作指令,所述变更包括增加、删除和修改。

可选的,该装置还包括状态树更新模块,具体用于在任务指令执行模块执行将所述图像处理任务指令发送至所述目标库位,以使得所述目标库位中的各个gpu设备基于各自存储的图像库,并行执行所述图像处理任务指令的操作之后:

如果所述目标库位中存在gpu设备中存储的人脸图像发生增加或者删除,则更新所述状态树中监测的所述目标库位中gpu设备的图像存储容量。

本发明实施例所提供的人脸图像处理装置可执行本发明任意实施例所提供的人脸图像处理方法,具备执行人脸图像处理方法相应的功能模块和有益效果。

实施例四

图5是本发明实施例四提供的一种计算机设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图5显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

如图5所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储装置28,连接不同系统组件(包括系统存储装置28和处理单元16)的总线18。

总线18表示几类总线结构中的一种或多种,包括存储装置总线或者存储装置控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(isa)总线,微通道体系结构(mac)总线,增强型isa总线、视频电子标准协会(vesa)局域总线以及外围组件互连(pci)总线。

计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。

系统存储装置28可以包括易失性存储装置形式的计算机系统可读介质,例如随机存取存储器(ram)30和/或高速缓存存储装置32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如cd-rom,dvd-rom或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储装置28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。

具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储装置28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。

计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图5中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。

处理单元16通过运行存储在系统存储装置28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的人脸图像处理方法,包括:

获取图像处理任务指令;

根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位,其中,每个库位中包括至少一个gpu设备;

将所述图像处理任务指令发送至所述目标库位,以使得所述目标库位中的各个gpu设备基于各自存储的图像库,并行执行所述图像处理任务指令。

实施例五

本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的人脸图像处理方法,包括:

获取图像处理任务指令;

根据图形处理gpu设备的运行状态信息,确定执行图像处理任务的目标库位,其中,每个库位中包括至少一个gpu设备;

将所述图像处理任务指令发送至所述目标库位,以使得所述目标库位中的各个gpu设备基于各自存储的图像库,并行执行所述图像处理任务指令。

本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储装置(ram)、只读存储装置(rom)、可擦式可编程只读存储装置(eprom或闪存)、光纤、便携式紧凑磁盘只读存储装置(cd-rom)、光存储装置件、磁存储装置件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。

计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、rf等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如”c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1