技术动态 > 正文
2017年安防监控中的核心云计算技术
2017/5/10 08:18   智慧工地      关键字:数据,技术,云计算,安防      浏览量:
控系统产生的大量视频图像数据如果只靠人工来进行处理,效率会非常低,借助于视频智能化处理算法,已经可以从视频图像数据中获取一些简单的特征进行比对,或者进行模式匹配产生报警事件,提高了处理的效率。

信息技术不断进步,闪存、磁盘、数据中心、DNA等各种新的存储技术不断出现。可即便如此,仍难以满足日渐庞大的数据体量的存储需求,加之IoT(物联网)行业的发展,致使数据的体量更为惊人。不可否认,这些数据中许多都蕴含着价值,但也不能忽视数据的惊人体量。难道到2020年,我们要将44ZB的数据全部记录并存储下来吗?因此,我们需要用云计算技术对数据进行智能分析。今天就来探讨2017年监控系统云计算核心技术。

大规模混合计算技术

监控系统产生的大量视频图像数据如果只靠人工来进行处理,效率会非常低,借助于视频智能化处理算法,已经可以从视频图像数据中获取一些简单的特征进行比对,或者进行模式匹配产生报警事件,提高了处理的效率。这种方式能够处理的数据量,数据组合的程度,数据的类型等等都还处于较低的水平,无法应对海量数据和日益增长的需求。大规模计算技术的目的就是为了提供一种统一的数据处理平台,上面可以集成各种智能化算法和计算模型,综合处理海量监控数据,以更快的速度得到更有价值的数据。

安防云计算技术

统一资源管理技术

监控系统产生的主要数据就是视频和图像数据,原始数据经过处理后,会产生更丰富的数据,处理的方式也会有很大不同。比如对于历史视频数据可以在后台处理的视频数据检索,对于卡口的车牌和人脸特征数据需要实时布控,对历史卡口信息需要做到实时检索。这些数据都需要不同的计算框架进行处理,通过引入统一的资源管理平台,可以在同一个资源池里运行不同的计算框架,大幅提高资源的利用率,同时在资源被某种业务独占时,又能最大限度的发挥系统的性能。

实时检索技术

传统的结构化数据都采用关系型数据库进行保存,通过RAC等技术形成数据库集群,通过索引方式进行加速,但是核心还是基于行存储和关系运算,面对海量记录时在各个方面都已经遇到了瓶颈。实时检索技术通过引入分布式数据库,列式存储,内存计算,索引引擎等技术,能应对100亿级别的结构化数据,在存储容量,可扩展性,检索速度等多个方面都可以得到大幅提升。该系统在智能交通、刑事侦查等视频监控领域具备重要的研究价值和广阔的应用前景。

复杂事件处理技术

随着安防监控行业的发展,业务变的也来越复杂,比如智能交通领域,出现了车辆积分研判、套牌车分析、同行车分析等需求。这些需求存在产生结果所依赖的条件多、处理过程实时性的要求高、需要处理的数据量巨大等特点。传统的方式是采用关系数据库,通过复杂的SQL语句组合,不断查询比对的方式,很难满足实时性的要求。复杂事件处理通过引入流式计算等技术,动态地对输入数据进行实时的分析,处理速度可以大幅提供。不符合条件的数据都被丢弃掉,系统中只存在处理的结果或者可能有用的中间数据,这样对存储的要求也变小了,完全在内存中进行全过程的分析,实时性得到了保证。

人脸检索技术

人脸检索的技术在单台服务器上的应用已经比较成熟,可以应用在身份鉴别、在逃人员抓捕、可疑人员排查、身份证查重等领域。人脸检测过程可以分为以下几个阶段:视频或图像解码、人脸检测、特征提取、特征比对,前三个步骤都是每次请求对应一次计算,计算量相对可控,而最后一个步骤特征比每次请求则需要和达亿级的人脸特征进行比对,是运算量最大的一个阶段。

一些实时应用的请求数每秒钟可达请求数达到数百次,每次人脸比对次数可达百万级别时,则整个系统需要支持每秒亿级的人脸特征比对计算。如此大规模的计算,单机上是无法完成的,必须采用集群完成。特征库本身规模不大,但是比对次数很大,属于典型的计算密集型集群,特征库可以全部倒入到内存,在内存中完成计算。

海量视频检索技术

图像传感器采集到的视频数据保存到后端存储后,用户可以随时选择目标区域的多个摄像头,提交给视频检索集群,检索集群按照目标物体的特征快速检索的所有对应摄像头产生视频数据,找到目标物体特征所出现的视频,并定位到准确的时间点。其中主要使用了智能化技术实现视频数据到物体特征结构化数据的转换,支持车辆颜色,车牌,衣着颜色,人脸等特征。基于统一的计算资源池,实现智能化算法的并行运算,线性提高检索效率。

结构化之后的数据可以保存到数据库,下次检索可以直接通过结构化数据进行二次检索,大幅提高检索效率。

分布式对象存储技术

安防云在系统架构和设计上,充分考虑大规模集群环境下软硬件发生故障的现实,采用先进的管理思想和软件系统,实现对大量普通存储服务器存储空间资源进行虚拟化整合,实现软硬件故障高度容错,搭建高度稳定可靠的存储集群。

系统将控制流与数据流分离,以及充分优化元数据节点控制系统,使得系统具备极高的性能和良好的线性扩展能力。系统整体为应用提供统一命名空间,使得系统具备极好的数据共享能力。系统将负载均衡到集群内的各节点上,充分利用集群各节点性能,以获得很好的性能聚合能力以保证系统的稳定。集群采用高度灵活自组网技术,提供简易部署和维护功能。系统在数据可靠方面,采用智能冗余重建技术,保证较高磁盘利用率的前提下,提供最佳冗余策略。另外,系统在节点软硬件故障容错方面,也进行充分考虑,具备屏蔽所有可屏蔽错误能力。

快速文件索引技术

云存储系统可以支持上亿级的文件,同时还需要支持上千个用户同时访问。这么大规模的元数据和并发访问量,采用传统的内存加磁盘多级存储,以及多级索引方式,寻址的开销将非常大,直接影响到系统的可用性。

为了提高系统的响应速度,云存储采用粗粒度的管理方式,以64M作为典型的块大小进行索引,大幅减小元数据的数量,即使如此,系统的元数据规模还是会达到GB级别。基于这种情况,系统采用全内存态的元数据访问模式,可以将文件寻址时间降到毫秒级别。

为了保证元数据的可靠性,需要对元数据的访问做日志记录,并定期将元数据持久化到硬盘。

高速并发访问技术

客户端在访问云存储时,首先访问元数据服务器,获取将要与之进行交互的数据节点信息,然后直接访问这些数据节点完成数据存取。

客户端与元数据服务器之间只有控制流,而无数据流,这样就极大地降低了元数据服务器的负载,使之不成为系统性能的一个瓶颈。客户端与数据节点之间直接传输数据流,同时由于文件被分成多个节点进行分布式存储,客户端可以同时访问多个节点服务器,从而使得整个系统的I/O高度并行,系统整体性能得到提高。

通常情况下,系统的整体吞吐率与节点服务器的数量呈正比。

微信扫描二维码,关注公众号。