来自 生活 2019-08-17 15:56 的文章

人脸识别新巨头格灵深瞳要让坏人无处遁形

如今,AI 创业风头正劲,各种 AI 公司如雨后春笋般冒了出来。但同时,由于 AI 还处于一个非常早期的阶段,市场需求尚不明显,大部分图像识别类的 AI 企业都在试图进入安防等领域,同质化稍显严重。 格灵深瞳虽然也在软件方面有车辆识别引擎——威目车辆大数据系统,以及对视图进行结构化分析、并提取有用信息的威目视图大数据分析平台,不过,这家出名较早的 AI 公司却也做了两款摄像头硬件——皓目行为分析仪和深瞳人眼摄像机,为什么?

    AI 图像识别在算法上并无大的鸿沟

    AI 在前些年还是一个难度非常大的领域,但最近几年,由于深度学习等技术的突破,AI 的入门门槛已经降低了很多。“现在聪明一点的大学生听一些网络上的课程,再下一个 Caffe(专门为深度学习而开发的框架),买一个有显卡的电脑就可以写一个深度学习模型了。AI 并不是一个难度特别高的技术。”格灵深瞳 CTO 赵勇如此表示。

    虽然赵勇认为这并不意味着任何创业者都可以随便进入的行业,因为在工业界,客户的要求也已经提高了。但市面上已经冒出了一大批做图像识别的 AI 公司却也是一个不争的事实。
 


    动点科技也体验了格灵深瞳的图像识别系统,我们在格灵深瞳园区及办公室走了一圈,以便被各个摄像头记录到,之后我们在系统的一个终端通过电脑摄像头拍摄个人影像,系统能够实时地通过人脸识别搜索出其它摄像头所拍摄到的这个人的照片,并以百分比的形式标明其相似程度。从展示效果来看,其识别准确率还是非常棒的。官方称在人脸像素点 100 以上的前提下能够达到 98%。

    而这便是格灵深瞳一直强调的“网络”,“在我们的网络中,每一个传感器不仅仅可以识别自己视野里的目标,还可以和网络中联通的其他传感器一起协同工作,在网络规模下发挥更大的作用。”赵勇曾在知乎上如此解释。

    不过,据动点科技所知,目前市场上一些公司的图像识别准确率也已经非常高了,如果想要同样做一个“网络”,自然不是什么难事。

    开发人眼摄像机,解决“看得远”与“看得宽”的矛盾

    正如格灵深瞳的相关负责人覃晓飞所言,“人脸识别的算法其实已经做得很好了,但是前提是照片足够清晰,这样才能有较高的识别准确率。”据了解,目前人脸识别的应用有着很大的局限性,基本上大家做人脸识别都是在四五米以内,而一旦超过这个距离,识别准确率将急剧下降。当然,想要看得远也可以,但其必须以牺牲视场角为代价,显然这并不是行业愿意看见的。

    我们可以用 单位面积像素=分辨率/视野面积 来解释“看得远”与“看得宽”的矛盾,据赵勇介绍,目前想要很好地识别人脸,照片人脸部分的像素点至少要达到 100,“看得宽”则意味着单位面积像素低,而要达到人脸像素点至少 100 的目的,人脸只能离摄像头近一点。

    从原理上来看,想要解决这个问题理论上其实可以通过增加分辨率来达到。不过其效果貌似并不明显,格灵深瞳介绍 4K 相机的识别距离只能增加到 10 米左右,而 7K 相机能增加到 20 米左右,效果都不太明显。而且,如此高像素对网络带宽及处理器都带来了极大的压力。为此,格灵深瞳创造了一款名叫深瞳人眼摄像机的产品,用现有的元器件来实现远距离(50 米)高清人脸抓拍,而且视场角仍能保持在 70 度。 赵勇非常看好深瞳人眼摄像机,并认为这是他们目前最大的优势之一 。“市面上绝对还没有类似的产品。”赵勇表示。
 


    据了解,深瞳人眼摄像机目前所使用的感光元器件就是普通的 CMOS,但格灵深瞳利用一种名叫像素动态瞬时分配的技术,可以瞬时将局部画面的有效像素提升百倍以上,整体画面可以达到数亿等效像素,从而实现在 50 米内可以展现清晰的可识别人脸,100 米内看清全身特征。

    至于具体的原理,格灵深瞳曾解释这是仿照人眼而做的:人眼中像素并不是均匀分布的,而是集中分布在面积极小的黄斑区域,人眼会受大脑的控制选择性地先把自己关注的区域看清楚。当然,格灵深瞳人眼摄像机所采用的 CMOS 上的像素点是均匀分布的,而如何具体模拟人眼黄斑功能,这便是他们最核心的机密了。但不管怎么来说,深瞳人眼相机的确是做到了看得远的同时还能看得宽。

    值得一提的是,格灵深瞳早在 2014 年,便通过与硬件厂商合作发布了一款用于安防的皓目行为分析仪——本质上是一款深度摄像头,格灵深瞳主要为该硬件提供特定的算法与软件。