高端访谈 > 正文
视界智能,用“芯”实现
---云天励飞联合创始人田第鸿出席2018人工智能与半导体技术论坛
2018/3/16 14:59   中国安防行业网      关键字:云天励飞,田第鸿,人工智能,半导体      浏览量:
目前,云天励飞在深圳龙岗区架设了5000多路智能摄像头,在全国有8000+多路部署,这些摄像头都需要大量的视频处理能力,如果未来当规模达到数万甚至几十万路级时,更需要强大的前端强大的分析能力,快速反馈结果,并降低服务器端的压力。“过去大家都在拼性能,但算法的壁垒会越来越低,到那个时候相差百分之几的数字比拼本质上并没多大差别,真正的差别在于谁的算法能在嵌入式端和大规模数据中实时运行。”田第鸿指出。

  察势者智,驭势者赢。由CSIA-ICCAD、《中国集成电路》和摩尔精英联合主办的首场“人工智能与半导体技术国际论坛”于3月15日在上海隆重召开。云天励飞联合创始人兼CTO田第鸿博士出席此次论坛并做了视界智能,用“芯”实现的主题演讲。

  本届论坛受到了广大的专家学者、行业大咖、企业精英人士的高度关注和支持,现场与会人员达600余人。中国半导体行业协会集成电路设计分会理事长魏少军教授在开幕致辞上表示,中国半导体行业协会希望借助此次机会,让行业更清醒的认识人工智能行业。魏少军教授同时提出了两方面的思考:一方面,什么样的人工智能应用才能成为必不可少的应用,成为刚需。找到这种应用,就是人工智能成功的第一步。另一方面,如何用芯片覆盖更多的人工智能应用。

  “我们需要通过冷静的思考,看清未来人工智能发展的机遇。希望芯片企业能够通过人工智能的发展,找寻到未来发展的强大动力。从而在今后的产业发展中做出自己的贡献。”魏少军教授最后预祝此次论坛取得圆满成功。

  深圳云天励飞技术有限公司联合创始人兼首席技术官田第鸿做压轴演讲。田第鸿表示,云天励飞是一家注重实际落地的智能安防解决方案商。目前,云天励飞在深圳龙岗区架设了5000多路智能摄像头,在全国有8000+多路部署,这些摄像头都需要大量的视频处理能力,如果未来当规模达到数万甚至几十万路级时,更需要强大的前端强大的分析能力,快速反馈结果,并降低服务器端的压力。“过去大家都在拼性能,但算法的壁垒会越来越低,到那个时候相差百分之几的数字比拼本质上并没多大差别,真正的差别在于谁的算法能在嵌入式端和大规模数据中实时运行。”田第鸿指出。

  田博士介绍,云天励飞在很早就实现了终端和云端的打通。目前,云天励飞已聚集了一个团队研发AI芯片,为客户提供“芯片+算法+数据+应用+服务”端到端的整体解决方案,全面进入备战状态。

  田第鸿博士受邀参加了最后的圆桌讨论,与主持人摩尔精英CEO张竞扬、寒武纪执行董事罗韬、北京博达微科技有限公司创始人、CEO李严峰、地平线机器人芯片规划部部长谭洪贺、NetSpeedSystems大中华区总监黄啟弘、深鉴科技ASIC VP陈忠民、Imagination中国区市场和业务拓展总监柯川等展开了关于AI芯片机遇与挑战的激烈讨论。

  下面是田博士的演讲实录:

  主持人:下面是我们今天报告环节的最后一个,我们邀请到深圳云天励飞技术有限公司联合创始人兼首席技术官田第鸿博士,田博士在视频处理与视觉计算领域有着十多年的研发经验,他今天给我们带来的题目是视界智能,用“芯”实现。有请田博士,大家掌声欢迎。

  田第鸿:感谢主持人的介绍,因为是最后一个,今天很遗憾,我错过了绝大部分的报告,我的观点里面可能有很多是之前大家已经讲过了,只能说重要的事情说三遍了。

  我们应该说是一个解决方案的企业,我们从另外一个角度讲讲应用和AI芯片的结合。我觉得人工智能的创新其实核心就是两个,一个是技术的突破,另外是应用的创新,不过有六个维度,前三个大家知道,算法、数据、芯片。算法是智能的基础,数据是智能的源头,虽然我们也有经常学习。芯片是实现智能的手段。另外两个维度智能的体现一个是体现在感知,一个是体现在决策。

  当然深度学习主要是感知的问题,最后一个维度,就是应用场景。所以像谷歌的阿尔法狗,其实它就是在围棋产品上面,围绕着算法、数据、芯片、感知加决策实现了人工智能。云天励飞在人脸识别产品架构也是围绕算法、数据、芯片、感知、决策中实现。人工智能把我们静态人脸识别变成动态人像识别,实现了科幻片中的天眼的概念。

  我们其实从2015年开始在深圳的龙岗打造了一个区域级的天眼系统,从108路的摄像机开始,通过前端的采集,提供人像搜索的方式实现,当时我们自己都没有想到小规模的芯片,可以起到非常震撼的效果,三个月之内我们获破了两起拐卖儿童事件。所以我们这个系统在深圳和全国快速拓展,所以到今天,我们前端设备8000多路,人像数据80多亿,协助破案4000多起。

  其实回过头看,实现这么一个智能的效果,其实核心的原因也很简单,就是我们率先把云加端的架构真正在人像智能产品里面实现,通过前端到后面的方式,去实现自动学习的方式,提供大规模的检索。今天我们看可能云+端也好,或者前端结构化,都是很直观的概念,但是2015年的时候,真正落地和产业化在业界是非常不错的。

  2016年5月份的时候,我们系统刚刚上线两三个月,起到了非常好的效果,一个民警就说,如果系统规模扩大十倍以后,还能够达到同样的效果,那对我们的工作是一个革命。其实到今天,大家也看到,规模已经远远超过十倍了,但挑战一点都不小,而且这个挑战还是规模,前面黄总也提到规模,大家都提到规模,这个规模不仅仅是数据的规模,在视觉的场景里面还有一个场景的变化,它也是一个维度,所以这个规模仍然是大规模识别的挑战。

  除了视频监控,我们的无人机、无人车、机器人,所有的视频图像处理是真正的大数据。过去十年,我们主要的工作都是在给人看,当然我们从视频的发展也可以看到十年过程中,从大概2005年、2006年起我也是在深圳工作,也是做视频的处理工作,那时候需要用波块,才能实现实时的编程码。现在我们可以看到一个芯片可以看到若干4K、8K都没有问题。

  我们2015年的时候,也提了一个观点,视觉计算存在着云计算的阿喀琉斯。后来通过我们自身的实践验证了这么一个观点,所以实时识别、精准识别就反应了人工智能两个核心问题,如何准?如何快?其实AI我觉得最终回到了两个核心问题就是这两个问题,如何准?如何快?当然如何准如何快的角度,我们认为最终算法始终是基础。同时我们认为处理器也是一个要解决的重要因素。

  从数据的角度,它其实带来的两个关键的意思。一个数据带来了场景,所有的AI需要场景驱动。所以数据是如何准的核心要素。另外一个核心要素从数据的角度是前端采集数据,数据的质量最终对识别的影响非常之大,所以这也是大家共同认为算法智能前置,从数据的质量,保证如何准的角度,是非常关键的。为什么要做云端的芯片?当然从找人这件事情来说,另外一个如何准的答案,除了人脸识别还有多维度的识别,从人脸扩展到属性。

  如何快的话,就更加直观了,一个是分布式的计算架构,云和端的整体架构。另外一个,我们不仅仅是几个模型的,而是很多很多的模型都需要运行。所以在处理器设计里面,怎样反映这个应用场景带来的挑战。

  我们给自己的芯片起了一个名字,就是IPU,我想其实这里面大家讲的很多是互通的,我们是针对动态的视频识别,做了全链路的优化,我们这一代芯片是22nm的高性能低耗工艺。这是基本的框架,核心是神经网络处理器,我们也增加了DSP,做更多图像的处理。本质上是一个ASIP处理器设计,这里面可能也大同小异,我们的核心点就是专为CNN算法定制的指令集,支持各种卷积Kernel大小,执行效率过,独特的内存管理机制,实现灵活的数据和参数重用,系统带宽需求小,我们做了简单的比较。

  大家之前都多次讲到了工具链的问题,我们也不例外,这里面没有什么特别的东西,我们需要提供深度学习模拟自动定点化工具,提供深度学习定点训练框架,提供深度学习SDK,兼容主流深度学习,实现一键部署。我们应该说在之前已经有很好的实践,除了智能摄像机之外,还有视频监控、边缘计算,或者即便是具备这样的功能,还是有限的,刚才也提到了这些识别的需求,它的增加是远远超过的,所以在很多产品,还是需要用边缘计算的方式,对接前端。

  再往远一点,我们所看到的是机器人的世界,每个机器人都有。我觉得人工智能真正达到成功的点,就是我们真正看到,能够改变的,我们今天的机器人还是很初级的,机器人有有形的,有无形的,所以在目前来说,我们还是没有看到真正能够带来不同的机器人技术创新。

  最后我引用狄更斯的一句话,这是最好的事,因为我们都在干这个事;这也是最坏的时代,因为我们都在干这个事。机遇和挑战并存,大家一起共同努力,人工智能还是会带来美好的生活,谢谢。

微信扫描二维码,关注公众号。