首页 > ip授权 > 芯片ip公司是什么意思-AI芯片(IP)领域中国初创企业的机遇
2023
07-04

芯片ip公司是什么意思-AI芯片(IP)领域中国初创企业的机遇

我认为相关市场可以分为三大类。 第一类是用于数据中心(云端)训练和推理的专用芯片或FPGA(非GPU/CPU芯片)。 第二类是需要强智能化的终端芯片(针对手机、安防监控、无人机、机器人、自动/辅助驾驶、VR/AR等),可以称为“泛移动终端芯片”。 这类应用主要是推理功能,不排除以后需要训练; 三是智能要求不高的终端芯片(可穿戴、玩具、智能家居等),以下简称“弱智能终端芯片”。 当然,终端设备对智能化的需求是相对的,可能涵盖的范围很广。 这里所说的第三类,其实可以看作是指受成本、功耗等因素限制的推理需求。 (参考,)

我们先说第二类。 为什么说第二类创业公司基本没有机会呢? 因为这是目前芯片行业竞争最激烈的战场。 手机芯片厂商(高通、MTK、海思、展讯、苹果、三星)已经非常强大,不断将自己的技术能力推广到无人机、机器人、安防监控、自动驾驶、VR/AR等领域。 很难想象任何初创公司能够再次挤入其中。

那么有没有机会以IP的形式进入呢? 个人认为几率也很小。 首先,在技术能力上,这些公司有实力(多年的通信基带和多媒体经验)设计复杂的加速器或专用处理器; 其次,传统IP厂商,如CEVA、Synopsys、Cadence(tensilica)和Vericilicon也盯上了AI IP机会。 近期,这些公司也频频发布支持AI应用的DSP和硬件加速器产品()。 如果初创公司的IP具备一定的技术特性和价格灵活性,或许有可能在大厂的预热过程中获得试用机会。 但最终出现在量产芯片中的可能性很小。 第三,目前很多具有AI属性的应用要么在云端实现,要么直接利用现有的硬件资源实现,比如ARM CPU/GPU或者现有的多媒体DSP。 手机芯片巨头正在定义人工智能相关的用户案例。 是否存在需要手机芯片额外硬件成本的杀手级应用还有待观察。 最后,ARM前段时间还推出了面向AI的DynamicIQ解决方案,定义了CPU和DL加速器之间的接口; 未来可能会有更多的动作,可能会对这个领域产生很大的影响。 而Nvidia开源的xavier DLA将进一步降低推理实现的门槛()。 MTK最近也做出了一些动作,可见AI在其未来战略中的重要性。

不过,在深度学习IP这个领域,中国的一家初创公司可能会给我们带来好消息,值得期待。

第三类弱智能计算应用实际上可以与第二类应用一起称为边缘计算应用。 这里做出区分,是因为这类应用对功耗、成本甚至尺寸的压力都比较大,主要包括一些物联网和可穿戴应用。 其硬件平台的处理器能力非常有限(传统MCU领域)。 此类应用总数虽大,但差异明显,要求多种多样,变数也较多。 从技术上来说,用一种架构来实现是很困难的。 与泛移动芯片相比,此类芯片的资金投入门槛并不高。 有了Nvidia开源的DLA,如果和开源的RSIC-V CPU结合起来,门槛可能会进一步降低(当然,有了开源的东西,技术门槛可能会更高)。 因此,成功的关键取决于芯片的规格定义是否合理,以及市场出现时芯片能否及时生产。 我相信未来,我们可以看到很多初创公司在这个领域出现和消亡。 目前芯片ip公司是什么意思,智能语音应用从技术的可行性到市场的驱动,已经比较明显地具备了基于芯片技术的条件。

在这个领域,我还是比较看好应用驱动芯片开发的公司。 目前国内有很多初创公司在图像处理、声音处理方面积累了大量的算法和应用。 如果能够在某个细分领域取得领先地位,根据应用来定义和开发自己的芯片,巩固自己的技术优势表情包设计,那就处于一个比较好的状态。 简而言之,就是顺势而为、顺势而为,而不是为了造芯片而造芯片。 (当然,很多公司也为了获得投资而设计芯片作为噱头,这种情况我就不评论了。)

在云和数据中心的训练和推理领域吉祥物,近期英伟达和谷歌的密集发布引起了不小的口水战。 在《》一文中我已经介绍过大家在这个领域竞争的焦点是什么。

“对于数据中心的训练和推理系统,竞争不再是单芯片层面,而是看能否扩展到百亿亿次(exaFLOPS,10的18次方)。并同时发布TensorFlow Research因为TPU2云(TFRC)对于TPU2应用和生态的发展来说是一个更加关键的行动。”

因此,除了Training所要求的强大的处理器能力、高精度、高灵活性等基本要求外; Inference所需的低延迟、高吞吐量、高功耗效率; 对于异构大规模分布式处理系统的Knowhow以及生态系统的构建也非常重要。 而这一点在Startup中往往是非常缺乏的。

不过个人还是比较看好国内市场。 首先,目前中国很多互联网巨头(包括很多小巨头)都把AI作为重点发展方向,他们也有非常现实的需求。 例如,下图是蚂蚁金服在GMIS上推出的AI业务。

其次,从竞争角度来看,NVIDIA是目前唯一一家利润率巨大的公司; 尽管英特尔已经做出了很多动作,但很难说需要多长时间才能推出可以与NVIDIA竞争的产品。 第三,目前国内服务器芯片自主设计需求较高,且容易获得国家支持。 与服务器CPU的复杂性和生态环境(海光和华芯通已经在做)相比,机器学习专用芯片在技术实现和应用渗透方面要简单得多(谷歌的TPU就是一个很好的例子)。 因此,该领域目前对于国内企业来说是一个值得投资的机会。 如果成功站稳脚跟,很可能会做大做强。 不过这个领域需要烧钱,必须要有资本实力来保证。

总的来说,无论从技术还是资本的角度来看,如果能找到一家有一定规模和实际需求的互联网公司进行合作,或许就是成功的关键。

最后,云端还有另一个有趣的市场:基于FPGA的推理应用(例如图像的检测和识别、连续视频和语音、实时翻译等)。 这类应用除了需要强大的处理器能力外,对实时性能的要求也非常高。 这类应用对成本不是很敏感,适合FPGA。 首先,用于推理的通用GPU可能无法满足实时性要求,针对特定应用优化的FPGA设计将具有更高的推理效率; 其次,与使用专用芯片进行推理相比,FPGA的灵活性也很有优势,改变算法或网络的成本很低芯片ip公司是什么意思,非常适合人工智能领域的快速发展和变化; 第三,FPGA进军云市场是趋势。 目前亚马逊、阿里云和腾讯云都已经开始提供(或尝试)FPGA资源,机器学习的应用是一个重要内容。 FPGA的固有缺点:成本高、能耗高(与专用芯片相比),在这种应用场景中基本可以忽略不计。 在今年的GMIS上,蚂蚁金服推出了他们的机器学习平台,FPGA已经是其中的重要组成部分。

以上分析仅代表我个人观点。 如果有不对的地方,欢迎大家批评指正,也欢迎大家和我交流。

最后编辑:
作者:nuanquewen
吉祥物设计/卡通ip设计/卡通人物设计/卡通形象设计/表情包设计