加入收藏 | 设为首页 | 会员中心 | 我要投稿 南通站长网 (https://www.0513zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 移动互联 > 通讯 > 正文

为何你的AI芯片设计总是慢人一步?

发布时间:2021-12-30 14:01:29 所属栏目:通讯 来源:互联网
导读:人工智能的兴起,为半导体行业带来了新的机遇,使得半导体市场发生了翻天覆地的变化。但想要将人工智能移植到智能手机、车联网、IoT等终端,就对硬件的计算能力和能耗提出了更高的要求。就拿移动端硬件来说,完成这些运算必须同时满足高速度和低功耗的要求。
人工智能的兴起,为半导体行业带来了新的机遇,使得半导体市场发生了翻天覆地的变化。但想要将人工智能移植到智能手机、车联网、IoT等终端,就对硬件的计算能力和能耗提出了更高的要求。就拿移动端硬件来说,完成这些运算必须同时满足高速度和低功耗的要求。

 
  2007年以前,人工智能研究和应用经历了数次起伏,一直没有发展成为成熟的产业;同时受限于当时算法、数据等因素,这一阶段人工智能对于芯片并没有特别强烈的需求,通用的CPU芯片即可提供足够的计算能力。随着高清视频、游戏等行业的发展,GPU产品取得快速的突破;同时人们发现GPU的并行计算特性恰好适应人工智能算法大数据并行计算的要求,如GPU比之前传统的CPU在深度学习算法的运算上可以提高9到72倍的效率,因此开始尝试使用GPU进行人工智能的计算。
 
  进入2010年后,云计算广泛推广,人工智能的研究人员可以通过云计算借助大量CPU和GPU进行混合运算,事实上今天人工智能主要的计算平台还是云计算。但人工智能业界对于计算能力的要求快速提升,因此进入2015年后,业界开始研发针对人工智能的专用芯片,通过更好的硬件和芯片架构,在计算效率、能耗比等性能上得到进一步提升。
 
 
  由于已经发现传统架构对于AI SoC而言效率低下,因此系统规范需要进行越来越多的架构探索来优化设计,以提高神经网络处理的吞吐量。FinFET时代的到来促使产品架构师和片上系统 (SoC) 工程师更仔细地研究每个时钟周期中执行的计算的效率。
 
  设计人员需要使用构成计算电路的构建模块,在元件层面解决实现高性能人工智能 (AI) SoC的功耗、性能和面积 (PPA) 目标的问题。布尔逻辑和存储器存储元件构成的这些元件块被称为基础IP。
 
  目前最流行的深度学习技术是深度神经网络(DNN),它是许多现代AI应用的基础。自从DNN在语音识别和图像识别任务中展现出突破性的成果,使用DNN的应用数量呈爆炸式增长。这些DNN方法被大量应用在无人驾驶汽车,癌症检测,游戏AI等方面。在许多领域中,DNN目前的准确性已经超过人类。

 
  新思科技的基础IP产品组合中包括HPC设计套件。该套件是逻辑库单元和存储器的集合,已在先进节点上与EDA工具经过共同优化,旨在突破任何设计的PPA极限,并针对支持AI的设计进行优化。
 
  须知,使用EDA供应商提供的基础IP解决方案最重要的优势在于互操作性。这意味着设计人员可以使用IP附带的脚本在最尖端的工艺节点上进行工作渠道清理流程,并且不会浪费增效时间。
 
  新思科技除了供应种类丰富且经过硅验证的产品组合用于实现理想PPA目标之外,还支持满足个性化设计需求的定制服务,使其业务比任何其他产品更灵活。

(编辑:南通站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!