写在前面:12月21日-22日,GTIC 2021全球AI芯片峰会将在北京举行。届时,来自芯片巨头、独角兽公司及创业新秀的产业大咖和技术专家将同台分享AI芯片的技术创新和落地经验。大会前夕,智东西&芯东西对参会嘉宾进行系列深度对话,提前一睹他们对产业的真知灼见。本期对话嘉宾为北京大学信息科学技术学院副院长兼微纳电子学系系主任蔡一茂教授。
自1956年国家在北京大学由黄昆先生领衔建立半导体专门化,到北京大学于2020年设立集成电路科学与工程一级学科,再到今年7月北京大学集成电路学院揭牌成立,北京大学集成电路学科已走过65度春秋,正整合优势产学资源,迈向新的阶段。
作为推动北大集成电路学科建设的关键成员,北京大学信息科学技术学院副院长、微纳电子学系系主任蔡一茂教授长期从事先进存储器、神经形态器件及类脑芯片关键技术研究,对于人工智能时代新器件、新架构、新工艺有着深刻见地。
AI芯片发展到了怎样的阶段?存算一体因何蓬勃发展、还需攻克哪些难关?哪些技术方向为AI加速计算提供了优化能效和性能的更多可能?类脑计算与AI芯片如何相辅相成?……
围绕这些问题,近日,智东西与蔡一茂教授展开了一场深度对话。
从初绽锋芒到逐渐被大众认知,AI芯片经过数年发展,已经走到了角逐规模化商用的新节点。
蔡一茂教授认为,从学术角度来看,目前AI芯片领域呈百花齐放的态势,包括深度学习神经网络芯片、类脑芯片等很多技术路径大家都在探索。
他指出衡量AI芯片方案性能有5个维度:自适应、性能、能效比、可编程性、可扩展性。
其中,将可扩展性理解成“支撑的参数规模更大”还不太够,将来一个重要趋势是走向通用性,这对于人工智能、AI芯片都非常重要。
很多AI公司面临AI芯片或AI方案落地困难或者成本控制的挑战是无法将一个方案简单的复制应用于不同的场景,而这个是软件公司相对容易做到的。比如微软Office是一个标准的通用的产品,只要拿到授权许可就能使用,因此所有团队集中起来做好Office,无需设立专门的团队来为某家企业解决Office问题。
但目前大多数AI公司做不到这一点,因为AI应用场景存在差异化,通常需要根据其数据格式、具体应用场景入驻一个团队来联调。在蔡一茂教授看来,“这是限制AI算法和芯片实际大规模应用的一个重要挑战”,无论是AI算法还是AI芯片的通用性,产学界都尚未出现很好的解决方案。
“我相信AI的应用会落地越来越多,虽然现在有些困难,但整体大家还是寄予厚望。”蔡一茂教授说,“所以这个领域的研究在相当长的时间内依然会是热点。”
相比AI芯片发展初期,如今云端、边缘市场更为繁荣,更多创企开始主攻大算力芯片。
据蔡一茂教授观察,这是整体算力需求使然。随着AI算力需求大幅飙涨,全国多地开始建设大规模AI超算中心。对于手头不算宽裕的创企或小型研究团队来说,这为他们进行AI训练、AI推理等运算,降低了获取算力资源的门槛。
目前GPU仍是AI训练市场最主流的加速芯片。尽管一些互联网大公司已经开始根据自家业务自研芯片来实现更高的性价比和对场景更好的适应性,但他们也会继续采用GPU,毕竟GPU更加通用。
有NVIDIA摘冠在前,一些公司已经开始布局GPU国产替代方案,将来有望在一些领域或者受限的企业中,凭借更高性价比,分得一块市场。
倘若要对标英伟达或者相关的GPU技术,至少在某些领域上能与之匹敌,客户能够接受其性价比,在此过程中逐渐培养起自己的生态联盟。
“如果技术不行,老拿生态来讲,这是很难行得通的。”蔡一茂教授谈道,“技术上至少要有特色,然后再来看生态的构建;如果技术还差一大截,就说生态,这是个伪命题。”
当然,技术的追赶不是一蹴而就,更多的是希望有迭代的机会,有超越现有技术的可能。同时,很多人说自己的新技术有多好,可能过一段时间,对手就推出了一个更厉害的,所以看到竞争对手在进步,这也非常重要。
至于其他新兴技术路线,想要取代GPU绝非易事。一方面,许多技术只能做到单点性能更好,而非综合性能更好;另一方面,一些已有方案更好落地,投入更多资源就会迭代得更快。
相比取代GPU,蔡一茂教授相信,发掘一些新的领域,更可能把市场做的越来越大,比如开发新兴技术去解决现有GPU不擅长加速的领域。
▲北京大学信息科学技术学院副院长兼微纳电子学系系主任蔡一茂教授
除了AI芯片架构本身的进展外,更高性能的芯片,往往离不开先进的存储器和封装方式。
传统芯片存在的一大瓶颈是“存储墙”。
存储和计算,是芯片的两大基础功能。存储器与计算单元之间的数据搬运,往往消耗大量功耗,但很多加速芯片并未解决这个问题。
为了降低数据频繁交换导致的延迟和功耗,以存储为中心的计算架构逐渐兴起,成为AI芯片的一大新兴技术路线。
存储器可分为易失性存储器、非易失性存储器。
(1)易失性存储器:以SRAM、DRAM为代表,速度快、可靠性较高,但功耗、成本偏高,数据在里面只能短暂存储,必须不停地跟外部的非易失性存储器进行交换。
SRAM和DRAM在AI芯片中非常重要。AI芯片如果追求性能,则要求存储器本身够快、带宽够大,可以快速交换数据,这离不开SRAM、DRAM的进步。
此外,当前全球几家存储器巨头都在推进基于DRAM技术的高带宽内存(HBM),现在最先进的GPU的性能提升很大一部分也是得益于HBM的进步。目前还未见国内有公司大规模量产这种技术。
(2)非易失性存储器:目前主流产品是Flash。Flash的优势尤其体现在边缘端,一些参数存放在非易失性存储器中,后续有些应用可以直接调用或者直接运算。有些公司已利用Flash进行AI算法加速或实现存内计算功能。
Flash的挑战在于可靠性不高,可擦写次数约10^6次;另外其工作电压偏高,兼容纯逻辑运算和工艺的难度较大。目前嵌入式Flash的工艺节点普遍在40nm,也有些采用28nm,但很难再往更先进的节点推进了。台积电、三星等都在探索能够替代Flash的一些新型非易失存储器,比如阻变存储器、磁存储器和铁电存储器等。
Flash或者新型存储器不是拿来就可以用于AI芯片,通常需要针对性地改工艺、改集成技术,这对制造端提出了挑战。
虽然有一些基于SRAM、DRAM、SSD等存储器的存内计算方案和芯片被提出,但是目前还没有特别高性价比的存储器技术来支撑存内计算,存内计算也还未真正做到很好的产业化程度,更多是通过提高存储器的性能和带宽,来进一步优化整个综合系统。现阶段探索产业化路线的存内计算以SRAM、DRAM、NOR Flash为主。
除了打造基于先进节点的嵌入式存储器外,另一技术方案是先进封装。
像Flash这样的存储器不宜用先进节点,则可采用更成熟的节点,通过chiplet或者其他先进的封装技术,与拥有先进节点的芯片异构封装在一起,同样能提升性能。同时,先进封装是实现高带宽、高速数据交换的重要技术途径。
如今在后摩尔时代,摩尔定律的内涵完全变了,不再严格按照最初的定义,而更多是基于集成电路综合性能的考量,通过异构分装、异质封装、三维器件、新材料等新兴技术的引入,让集成电路向多维度发展,实现等效的摩尔定律的延伸。
从产业角度来讲,做芯片面临的挑战主要是性价比,同一功能的东西,如果性能提高一点,但随之整个系统或芯片价格明显提高时,市场会很难接受。
蔡一茂教授还提到一个新趋势——感存算一体,这可以被理解为存算一体与传感、模拟计算甚至神经拟态的结合。
我们周围的物联网服务,很多不是0、1编码直接进来,可能是一些传感器信号包括视频信号、声音信号、压力信号以及生物信号等其他参量的信号。
而且随着电子设备对外围环境感知的需求增大和更加精细,通常会需要多个传感器来采集数据。
这些信号如果全部经过传感器往下传,传输编码过程存在带宽限制和能耗挑战,通常会导致性能和能效下降。
但如果在传感器端就开始对感知到的信号做初步处理,这些经处理的数据再往后传,对后面系统的负担就小了很多。
一个例子是索尼公司的方案,它在CIS芯片开始做感知那一段进行运算,这通常被称作“感存算”。拥有庞大数据量的自动驾驶场景对感存算一体也有需求,将来激光雷达或其他传感器端如果能先对数据做处理,则可以减少后端芯片的压力。
▲北京大学集成电路学院
除了新型存储器技术外,蔡一茂教授的团队也在进行类脑芯片关键技术的研究。
类脑芯片同指受人脑架构和信息处理方式启发,引入生物神经计算方式,有望获得像人脑般的低功耗和强智能的信息记忆及处理功能,这也是AI芯片的一个前沿方向。
从学术角度讲,蔡一茂教授提到国内外类脑计算差距并不大,各有优势和特色。国内科研团队有多篇文章发表在Nature等顶级学术期刊上,相关演示芯片的规模也足以与国外相匹敌。
在产业上,类脑芯片在国内外尚未出现大规模商用。就连已被NASA采购的早期类脑芯片代表IBM TrueNorth芯片,迄今也未在民用方面实现大规模推广。目前类脑芯片已有多项应用演示,但要真正落到应用层,还面临基本器件、架构与算法等多层面的挑战。
与AI常用的卷积神经网络(CNN)、深度神经网络(DNN)不同,类脑计算采用增加了时域信息处理的脉冲神经网络(SNN)或相关偏生物类的算法,以模拟人脑神经突触通过电脉冲传递信息的编码方式进行信息处理。
SNN之于CNN是一个有益的补充,类脑芯片与传统深度学习AI芯片是齐头并进的关系,类脑芯片不会完全取代深度学习AI芯片,正如加速AI芯片也不能完全取代CPU和GPU。
将来有些AI任务,比如涉及情感化、超低功耗、非结构数据处理等应用场景,可能需要人脑的启发来进行优化或者另辟蹊径。但是要满足这样的应用需求,不是一个单点任务。首先需要处理该任务时更具优势的算法,然后需要专门的类脑芯片来与算法紧密结合,如果没有一个算法来引导芯片怎么工作,则都是空中楼阁。
现在是集成电路发展的好时机,蔡一茂希望,学习芯片相关专业的学生讲一些情怀,愿意在这个行业里沉淀下去,能够专注、长期做这件事。
“从事集成电路研究或者生产,要树立服务国家重大战略的使命感。”蔡一茂教授说,“但是服务国家重大战略不是口号,做好自己的本职工作,服务好自己所在的产业,甚至对自己的公司做出重要的贡献或者努力去创新,都是属于服务国家重大战略的具体工作。”
他也很支持学生创业,但同时强调“不要盲目”,不能因为现在芯片投资很热,就看不上踏踏实实在大公司里或者一些现有企业中做技术或核心骨干的职位。
创业是综合性的,涉及个人的品性、社会资源、对技术的把握和市场扩展的能力,要么自身具有很好的综合能力,要么能够组建很好的团队。自认为的技术先进性,也不见得一定会被市场认同,因此勘破市场需求至为关键。
他建议刚毕业的博士生,可以先到产业界中去熏陶、去经受一些风风雨雨,知道产业和市场需要什么,再考虑创业可能成功率会大一点。
在交流的尾声,当我们问到芯片领域有关自主技术突破的报道出现的一些误解,蔡一茂教授特别强调了两点。
首先,芯片本身是一个很宽泛的产品,需要实现很多技术方面的突破,不能说一个点的突破,就说我们完全实现技术自主了。
制造端也是如此。例如某一厂商的某个设备进入5nm节点,就被报道称解决了我国5nm制造的“卡脖子”问题,很多民众对技术细节并不了解,所以容易受到媒体报道的影响,希望媒体不要博眼球,对技术和实际情况予以更真实准确的报道。
第二,学术成果与产业问题的解决不要混为一谈。学术上面向未来的研究进展,不见得就能立即用到产业中,来解决现在的问题。
比如某个学术团队可能发表了一篇文章、报道了一个学术成果,但从学术到产业还有很长距离,从0到1再从1到100,有时候相隔甚远,需要更大的投入、更多评估以及甚至做好将面临更大困难乃至最后工程上无法实现的心里准备。
中国发展集成电路的意义重大,也面临很多挑战,蔡一茂教授认为,我们应保持信心,也要保持定力,吸引更多人才投入到集成电路研究和产业中,引进高水平的全球人才的同时也要努力培养出更多优秀的本土领军人才和战略科技力量。
本文来自微信公众号“智东西”(ID:zhidxcom),作者:心缘,36氪经授权发布。
相关推荐
北大蔡一茂教授:解读AI芯片技术趋势,架构创新、新型存储与先进封装
阿里达摩院宣布十大技术趋势,AI有望迈过两大关键门槛
先进封装大战打响
软件吞噬硬件的AI时代,芯片跟不上算法进化可咋办?
台积电 vs 英特尔 vs 三星:决战半导体3D封装
达摩院2020十大科技趋势发布:云成IT技术创新中心
2019年机器人领域盈利趋势解读:部分行业实现两位数增长
研发新型非易失性阻便存储器,「新忆科技」突破存储硬件性能与成本瓶颈
2020 新兴技术炒作周期曲线:这 5 个趋势值得注意
「博维逻辑」完成Pre-A轮融资,将继续研发非易失性高速存储架构芯片
网址: 北大蔡一茂教授:解读AI芯片技术趋势,架构创新、新型存储与先进封装 http://m.xishuta.com/newsview54446.html