0

    专访英特尔宋继强:有X86“看家”,英特尔为何还要重点研究RISC-V?

    2023.08.10 | admin | 126次围观

    【文/观察者网 吕栋】

    近期,尽管地缘政治波诡云谲,美国半导体巨头英特尔依然用一系列动作,证明它对中国市场的重视。

    首先是英特尔CEO帕特·基辛格(Pat Gelsinger)7月10日再度来华,这是他在短短三个月内第二次到访中国大陆,相继参加了英特尔成都基地二十周年庆祝活动,拜访了新华三、超聚变等多家国内客户,还出席了第十四轮中美工商领袖和前高官对话等活动。

    其次是在生成式人工智能、大模型等对AI算力需求急剧增长的背景下,英特尔针对中国市场推出了第二代Gaudi深度学习加速器——Habana Gaudi2,该产品目标是在性价比上超越英伟达的高端GPU,成为中国客户规模部署AI的“更优解”。

    近些年来,中国市场一直稳居英特尔全球最大的营收来源地。用英特尔自己的话来说,基辛格在华一系列的活动,体现了英特尔在中国长期发展的“坚定信心与承诺”。

    英特尔CEO帕特·基辛格

    与其他一些更重视在华销售产品的外企不同,英特尔早在1998年就在中国成立了英特尔中国研究院,致力于将其打造成为英特尔重要的创新引擎。经过二十余年深耕,英特尔中国研究院已与国内学术界、产业界和地方政府开展广泛合作,成为英特尔全球六大研究中心之一。

    不久前本地连接没有有效的ip配置 未修复,观察者网也受邀来到位于北京市海淀区的英特尔中国研究院,该院附近不仅有AMD、VMware等大型外资企业,也坐落着清华大学、北京大学、中科院等国内知名高校和科研机构。

    在这里,观察者网对英特尔研究院副总裁、英特尔中国研究院院长宋继强进行了深度专访。由于专访内容丰富,本文先节选部分实录刊发。此部分聚焦英特尔对投入RISC-V的考虑,英特尔在AI算力领域的布局,英特尔中国研究院近期对研究组合的调整,以及如何看待近些年中国科技产业的发展等问题。

    宋继强表示,英特尔中国研究院专门把RISC-V这个开放开源指令集列入研究领域,是因为中国在这一领域的影响力比较明显,在RISC-V国际基金会高级会员里,接近一半是中国企业或者学校。另外,中国还有政府方面的引导,想让RISC-V成为未来自主创新的重点。因此,中国未来在RISC-V发展上一定会走的很好。

    英特尔中国研究院院长宋继强

    以下是专访实录:

    观察者网:今年4月,英特尔中国研究院公布了最新的八个主要研究领域。相比之前,像视觉智能和视觉合成、智能边缘等一些研究领域被保留下来,而一些领域像通信和5G+似乎已被移出名单,还有像人类与人工智能的交互合作等领域被新添加进名单。外界也十分感兴趣,这八个领域为什么会被选成新的主要研究领域,另外一些领域为什么会被替换掉?

    宋继强:事实上,我们的很多输入来自工业界、学术界和政府的政策导向。就像5G,它暂时被我们拿下去了,是因为5G的标准已经尘埃落定了,我们在前面花了五六年时间去做5G标准,3GPP(3rd Generation Partnership Project,第三代合作伙伴计划)这个标准我们有不少贡献,我们也跟中国的一些运营商做了很多合作,包括MEC(Mobile Edge Computing,移动边缘计算)我们也贡献很多,大部分发生在2020、2021年,后来都是在做产业化、工业化部署,跟研究没什么关系了,专利什么的也不需要再新提了。

    接下来我们就要就开始做6G了,但6G还很遥远,英特尔有专门的部门去跟进6G一些早期的标准,中间就有一个空档期,其实不需要再去跟进5G这方面的事情了,我们就把这部分的研究能力进行了转移。AI方面,我们在视觉AI领域有长时间的研究积累本地连接没有有效的ip配置 未修复,这部分工作也还在继续当中。

    此外,研究院做机器人做了很久,我们做机器人之后发现,其实AI系统让它单独去完成一些事情还是不行的,它的可靠性、适应性方面还是有问题,所以它仍然是适合作为一个提升效率,在一些环节上减轻人类负担的过程,但它不能成为一个决策者,或者说不能完全去负责一个流程,仍然必须要有人在这个环节里起到一个控制协调作用,相当于把人的长处和AI的长处组合起来用,所以这等于说是人类与人工智能的交互这个方向的一个来源,英特尔总部也会把这个技术点用在内部,用在生产当中去提高效率,因为很多AI技术,不论是视觉、分析还是缺陷检测,都是可以用在工作流程中去提升效率,但是不能让AI全部都自己干,还要有人在这个环节里去协调。这就是人类与人工智能的交互比较重要的一个意义,这一点也跟负责任的AI有关系,因为也要保证AI是做它能力范围内的事情,不能过度依赖它,或者说不能让它走得太远。

    观察者网:这是不是意味着,一些被替换掉的研究领域是已经成熟、标准落定的领域,而另外一些被保留的研究领域,是还需要进一步研究的领域?

    宋继强:没错。在英特尔中国研究院,研究项目一般是以2-3年为一个周期,到期再看是否需要再继续沿着这个方向去做。如果沿着这个方向做,就一定要提出更进一步的目标。比如说神经拟态计算至少做了两个周期,就要不停地提出新的目标。像5G、通讯相关的项目做了五六年,发现新的目标不够吸引我们投入了,就要换成新的东西。我们跟产品部门和一般的研发部门不一样,他们要风险低,能够执行,能出结果,但是研究院一定要做一些有风险的事情,不一定都能成功,一定要有试错的空间。

    观察者网:未来有潜在价值,但现在还没有产业化的领域,是英特尔中国研究院的主要研究对象?

    宋继强:是的。

    观察者网:这次RISC-V也被新添加到英特尔中国研究院的八个研究领域之中。想跟您探讨一下,英特尔中国研究院把一些精力放在RISC-V上面有哪些考虑?因为RISC-V被看做是一个新兴的开放指令集标准,而英特尔有传统的X86指令集,现在投入RISC-V主要有哪些想法,以后会不会进一步加大在这方面的投入?

    宋继强:RISC-V其实不算新兴了,发展也有10年了。在前期,RISC-V一直在慢慢发展迭代,直到2018、2019年左右才出现快速的发展,无论是参与的会员数、项目数,还是使用RISC-V生产产品的公司,都在那之后开始爆发式的增长。对此,大公司基本上都在关注,有些公司是直接参与,有些公司是在场外看。

    英特尔在场外看了很久,我在研究院从2015年开始就关注到RISC-V相关的信息,但是英特尔一直到去年1月才正式以公司级别加入RISC-V International成为高级会员,是因为确认了RISC-V跟英特尔相关的价值。在这之前,英特尔的不同小型部门已经用RISC-V进行了试验。最近,我们也作为创始成员参与了RISC-V软件生态计划“RISE”。这说明英特尔已经正式把RISC-V作为一个公司级别要去关注的指令集发展方向。

    这其实是和英特尔IDM2.0战略相关的,因为IDM2.0战略当中,我们需要关注多指令集未来发展的情况。X86本身就是英特尔的看家本领,这是一定要继续稳定、巩固的。Arm是我们的竞争对手,它也可以成为IFS(英特尔代工服务)的客户。RISC-V在最近这几年风起云涌,发展的很快。虽然它现在能使用的性能级别还比较低,使用的领域还比较受限,但就它未来的发展趋势来看,它是会壮大的。尤其是在某些地区,比如说中国、印度、欧洲,开始强调自己要有自己的指令集,有这样国家级的政策导向的时候,它的发展会很快。

    在这种背景下,IDM2.0要强调英特尔未来是要成为主流的代工厂,未来做这些芯片的客户是就是我们的潜在客户,他们在成长期使用的工具、IP就需要去积累了,就像早期台积电积累Arm这个领域的IP是一样的,要早点介入。在中国这边,为什么英特尔中国研究院也专门把它列在我们的研究领域里?因为中国在这一领域的影响力也是比较明显的,RISC-V International的高级会员里,接近一半是中国的企业或者学校。中国开发者贡献软件的数量,还有一些企业去做一些嵌入式物联网芯片的数量也是很可观的。中国还有政府导向,想让RISC-V这个开放开源的指令集成为未来自主创新的重点。

    因此,中国未来在RISC-V上的发展一定会走的很好。我们从去年开始就比较正式地把它列为英特尔中国研究院的一个重要方向,开始积累一些相关的IP和设计经验,包括一些敏捷开发设计流程的工具,然后看和中国的社区可以有哪些合作。之所以我们要开始去做这个事,因为RISC-V会逐渐成长为一个很主流的指令集架构,它会有自己的硬件和IP,包括处理器核和配套的IP、I/O接口都是在逐渐积累的。我们需要让它在英特尔对外提供的主流的制程上能够比较早地应用,把性能结果报告给客户,这样客户才知道用英特尔的制程跟用友商的相比较的大概情况,开发难易度等等,其实都是为RISC-V生态在做准备。

    RISC-V International高级会员

    观察者网:英特尔中国研究院在中国也很多年了。

    宋继强:有25年了,我们是1998年成立的。

    观察者网:在深耕中国市场的过程中,英特尔中国研究院有没有一些研究经验可供国内公司参考?

    宋继强:其实大家发展得都很好。但可以分享一下我们在中国的整个过程。早期英特尔作为一家在IT领域很先进的技术厂商进入中国,我们研究院接触的学术伙伴会更多一些,别人会希望更多地从英特尔学到先进的技术、架构,以及软件和系统里的一些窍门。所以那个时候主要是从英特尔输出技术,帮助提高整个IT包括PC的系统、服务器系统技术方案的积累。

    像中国很多PC和处理器领域的课程,都是离不开X86这个体系的。整个服务器里的架构、生态的建立,也跟英特尔在早期提供非常多的咨询、顾问、培训有很多关系。到了后来,假如说用2010年做一个分水岭,我们就会看到很多国内的企业、学术机构随着行业、市场的成熟,用10年左右的时间培养出来了很多人才。很多外企在中国设立研发机构就有这个好处,它可以培养出很多和国际的技术接轨,或至少研究和研发方式和国际接轨的人才,尤其是在开放开源的环境下。

    这时候就会逐渐看到中国本地能够提出很多好想法,我们就开始去做一些技术合作了。比如说在研究院里边,从2004、2005年就开始跟清华大学的信息学院及下设的计算机系、电子系、软件学院等做长期的科研项目合作,每年我们会跟他们联合做五六个项目,这样也让他们在研究上能获得一些英特尔技术和资金的支持,同时我们也会看有些研究成果是不是可以应用,这是细水长流的合作。

    还有一些是重点领域的合作,包括我们在5G、通讯的合作。5G、通讯的合作我们做了五年,跟清华、中科大、北邮和东南大学这些国内通讯方面的顶尖学校一起做,大家强强联合,还有在自动驾驶、车联网这块也从2017年开始做了将近五年的合作。现在我们继续会在新领域去探索合作点,针对特定的领域,会选择国内比较顶尖的一些学校去做合作。

    观察者网:也就是说,早期英特尔进入中国市场时是一个技术的引领者,而现在国内的科技产业相比之前出现了明显的进步,也能和英特尔在创新层面进行协作了。那么想请您谈一谈,这么多年来中国科技产业有哪些明显的、令人印象深刻的进步?

    宋继强:首先从IT这个领域来讲,计算和通信是两个很大的事情。一个是算,一个是互相怎么连接起来。通信这块,我觉得中国5G的发展肯定是走得很靠前的,首先是技术标准的制定已经完全和国际接轨,此外,中国也开始去做6G,其中也会有很多先进的技术提案。还有基础设施建设,现在中国部署5G基站的数量,在国际上遥遥领先。

    路修好了,就要开始要找应用了。找应用的时候,中国一些视频类的应用也是全球领先的。同时,我们还是希望自动驾驶、车路协同这块能真的发展起来,变成中国引领的方向。这个概念上来讲也很容易理解,既然整个5G基础设施搞得这么好,覆盖面这么好,中国就有比美国和欧洲更便利的条件,让车路协同这个事情做得更好。因为中国能做到大面积统一标准的互相连通,国内有这个优势。同时,国内还有很多从互联网领域切换过来的自动驾驶、智能汽车的从业者。此外,中国政府在这块也鼓励创新,会更灵活地让大家做试验,相比国外,我觉得这都是优势。

    所以,我们觉得从领先的5G基础设施推进到大面积使用的创新应用,包括自动驾驶、车路协同等,能够真的带动未来一波新的基础设施建设。一旦形成,它会产生将车、手机等完全连起来的颠覆性变化,就等着新的应用浮现了。此外,未来智能汽车里会使用越来越多的先进的IT技术,所以芯片的使用量、存储的使用量、对无线带宽的要求、屏的使用量等都比以前翻了很多倍。我们觉得这是未来很大的一个机会,英特尔中国现在也把这个方向作为未来的一个主要抓手,因为它在中国会走得比国际上快一些。

    另外,在开源软件这块,中国的很多大企业的参与度、贡献度都挺高的,对Linux、安卓、RISC-V的参与度、贡献度都不错。

    观察者网:随着ChatGPT等AI大模型对算力的需求剧增,GPU巨头英伟达的市值也持续在创新高。而英特尔作为传统半导体巨头,也一直是算力市场的主要参与者,您能不能讲讲英特尔目前在AI领域都做了哪些方面的工作?

    宋继强:AI一直是英特尔所说的“五大超级技术力量”之一。因为英特尔核心是做通用处理器,所以走XPU的战略。我们有很多种处理器,GPU是其中的一类。原来英特尔的GPU更多支持图形部分的工作,而专门针对AI算力的GPU差不多四五年前才开始专门去做,现在新的独立显卡也是三年前才正式有产品规划。

    从目前来看,我们也有不同种类可以让AI技术广泛使用的产品组合。AI除了训练,要最终实现产业化,需要很多地方能把它用起来。如果都靠非常昂贵的GPU,那它就变成一个小众的、只有大公司才能去玩的游戏了,而且从能效比上来讲,也需要有其他不同的选项可以用。

    所以英特尔除了CPU本身,至强CPU自己也有内置AI的加速器英特尔高级矩阵扩展(AMX),它本身就可以完成一部分的推理,能力也很可以,这样对很多客户来说系统里就不需要增加一块独立的GPU卡,也是一种非常好的使用方式。如果说想去兼顾训练和推理,现在英特尔有Habana Gaudi2 AI加速器。

    英特尔于中国市场推出Gaudi2深度学习加速器

    观察者网:我们也看到了国外机构对Gaudi2的评测,说它可以对标英伟达的H100,是这样吗?

    宋继强:是的,它在一些使用场景中给客户提供了新选项,假如要考虑每瓦性能,它的性能是不错的。未来的AI或者大模型的使用一定是分成很多级别的。现在我们已经看到很多不同的客户,希望用10亿参数以下模型的也有,几十亿参数的也有,100亿以上参数的可能更多是在云端做训练,真要部署到具体领域,通常要做一个更垂直领域的模型,而这个模型通常会在100亿参数以下,甚至更小。在这种情况下,用户就要去想是用通用的GPU,还是用一些专门的加速卡。Habana Gaudi2实际上是一个可做一定编程的AI加速器,可以做推理,也可以做训练。我们还提供其他选择,像数据中心GPU Max系列,可以在服务器级别做AI训练。

    总体而言,我们认为如果未来要让AI应用真的发挥非常多的能力,一定要降低使用的门槛,要提供更多的选项让大家能够比较。有些需求单独用CPU就可以全部搞定,或者CPU加上AMX扩展,加上独立显卡,加上Gaudi2这样的加速卡,或者加上FPGA也是可以的。在XPU战略下,我们会提供比较多的种类。像独立显卡这一块,英特尔也逐渐会提供更多迭代的产品性能。我们的制程也在发展,GPU的很多能力也和制程相关。

    观察者网:Gaudi可以被定义为一种什么芯片?

    宋继强:其实它并不是一个通用GPU,英伟达会说它的显卡叫GPGPU,GPGPU里面通常会放两种东西,一种是为了3D图形渲染的,一种是专门针对矩阵加速AI计算工作的。它会在不同的型号里放一些不同的东西,这取决于它未来的使用场景是更偏向于做3D渲染还是其他,比如说它要去支持元宇宙那种高级别的3D渲染,真实感的计算,把物理特效都做好,它就一定得把图形部分放得比较多,但是如果用户想要的那一款,更多是做AI大模型、深度学习这种并行的运算,它就需要内存很大,三维管线就可以少一点,这都是可以配的,配出来以后就是不同的规格了。英特尔也是一样的,我们也可以去进行不同的搭配。对于Gaudi而言,基本上是不管3D渲染那一块,还是做AI加速计算,有点像是以前谷歌说的TPU那种路线,但是TPU的路线更多是和TensorFlow密切挂钩,而Gaudi的设计相对来说和很多开源框架都可以适配,会更通用一些。

    版权声明

    本文仅代表作者观点。
    本文系作者授权发表,未经许可,不得转载。

    发表评论