来源丨创业邦(ID:ichuangyebang)
作者丨刘杨楠
编辑丨海腰
图源丨midjourney
一边是国产AI芯片独角兽燧原科技、壁仞科技先后启动IPO进程,已经看到上市曙光;另一边则是砺算科技、象帝先等企业先后陷入资金困境,一度步履艰难。
壁仞科技创始人张文曾表示,芯片赛道非常贵,是一条10亿美元的赛道,也是一条“赢者通吃”的赛道,最终能生存下来的也就一两家。
事实证明,过去几年已经有大批芯片企业被淘汰。企查查数据显示,2023年,中国已经有1.09万家芯片相关企业工商注销、吊销,平均每天近30家芯片企业消失。
这些企业中,有很多成立于5年前。
2019年,中国芯片的自给率只有30%左右,大量依赖进口芯片。但2019年5月16日,美国将华为列入实体名单,多家美国芯片断供华为,芯片进口通路逐渐被阻断。
受此影响,国内掀起芯片创业的第一个小高潮。公开资料显示,2019年至2020年,国内涌现了大量GPU、AI芯片企业,壁仞科技、摩尔线程、沐曦集成电路、象帝先等企业均在其中。
ChatGPT发布以来,英伟达无疑成为最大赢家。作为AI产业“卖铲子”的领头人,英伟达不仅站上了整个产业的食物链顶端,还一跃成为和微软、苹果并驾齐驱的资本巨擘,成为全球首家市值突破万亿美元的芯片公司。
与此同时,美国对中国高端芯片产业的制裁也逐步收紧。2023年10月:美国商务部工业和安全局(BIS)再次发布对中国的先进半导体和计算设备的出口管制,壁仞科技、摩尔线程两家公司被列入实体清单。
在此背景下,国内迎来又一轮国产替代的高潮。
资本再次点燃对GPU厂商的热情。去年下半年,天数智芯、沐曦集成电路、摩尔线程、象帝先、燧原科技等企业密集获得新一轮融资,已披露的融资额均达数亿元。
政策也在向以GPU为核心的IT基础设施强力倾斜。2024年1月29日,7部门联合印发《关于推动未来产业创新发展的实施意见》,提出我国需加快突破GPU芯片、集群低时延互连网络、异构资源管理等技术,建设超大规模智算中心,满足大模型迭代训练和应用推理需求。两会期间《工作报告》也提出:适度超前建设数字基础设施,加快形成全国一体化算力体系,培育算力产业生态。
在此节点上,创业邦选择了天数智芯、燧原科技、壁仞科技、沐曦集成电路、摩尔线程五家始终活跃在市场上的国产GPU厂商,盘点其造芯进展。
天数智芯:先软件后硬件
填补中国高性能GPGPU空白
或许很难想象,2015年成立的天数智芯,直到2018年才开始造第一款芯片,而公司成立前两年都在造软件。
天数智芯创始人李云鹏本就是软件出身。李云鹏2002年毕业于南京大学计算机系,2005年获美国威斯康辛州大学麦迪逊校区(University of Wisconsin-Madison) 硕士学位;曾担任美国甲骨文公司数据库部门研发总监。
在甲骨文工作的10年,让李云鹏更清楚看到国内外在计算机软硬件基础设施方面的差距。于是,2015年12月,李云鹏回国创立了南京天数智芯科技有限公司。
在李云鹏的最初构想中,天数智芯不做“中国的英伟达”,而要成为一家像苹果一样的系统级公司。因此,天数智芯从软件切入,与市面上的开源生态充分兼容,用软件提升已有硬件的平均算力。
2018年,天数智芯正式开始研发首款芯片。
“天垓100”的研发节奏很快。2018年6月,天数智芯决定研发通用GPU产品;2019年6月便完成软件栈框架设计;2020年5月成功流片,12月点亮;2021年12月实现量产。
“天垓100”主攻AI训练任务,填补了国内芯片产业在高性能GPGPU领域的空白。该芯片采用7nm制程工艺,采用全自研的架构、计算核、指令集及基础软件栈,2.5D CoWoS晶圆封装技术,包括240亿个晶体管,这也让其能以同类产品1/2的芯片面积、更低的功耗,提供匹敌主流厂商产品的性能。
官网数据显示,天垓100可支持200多种AI模型训练,适配x86、ARM、MIPS等架构CPU指令集,业界标准的软件API(应用程序编程接口)支持垂直类行业应用开发,支持国内外各种深度学习开发框架,以及软硬件全栈支持等。
2022年底,天数智芯曾宣布天垓100累计销售订单已突破5亿元。
“智铠”系列芯片则侧重AI推理。
其中,智铠100基于通用GPU架构,支持多种视频规格解码、800+通用指令集、国内外主流深度学习开发框架;支持FP32、FP16、INT8等多精度推理混合计算。据天数智芯官网介绍,相较于市场上现有主流产品,智铠100将提供2-3倍的实际使用性能。
此外,智铠100可兼容CUDA生态,平均迁移时间相较市场主流产品下降50%以上。
大模型浪潮出现后,天数智芯也紧跟趋势。
目前,天数智芯的天垓、智铠系列通用GPU产品可广泛支持DeepSpeed、Colossal、BM Train等各种大模型框架。
基于天垓、智铠加速卡的算力集群方案,天垓、智铠系列通用GPU产品能够有效支持LLaMa、GPT-2、CPM、GLM等主流AIGC大模型的Pre-train(预训练)和Fine-tune(微调),并适配了清华、智源、复旦等在内的国内多个研究机构的开源项目。
一年前,在2023年的北京智源大会上,天数智芯宣布,智源研究院70亿参数的Aquila语言基础模型在天垓100的算力集群上稳定运行19天,模型收敛效果符合预期,这意味着天数智芯已经能够支持百亿级参数大模型训练。
而在今年7月的2024WAIC上,天数智芯宣布了与爱特云翔的战略合作,双方将共建千卡级GPU算力集群。此外,天数智芯与众多合作伙伴,共同推出了旗舰级大模型推理16卡服务器,该服务器搭载了16张智铠100推理卡。
燧原科技:抛弃传统GPU设计经验
部分兼容CUDA生态
2018年3月,燧原科技在上海张江一间狭小的办公室成立。
燧原科技CEO赵立东毕业于清华大学电子工程系,也就是有名的清华EE85班。毕业后,赵立东曾任AMD计算事业部高级总监、产品工程部高级总监、以及紫光通信副总裁、紫光旗下锐迪科微电子总裁、紫光集团副总裁。
张亚林则历任AMD资深芯片经理、技术总监,并参与创立、发展和管理了AMD上海研发中心融合芯片部门、AMD北京研发中心、AMD中国多媒体IP部门。
燧原科技是国内第一家同时拥有高性能云端训练和云端推理产品的创业公司,也是国内第一个发布第二代人工智能训练产品组合的公司。
睿兽分析数据显示,燧原科技已完成10轮融资,投资方包括国家集成电路产业投资基金、腾讯投资、武岳峰科创、中金资本、CPE源峰、红点中国等多家知名机构,累计融资金额近70亿元。腾讯更是从Pre-A轮起连投六轮,成为燧原科技最大股东,占股21.37%。
今年5月,燧原科技创始人、董事长兼CEO赵立东在一次演讲中透露了公司最新进展。
目前,燧原科技共900多人,其中80%是硕士、博士,90%是研发人员。
成立6年来,燧原科技共开发了4代5颗芯片,核心业务涵盖了芯片、板卡、智算一体机、液冷算力集群以及配套的软件系统,包括基于“邃思”的云端训练加速卡“云燧T10”和第一代推理产品“云燧i10”以及第二代训练产品“云燧T20/T21”和推理产品“云燧i20”,还有配套的“驭算”软件平台等等。
燧原科技COO张亚林曾向媒体介绍称:“在大公司有个‘1+1’模型,芯片项目从立项到流片是一年,从流片到量产是一年。”从公产品发布节奏来看,燧原科技基本在按照这一规律推进。
2019年5月,燧原的第一颗云侧AI训练芯片开始流片,距离芯片立项不过一年。
据张亚林介绍,邃思芯片在架构上没有借鉴任何GPU设计经验,而是从无到有的设计了一套单独指令集和处理器,抛弃了以前所有的历史包袱。
2021年,燧原科技发布第二代通用人工智能训练芯片“邃思2.0”。
“邃思2.0”是迄今为止中国最大的AI计算芯片,尺寸为57.5毫米×57.5毫米(面积为3306mm2),达到了日月光2.5D封装的极限,与上代产品一样采用格罗方德12nm FinFET工艺,内部共整合9颗芯片,单精度FP32算力为40TFLOPS,单精度张量TF32算力为160TFLOPS,整数精度INT8算力为320TOPS。
相比之下,英伟达基于Ampere架构的A100 GPU的单精度浮点计算能力仅为19.5TFLOPS。Ampere架构是英伟达推出的第三代GPU架构,在性能和效率上都有显著提升,特别是在AI、HPC(高性能计算)和图形处理方面。
赵立东也在近期演讲中透露了公司产品交付的最新情况,他表示:“过去几年,第一代第二代产品发货量超过4万片,今年业务快速增长,第三代产品会超过7万片规模”。
大模型浪潮出现后,燧原科技也开始搭建多卡算力集群,且正在从千卡级向万卡级迈进。
目前,燧原科技已在四川成都、湖北宜昌和甘肃庆阳展开了千卡规模智算中心的建设。今年7月26日,锐捷网络官宣与燧原科技签署战略合作协议,共同打造万卡规模的算力网络。
软件方面,燧原科技打造的计算及编程平台“驭算”提供完整的开源工具链、SDK和软件函数库;支持TensorFlow,下一阶段将支持PyTorch、MXNet、ONNX等主流深度学习框架。
据赵立东介绍,燧原选择自建开发工具链,适配自家硬件,并开辟了CUDA之外的编程模型TopsCC。由于CUDA不开源,若想100%兼容CUDA,在技术上难以实现。因此,燧原科技选择了搭建独立的软件栈,同时部分兼容CUDA生态。
此外,燧原科技还推出200GB双向ESL互联技术,可实现芯片与芯片间、板卡与板卡间的高速互联,在1024节点集群规模下,其训练线性度加速比达86%。
2023年3月,顺应AIGC浪潮,燧原科技也宣布升级企业战略,以全栈软硬件和集群产品为数字底座,结合MaaS (Model as a Service) 的业务模式,全面打造人工智能技术生成内容 (AIGC) 时代的基础设施。2023年7月5日,燧原科技便发布了燧原曜图(Enflame LumiCanvas™)文生图MaaS平台服务产品。
目前来看,燧原科技是国内唯一一家提供MaaS服务的GPU初创企业。相比之下,MaaS更多是云厂商会讲的故事。
端侧智能方面,在今年的WAIC上,燧原科技和智谱AI合作推出了大模型编程助手一体机,基于云燧i20推理加速卡,能为软件开发企业提供一系列AIGC功能(如代码生成、代码翻译、代码注释、代码补全、智能问答)
生态方面,公司还推出了“燎原”生态计划,旨在建立一个开放开源的软件生态系统,与行业合作伙伴共同推动AI技术的发展。
壁仞科技:蛰伏半年
突破大模型异构算力孤岛
2022年8月,经过1065天研发,时任壁仞科技创始人、董事长、CEO张文发布首款通用GPU芯片BR100。
会上,张文激动宣布:“中国的通用GPU芯片正式迈入‘每秒千万亿次计算’新时代!”
在性能方面,BR100的16位浮点算力达到1000T以上,8位定点算力达到2000T以上,单芯片峰值算力达到PFlops(1PFlops等于1000万亿次浮点指令/秒)级别。
此外,在Int8、BF16、TF32/TF32+、FP32等数据格式下,BR100相比英伟达在售的7nm制程旗舰GPU A100,至少有3.3倍的峰值性能优势。
发布会上,壁仞科技还发布了创造全球性能纪录的OAM服务器“海玄”,以及OAM模组“壁砺100”,PCIe板卡产品“壁砺104”,和自主研发的BIRENSUPA软件平台。
具体来看,壁砺100P的产品形态为开放加速模组(OAM模组),采用7nm制程工艺,集成了770亿个晶体管,拥有16个PCIe5.0接口以及128GB/s的带宽。
海玄服务器则搭载了8个壁砺100P OAM模组,首次实现单阶段峰值算力达到8 每秒千万亿次浮点运算(PFLOPS)。
壁砺104系列则为PCIe板卡。PCIe是一种通用的串行连接标准,用于计算机内部硬件组件之间的连接,特别是用于连接高速硬件设备。
壁砺104系列整体性能弱于壁砺100P,共有壁砺104P和壁砺104S两款产品,两者的内存容量、接口位宽及带宽相同,在算力方面,则是壁砺104P更高。2022年底,壁砺104系列也实现量产。
软件方面,BIRENSUPA平台是一个具有完整功能架构的软件开发平台,包括硬件抽象层、壁仞原创BIRENSUPA™编程模型和BRCC编译器,深度学习和通用计算加速库、工具链,支持主流深度学习框架和自研推理加速引擎,并配备针对不同场景的应用SDK等。
壁仞也在兼容CUDA上下了不少功夫。BIRENSUPA平台试图让开发者无需修改代码,就可以在BR100系列产品上运行原本基于CUDA(英伟达的运算平台)的应用。
同时,为更灵活的兼容CUDA生态,壁仞科技还大力投入异构计算。
9月5日,在2024全球AI芯片峰会上,壁仞科技放出大招——首次公布壁仞自主原创的异构GPU协同训练方案HGCT。
据钛媒体APP报道,这是业界首次支持3种及以上(壁仞GPU+英伟达GPU+其他国产芯片)异构GPU同时训练一个大模型。同时,目前壁仞科技打造的软硬一体、全栈优化、异构协同、开源开放的大模型整体解决方案可以实现千卡集群、千亿参数的自动断点续训小于10分钟,15天连续训练不中断,4天连续训练无故障。
壁仞HGCT的异构协同通信效率大于98%、端到端训练效率90-95%,突破了大模型异构算力孤岛难题。
其实,早在2021年11月,壁仞科技就已开始布局异构计算。
当年,壁仞科技与IDG资本、字节跳动等共同参与了国产DPU初创企业云脉芯联的天使轮投资。据壁仞科技创始人、董事长、CEO张文透露,除了DPU之外,从布局整体计算产业出发,壁仞科技正在密切关注国产CPU的最新发展,未来形成CPU+GPU+DPU的全国产系统级解决方案。
此外,壁仞科技也在大力部署智算中心。
壁仞科技与运营商中国电信、中国移动先后达成合作。今年7月,搭载壁砺系列通用GPU算力产品的中国移动智算中心(呼和浩特)近日成功上线运营。这家智算中心属于全国型N节点万卡训练场,单体算力达6.7EFLOPS(FP16),也验证了壁仞宣称的产品可以用于千卡集群建设方案,并可扩展至万卡规模的互联技术的落地能力。
在去年十分火爆的端侧智能方面,壁仞科技也与软通动力联合发布了全新的AI PC产品。
沐曦集成电路:从GPGPU切入
逐步发展图片渲染GPU
2020年9月,沐曦集成电路在上海成立。
沐曦的团队十分豪华,公司的核心创始团队包括CEO陈维良、CTO兼首席软件架构师杨建和负责硬件的彭莉。三人均来自AMD中国,是多年的老同事,在芯片行业从业20多年。
沐曦成立不到3个月便获近亿元天使轮融资。睿兽分析数据显示,目前,沐曦集成电路共获9轮融资,最近一次股权变更发生在8月23日。
沐曦集成电路聚焦GPGPU路线。
沐曦集成电路CTO杨建曾向媒体解释道,“GPGPU相当于大算力芯片,是传统计算的回归。GPGPU的创新等同于将一些专用加速功能变成GPU的一组指令集,芯片面积只有原来的1%-10%,却相当于实现了一个全新专有芯片的加持,同时具备通用计算的性能,这使得边际成本更低,更具价值。”
“从软硬件复杂度看,渲染GPU复杂度更高。从开发人员团队数量来看,GPGPU如需要200人的硬件团队,渲染GPU可能要再增加50人,但软件开发人员相比GPGPU或需增加三倍,需要更多的人员开发驱动和编译器等。”杨建说。
因此,沐曦采取先做GPGPU,再发展图形渲染GPU的模式。产品共分三大系列,分别为用于智算推理的曦思®N系列、用于通用计算的曦云®C系列和用于图形渲染的曦彩®G系列。
2022年1月,沐曦首款采用7nm工艺的异构GPU产品“曦思N100”正式流片,这款芯片从立项到流片仅用了13个月;2022年8月,曦思N100回片并完成测试。
曦云C500是曦云系列的最新产品,官方宣称对标英伟达A100/A800的算力芯片,目标FP32算力15TFLOPS,而英伟达A100的FP32算力为19.5 TFLOPS,已十分接近。曦云C500采用通用GPU架构,兼容CUDA,通过自研的MetaXLink实现单机8卡GPU全互联。
该产品已于2023年6月13日回片,仅用5小时就完成测试并投入量产,已搭建多个百卡集群。
用于图形渲染的曦彩G100研发也已取得阶段性成果,已授权专利超过133项。杨建曾在2022年对媒体透露,公司预计到2025年推出融合图形渲染的完整GPU产品。
在沐曦的介绍中,沐曦产品均采用完全自主研发的GPU IP,拥有完全自主知识产权的指令集和架构,配以兼容主流GPU生态的完整软件栈。
MXMACA是沐曦推出的异构计算平台,包含了自研指令集架构(ISA)以及GPU内部的并行计算引擎。
值得注意的是,MXMAXA提供了一种类C编程语言,供用户为MXMACA架构编写程序,使其在METAX GPU处理器上运行。同时,该语言能够兼容主流的C/C++异构计算语言,更便于用户做软件适配和算子开发。
此外,MXMACA异构计算平台支持多种开源技术,包括AI神经网络框架(TensorFlow/PyTorch等)、库(Blas/DNN等)和Linux Kernel支持等。
摩尔线程:坚持全功能PGU路线
国内最像英伟达的芯片公司
摩尔线程于2020年10月成立,成立100天后,便完成两轮金额数十亿元的融资,进军国产GPU芯片独角兽。
在很多人看来,摩尔线程是国内最像英伟达,也最有可能和英伟达搏一把的芯片企业。
一方面,是因为其创始人兼CEO张建中此前曾任英伟达全球副总裁、中国区总经理,被外界称为是黄仁勋的“副手”。他在GPU行业深耕超过15年,带领英伟达开拓建立了GPU在中国的完整的生态系统。
另一方面,摩尔线程的打法也和英伟达极其相似,是国内少数聚焦全功能GPU的初创企业,能够实现英伟达系统架构里的四大主要功能,即通用计算、人工智能加速、图形渲染和视频编解码。
整体来看,摩尔线程的融资和产品发布节奏都十分紧凑,基本保持着每半年一次的产品发布频率。
2021年11月,成立300天之际,摩尔线程官宣首颗国产全功能GPU研制成功。
2022年3月,摩尔线程发布全新MUSA统一系统架构,并推出第一代全功能GPU芯片“苏堤”及多款MTT S系列显卡、物理引擎AlphaCore、DIGITALME数字人解决方案等。
MUSA是一种通用并行计算架构,包括指令集架构(ISA)以及GPU内部的并行计算引擎,并提供了软件环境,支持C/C++语言开发。
仅半年后,2022年11月,摩尔线程便发布第二颗全功能GPU芯片“春晓”,国内首款游戏显卡 MTT S80、元计算一体机 MCCX、系列 GPU 软件栈与应用工具、AIGC 创作平台“摩笔马良”等。
2023年5月,摩尔线程推出DirectX 11驱动、整机“智娱摩方”、MCCX VDI云桌面一体机,发布MUSA Toolkit 1.0 软件工具包及代码移植工具MUSIFY等。
其中,MUSA Toolkit是一套用于开发、优化及部署高性能GPU加速应用程序的工具包,包含了GPU加速库、调试优化工具、C/C++编译器以及运行时库,支持跨多个GPU的分布式计算能力。MUSA运行时库(MUSA Runtime)负责设备内存的分配、回收、拷贝以及数据传输等工作,还提供了分布式共享内存、图形互操作性、驱动API等高级功能,以支持复杂的并行计算和图形渲染任务。
2023年9月,摩尔线程发布新一代全功能GPU芯片“曲院”,推出大模型智算加速卡MTT S4000。MTT S4000计算卡可以充分利用现有CUDA软件生态,通过摩尔线程自研的MUSIFY开发工具,实现CUDA代码零成本迁移到MUSA平台。
和大多芯片厂商一样,摩尔线程也在大力建设智算中心。
2023年12月,首个全国产千卡千亿模型训练平台——KUAE夸娥智算中心揭幕,国内首个以全功能GPU为底座的大规模算力集群正式落地。
今年7月,摩尔线程成为首个突破万卡集群解决方案的厂商,发布了包括计算加速卡、服务器、超融合一体机、万卡集群方案和AIGC应用在内的摩尔线程全栈AI产品。目前,摩尔线程已签约了青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目
小结:
国产替代,道阻且长
整体来看,国内芯片厂商已经稳定实现了7nm制程的研发与量产。虽然台积电、三星、英特尔等巨头已经把先进制程卷向2nm,但很显然,国产芯片还远未发展到和巨头卷制程的程度。
如果从短期功利的角度出发,如何在现有条件下,充分释放芯片算力,助力各业推进AI革命,是国内算力行业面临的核心问题。
从上文的一些参数对比来看,在7nm制程内,国产GPU似乎并不差,甚至能在一些指标上“超越”英伟达。
但仔细观察会发现,国内芯片厂商官宣的芯片参数往往会有一个前缀,即“单芯片峰值”。“单芯片峰值算力”通常指一块芯片在不考虑内存带宽、功耗限制、温度限制等实际应用条件的理想情况下,所能达到的最大计算能力。换言之,“峰值算力”仅反映了芯片理论上的最大处理能力,并不能完全客观代表芯片的真实性能。
更重要的事,大模型所消耗的算力,需要成千上万块芯片互联形成算力集群来提供,这便不再是单纯的芯片设计或制造问题,而是一个涉及到软硬结合以及整个算力生态建设的工程问题。
现在很多已经投入运营的智算中心里,国产芯片的使用率并不高。一位数据中心负责人透露,其所在的数据中心正式投入运营的算力中,大概只有1/3是国产芯片。
谈及国内企业“不爱用”国产芯片的原因,中国工程院院士、清华大学计算机科学与技术系教授郑纬民近期在服贸会上直言,主要是软件不好,而不是硬件太慢,“哪怕我们的硬件性能只有人家的50%、60%,生态做好了大家都会喜欢用”。
但生态建设注定是一个长期过程。
所谓“生态”背后,涵盖了从硬到软的整套技术栈。郑纬民教授在服贸会演讲中指出,想改变国产卡的生态,要做好10个核心基础软件,即并行系统、编程框架、通信库、算子库、AI编译器、编程语言、调度器、内存管理、容错系统、存储系统。
从前文的梳理中可以看到,几乎每一家GPU企业都会基于自家的硬件产品推出相应的软件栈。为降低企业或个人开发者的迁移成本,国产GPU厂商往往会将软件生态与CUDA兼容。但由于CUDA不开源,加上无数开发者在持续丰富CUDA生态,创业公司想完全兼容CUDA,技术上就很难以实现,更不用说阴晴不定的“卡脖子”政策——今年4月,英伟达宣布禁止在其他GPU上通过转译层运行CUDA软件,国产算力生态的建设需求越发紧迫。
然而,除软硬件协同的问题外,目前国内的算力生态问题还体现在很多难以察觉的细微之处。
澜舟科技合伙人、联席CEO李京梅近期在服贸会上分享道,过去一年澜舟科技自身的训练成本并没有明显降低。当客户有私有化需求时,模型厂商需要根据客户的实际需求,在客户能够买到的卡上部署模型,这有带来了大量适配的不确定性,例如模型效果被改变,问同样的问题,答案变了,就需要研发人员重新训练或调试模型,这也会增加研发侧的时间、人力和费用成本。
因此,对国产芯片厂商而言,真正实现“国产替代”,可谓道阻且长。
正如达晨财智执行董事姜铭所言:“我们构建生态是需要时间的,是一个持续的过程,不仅是需要独角兽自己的技术实力和积累,更多还是需要全行业的生态者去往他们的生态里做贡献,这是一个长期的过程。”
在加速培育生态的同时,国产芯片厂商面临的更棘手的问题,是如何盈利。
中国半导体产业协会的最新数据显示,截至2023年,中国有3243家芯片设计公司,其中超过一半公司年收入不到1000万元人民币。可以预见,这些企业如果找不到赚钱的路径,很可能会在今年被写入死亡名单。
而上文提到的五家头部厂商中,无论是摩尔线程的数字人解决方案,还是燧原科技的MaaS服务,亦或是几乎所有芯片企业都在与运营商、云服务商或大模型厂商寻求合作,构建智算中心,推出AI PC、一体机等产品,都是在向产业链上下游拓展业务,寻求更多收入来源。
回看全球芯片产业发展的历程,芯片都不是单纯的“技术”或“产业”门类,而是始终与各国地缘政治、经济博弈等因素纠葛难分。但如果把视角聚焦在具体的企业身上,所有芯片公司都要回归一家企业的“本能”——赚钱。
对于此时处在风口浪尖的国产GPU厂商而言,如何活下去,似乎比远方的星辰大海更加重要。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://ylfx.com/shangxun/3905.html