好爱生活

​英伟达出手封杀,想要维护CUDA“霸权”

点击: 来源:好爱生活
摘要:英伟达出手封杀,想要维护CUDA“霸权” 英伟达突然出手的背后,是 CUDA 的 霸权 受到威胁。 最近,软件工程师 Longhorn 注意到,安装的 EULA 文本文件中的一个条款写道: 不得对使用 S

英伟达出手封杀,想要维护CUDA“霸权”

英伟达突然出手的背后,是 CUDA 的 " 霸权 " 受到威胁。

最近,软件工程师 Longhorn 注意到,安装的 EULA 文本文件中的一个条款写道:" 不得对使用 SDK 组件生成的软件产品的任何部分进行逆向工程、反编译或反汇编,以便转换此类软件产品、从而在非英伟达平台上运行。" (You may not reverse engineer, decompile or disassemble any portion of the output generated using SDK elements for the purpose of translating such output artifacts to target a non-NVIDIA platform)

这是英伟达对于 " 禁止使用转换层在其他硬件平台上运行基于 CUDA 的软件 " 的警告。实际上,英伟达在 2021 年已经在网上公示的许可条款中禁止,不过之前这则警告并未出现在安装过程中添加到主机系统上的文档中。

而现在,这个警告已经添加到了安装 CUDA 11.6 及更新版本时所附的最终用户许可协议(EULA)中。

英伟达针对 CUDA 11.6 及更高版本的突发举动,引发了业内震动。不少人士认为,这一招是针对 Intel、AMD 都有参与的 ZLUDA 等第三方项目,摩尔线程 MUSA、登临科技 GPU+ 以及中国厂商的兼容方案。

英伟达突然出手的背后,是 CUDA 的 " 霸权 " 受到威胁。

01 CUDA 的 " 霸权 "

CUDA 是什么?简单来说,CUDA 是英伟达推出的并行计算框架。

CUDA 不仅可以调用 GPU 计算,还可以调用 GPU 硬件加速,让 GPU 拥有了解决复杂计算问题的能力,可以帮助客户为不同的任务对处理器进行编程。

在 CUDA 之前,英伟达的 GPU 仅仅是一个负责在屏幕上绘制图像的 " 图形处理单元 ",也就是原本只能当作独立显卡的存在。有了 CUDA 后,GPU 就可以通用了。GPU 通用的意思就是,所有类似显卡运算的简单量大的工作,GPU 都能干。例如 AI 深度学习,就需要 GPU。

CUDA 之于英伟达,可以说是历史的转折点。

自从 2006 年开始,英伟达将大笔资金投入到 CUDA 的研发中。为了把旗下的所有芯片都纳入 CUDA 的架构里,英伟达累计花了超过 100 亿美元。

2009 年开始,也就是 CUDA 推出两三年后,英伟达每年的研发费用从营收的 15% 陡增到 25% 甚至 30%。为了显示这个研发费用的超高,给大家举几个例子:苹果每年不足 10%,微软每年 15%-20%,英特尔每年 20% 左右。

所以可以看出来,英伟达在 CUDA 里,投入了大量的财力。

同时,CUDA 的出现,也确实让英伟达在 AI 芯片领域快速起飞。CUDA 推出后,英伟达迅速打开了新业务的大门,在航空航天、天文学、气象学领域里都有 GPU 的身影。

深谙需要利用工具和应用来帮助扩展自己的市场的英伟达,对于 CUDA 的策略是:" 不开源,但免费提供,并处于英伟达的严格控制之下。"

因此,英伟达为人们获取自身硬件设置了非常低的门槛,包括 CUDA 工具包。CUDA 在 " 使用人数越多,CUDA 平台就越好用,新开发者就越倾向于选择 CUDA" 的良性循环中,加固了生态优势。

知名分析师本 · 汤普森(Ben Thompson)曾说:" 英伟达既不是一家硬件公司,也不是一家软件公司:它是一家将两者融为一体的公司。"

CUDA 最强的护城河事实上在于软件 - 芯片协同设计。英伟达强大的软硬件协同完善的生态,让第三方软件公司难以打破英伟达的 CUDA 领先地位。

尝试超越 CUDA 的企业往往会出现三种可能。

第一种,陷入追赶状态。第三方软件公司在研究透彻英伟达的 GPU 后,需要半年到一年的时间才能实现性能基本匹配 CUDA,但很难在新 GPU 发布后立即实现性能匹配甚至领先。

第二种,时间滞后。第三方软件公司适配新的人工智能加速硬件需要时间,而在一年后等到其方案达到接近 CUDA 的水平时,英伟达已经发布了下一代 GPU。这种时间滞后导致芯片公司无法及时利用最新的技术。

第三种,无法打破领先地位。由于英伟达的不断创新和市场领先,第三方软件公司很难打破这种局面。他们不仅面临着技术上的挑战,还面临着市场竞争的压力。

英伟达靠着 CUDA 绑定了数百万 AI 开发者,吸引着大型云计算公司采购它的 GPU。目前,CUDA 生态合作者规模翻倍增长。

根据英伟达 2023 财年年报,目前有 400 万名开发者正在与 CUDA 合作,而且规模还在不断扩大。英伟达通过 12 年的时间达到 200 万名开发者,在过去的两年半里该数字翻了一番。目前 CUDA 的下载量已经超过了 4000 万次。

02 CUDA 的兼容问题

事实证明 CUDA 和英伟达硬件的结合非常高效,大批程序都依赖这种结合。然而,随着更多竞争性的硬件涌入市场,更多的用户倾向于在与英伟达竞争的平台上运行其 CUDA 程序。

有两种方法可以做到这一点:重新编译代码(这种方法可供相应程序的开发人员使用),或使用转换层(也就是兼容)。

其实这里的 " 兼容 " 并不是真正的兼容。因为 CUDA 不是开源代码,是 " 黑盒子 ",因此 100% 兼容 CUDA 在技术上是无法实现的。这里是说,通过架构的相似性,使产品可以比较容易地运行 CUDA 的代码。

使用像 ZLUDA 这样的转换层是在非英伟达硬件上运行 CUDA 程序的最简单方法。你要做的就是拿来已经编译好的二进制代码,然后使用 ZLUDA 或其他转换层运行它们。

谈到这里,我们可以一起来了解一下 ZLUDA。其实,这个项目是在 2020 年时候开始的,被描述为‘英特尔 GPU 上 CUDA 的直接替代品’。这个项目提出了一个概念:在非英伟达显卡上运行未更改的 CUDA 应用程序。

不过,随着英特尔、AMD 转向支持自有软件平台,ZLUDA 现在似乎举步维艰。今年 2 月,AMD 放弃资助 ZLUDA 项目。受到资金的限制,"ZLUDA" 项目已经在 GitHub 上开源。

现在,英伟达已经禁止第三方公司兼容 CUDA。

显而易见,使用转换层威胁到了英伟达在加速计算领域的霸主地位,尤其是在 AI 应用领域。这可能是英伟达决定禁止使用转换层在其他硬件平台上运行 CUDA 应用程序背后的初衷。

其实,从全球来看,许多国外的做算力芯片企业,例如 Graphcore、SambaNova、tenstorrent,没有一家兼容 CUDA。而之所以不去兼容 CUDA,归根结底,是因为各家希望探索出更适合做 AI 计算的路。

许多算力芯片企业选择在软件栈上另辟蹊径,主要是因为担心 " 兼容 "CUDA 会成为自家产品发展的 " 天花板 "。

03 CUDA 遭到业内 " 炮轰 "

其实,英伟达的 CUDA 一直是业内被频频提及的话题。

在去年 12 月时,英特尔 CEO 帕特 · 基辛格曾公开抨击英伟达,称其 CUDA 技术护城河又浅又小,并声称对于人工智能来说推理技术将比训练更重要。

在接受采访的时候,基辛格还在暗示英伟达 CUDA 的主导地位不会永远持续下去。

基辛格说到:" 你知道,整个行业都在想如何消灭 CUDA 市场。"" 我们认为 CUDA 护城河又浅又窄。因为整个行业都致力于为广泛的训练、创新、数据科学等领域带来更广泛的技术。"

顶级芯片大师吉姆・凯勒也在今年 2 月发布推文,吐槽英伟达 CUDA,认为 CUDA 是 " 沼泽 " 而不是 " 护城河 "。

凯勒在后续推文中表示:"CUDA 毫无美感,只是粗暴地堆砌而成。基本上没有人会写 CUDA,即便是写了相关代码,其执行速度也不快。这也是为何 Triton、Tensor RT、Neon、Mojo 孕育而出的原因。"

凯勒认为 CUDA 像 X86 一样,英伟达为了确保软件和硬件的向后兼容性,逐步增加功能的过程中拖慢了性能,增加了程序开发的难度。与此同时,许多开源软件开发框架可以比 CUDA 更高效地使用。

不过,此前 Semi Analysis 首席分析师 Dylan Patel 曾表示:" 随着 PyTorch 支持更多 GPU 厂商,再加上 OpenAI 的 Triton 搅局,英伟达手中的利器 CUDA 逐渐锋芒不再。"

Triton 实际上是 Open AI 推出了个 " 简化版 CUDA"。Triton 是种新的语言和编译器。它的操作难度比 CUDA 低,但性能却可与后者媲美。

OpenAI 声称:"Triton 只要 25 行代码,就能在 FP16 矩阵乘法 shang 上达到与 cuBLAS 相当的性能。" 值得一提的是,Triton 是开源的。相较于闭源的 CUDA,其他硬件加速器能直接集成到 Triton 中,大大减少了为新硬件建立 AI 编译器栈的时间。

04 国内企业作出回应

在国内,目前一部分国产 GPU 厂商采取兼容 CUDA 的策略,以确保用惯了英伟达产品的客户在迁移时没有障碍。另外也有厂商着手培育自己的软件生态,其中包括摩尔线程、壁仞科技、登临科技等。如摩尔线程推出基于旗下 GPU 产品的 "MUSA" 软件架构。

昨日晚间,摩尔线程发布声明,强调摩尔线程 MUSA/MUSIFY 未受影响。摩尔线程 MUSA/MUSIFY 不涉及英伟达 EULA 相关条款,开发者可放心使用。

摩尔线程表示,MUSA 是摩尔线程自主研发、拥有全部知识产权、软硬一体的全功能 GPU 先进计算统一系统架构,与 CUDA 无任何依赖关系。

MUSIFY 是摩尔线程面向广大 MUSA 开发者提供的开发工具,方便用户在 MUSA 计算平台上进行应用移植与开发,可以让开发者将自己的 C++ 源代码,转换成 MUSA C++ 源代码,再通过 MUSA 编译器 MCC 编译生成基于 MUSA 指令集的二进制代码,最终运行在摩尔线程全功能 GPU 上。

总体来说,目前,英伟达只是在 CUDA 11.6 协议中增加了警告条款,尚未有实际行动。不过,这次警告,也代表着英伟达对兼容 CUDA 的一种态度。

重新编译现有的 CUDA 程序仍然完全合法。为了简化这项工作,AMD 和英特尔都有工具将 CUDA 程序分别移植到 ROCm(1)平台和 OpenAPI 平台上。

AMD 于去年 12 月发布 ROCm 6.0 之后,正马不停蹄地推进 6.1 版本更新,从而进一步增强同英伟达 CUDA 的竞争力。AMD 在 2 月向 GitHub 公共仓库提交了大量关于 ROCm 6.1 的提交,这表明 AMD 有望在近期发布新版本。

相关文章

    ​王慧文病休后的遗憾,阿里腾讯掏23亿美元弥补

    ​王慧文病休后的遗憾,阿里腾讯掏23亿美元弥补

    ​别只盯着带货榜,小杨哥已经是青年企业家了

    ​别只盯着带货榜,小杨哥已经是青年企业家了

    ​爱奇艺2023年报: 轻舟已过万重山

    ​爱奇艺2023年报: 轻舟已过万重山

    ​智己汽车陷入“内耗”

    ​智己汽车陷入“内耗”

    ​B站破亿短视频,为什么都是鬼畜?

    ​B站破亿短视频,为什么都是鬼畜?

    ​不是巴黎去不起,而是郑州更有性价比

    ​不是巴黎去不起,而是郑州更有性价比

    ​李想的长衫,穿不住了?

    ​李想的长衫,穿不住了?

    ​京东补贴这一年:收入没涨,钱没少赚

    ​京东补贴这一年:收入没涨,钱没少赚

    ​AI手机等待iPhone时刻

    ​AI手机等待iPhone时刻

    ​OpenAI撕下马斯克的“画皮”?

    ​OpenAI撕下马斯克的“画皮”?

    ​为什么现在的猪肉越来越难吃

    ​为什么现在的猪肉越来越难吃

    ​my lady的意思中文翻译 My lady翻译

    ​my lady的意思中文翻译 My lady翻译

    ​干煸鱿鱼丝家常做法是什么

    ​干煸鱿鱼丝家常做法是什么

    ​憨憨有没有骂人的意思 憨是不是骂人

    ​憨憨有没有骂人的意思 憨是不是骂人

    ​刺身是不是就是生吃的意思 生吃为什么叫刺身

    ​刺身是不是就是生吃的意思 生吃为什么叫刺身

    ​蝙蝠的寓意是 蝙蝠的象征意思

    ​蝙蝠的寓意是 蝙蝠的象征意思