作者jk21234 (BL2400PT真不错)
站内PC_Shopping
标题Re: [情报] NVIDIA 宣布开放 CUDA 原始码
时间Wed Dec 14 21:55:48 2011
※ 引述《jackblack (Hsien)》之铭言:
: 不知道是不是由於 AMD 最近在 OpenCL 的开源方面动作带来的压力,NVIDIA 宣布开放旗
: 下的通用 GPU 运算 CUDA 编译器原始码。
: 在 GTC Asia 上 NVIDIA 宣布将其通用图形处理器运算技术的 CUDA 的编译器开源(尚未
: 明确表示将采何种开源协定),从而允许软体厂商将 CUDA 程式移植到其他非 NVIDIA 设
: 备上。业界推测此举可能是由於很多软体厂商受到来自客户方面的压力,要求将迁移到更
: 加开放的高性能运算平台比如 OpenCL 上。
: 此外 NVIDIA 还宣布将和大学建立 CUDA 教育中心,在学生中传播平行运算的技术。
: 来源:
: http://goo.gl/V9u8e
: http://linuxtoy.org/archives/nvidia-open-sourced-cuda.html
[当日没有查证原始消息 重写]
其实CUDA的compiler两年前就Open Source一半了.大概是这样
CUDA-->WHIRL-->CGIR-->ptx
两年前12月Open Source的是後半段(编译器相关领域中 称为backend的部分)
CGIR-->ptx的部分,至於CUDA-->WHIRL这边并没有Open Source,而且它也不是
用整套Open64做出来,是另外一家商业公司(忘了谁....)完成的.
但是没关系,早期的CUDA compiler为了debug方便,
下个参数就会把WHIRL印出来给你.所以就算没有Open Source,
会维护Open64的人都有办法自己做CUDA to WHIRL,或者是抄一下变成
OpenCL to WHIRL之类的
题外话不说,CGIR-->ptx把它Open Source,有甚麽好处?就是可以吸取一些
免费的人力来帮他的性能更为加强...但我看放了这麽久,好像没有人在帮忙改.
如果说帮忙移植後端在其他硬体上的话,也是两年前就可以做得到的事情但没有人改.
[正文开始]
但现在不同,新闻中要Open Source的CUDA,不像是以前基於Open64,而是
基於
LLVM,相对於影响力还很小的Open Source(要写信去申请才有而非
GPL/BSD),重点是nVidia把CUDA转移到
LLVM上这件事情,有甚麽好处呢?
LLVM是Apple主推的编译器,所以目前的MacOC,未来的iOS,未来的Android
以及其他手持装置,基本上只有LLVM的份没有Open64的份,所以CUDA
转用
LLVM的主要目标是打入这些市场,也等於是
继续全面向OpenCL开战
简单说,以後会在更多有OpenCL的平台,看到CUDA参一脚.
至於CUDA原有的高性能计算平台会不会换,OpenCL有没有办法
进入...我认为短期内还不会.
对一般的程式开发者有没有甚麽差别呢....?看来差异是很小,
你会CUDA与法你就会OpenCL语法,反之也一样.我建议顺便研究
OpenMP和OpenAAC这两套也是相似的语法.
顺便推销一下,12/21日於交大有OpenCL的研讨会,主讲者
AMD - 朱子青 博士(也是Itanium Compiler的主要发展者之一),
有兴趣者可以在12/19日前到
http://esw.cs.nthu.edu.tw/
报名
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 114.32.237.63
1F:推 pomelo168168:jk神必推 12/14 22:01
2F:推 oncelove:意思是说ati支援cuda还有得等? 12/14 22:08
应该说 有点时间就可以做出来编译器,因为Open Source了
但是你可能要另外很多很多的时间把底层的library支援做出来.
3F:推 AXby:快推以免别人误会我们看不懂! 12/14 22:18
4F:推 soem:清大还交大? 怎麽好像跟我看到的讯息不一样?...XD 12/14 22:19
5F:→ hihjk:写驱动跑光 开放给大家乱写? 12/14 22:19
不太可能....nVidia的 driver team虽然人很多分工很细,
但在Windows上还是足够的.剩下只有Mobile平台进不进的去的问题.
6F:推 pertonas:现在NV在推MAXIMUS 不知JK有什麽看法 ?? 12/14 22:28
可以当成CUDA的应用层模式之一吧
7F:推 a7376632:所以之後有可能会在手持式平台上使用CUDA吗? 12/14 22:39
这就是nVidia的目的.所以才转用LLVM
8F:推 OK8066889:专业好文 推 12/14 23:30
9F:→ QuentinHu:看不懂但还是要推 12/14 23:43
10F:推 maplemeowcat:惨了看不懂 推就对了 12/15 00:00
11F:推 a7376632:看来下礼拜3还是要去听CL的课程了XD 12/15 00:03
12F:→ jk21234:那我会站起来提问,AMD FFT比人家CUDA慢20倍 要怎麽办 12/15 00:26
13F:推 a7376632:那我会给你拍手~~ 12/15 00:29
14F:推 mark9462:那不就知道jk大的真面目了(误) 12/15 00:34
15F:→ eva19452002:要赶快推,免得别人说我们看不懂 12/15 09:35
16F:推 laoh:一般应用大多是求快速开发出来先吧, 极致效能就再说 XD 12/15 10:23
消费等级应用是没差,GPU计算比理论值慢了20倍.还是电过同价位的cpu很多倍.
17F:→ quamtum:那directcompute除了开发游戏外还有人在玩吗? 12/15 10:40
18F:推 dogmimi:看起来NVidia已经没招了 还是乖乖做OpenCL就好吧 12/16 07:19
19F:→ dogmimi:就我个人经验 後期Fermi架构的显卡 OpenCL Performance 12/16 07:20
20F:→ dogmimi:都和CUDA很接近了 再说为什麽要同时支援二套呢? 12/16 07:21
虽然性能很接近,但是LLVM和Open64还是至少差了20%.高性能应用
有差.然後又让CUDA改头换面打进OpenCL适用的MacOC,iOS,手持平台等.
21F:推 vitoman:快推不然人家以为我看不懂 12/17 02:55
※ 编辑: jk21234 来自: 114.37.140.120 (12/17 12:58)
22F:推 dogmimi:我不知道是否真的有差到20% 但是连CUDA4.1都是用LLVM噜~ 12/21 13:47
23F:推 a7376632:j大刚刚有来吗 12/21 14:34
24F:→ jk21234:我有去 就提问我预告一样的问题啊 12/21 23:29