正文内容 评论(0)
Intel和NVIDIA的口水大战仍在继续。这次Intel的论调是,像NVIDIA CUDA这种GPGPU通用计算编程模型是没有未来的,因为程序员们没时间学习一种新架构。
在宣布Intel迎来四十岁生日之后,Intel高级副总裁、数字企业部总经理Pat Gelsinger接受了媒体采访,期间声称CUDA技术最多不过是“计算历史长河中的一朵小浪花而已”。
他说:“计算历史上一再重复出现的一个问题是,有人想出了一个很酷的新点子,保证说会带来10倍、20倍的性能提升,但你必须面对全新编程模型的麻烦,而在通用计算模型问题上,这一障碍是无法克服的。”
Gelsinger以Cell处理器架构为例证明其观点:“它确实是一个全新的计算架构,但很多年过去了,程序员们还是很难理解如何为其编写应用程序。”
Gelsinger声称,以上就是Intel Larrabee图形芯片为何完全基于IA x86核心的主要原因。他说:“我们不会强迫程序员学习一个全新架构,而是让他们面对自己熟悉的东西,然后对现有编程模型进行拓展,加入新的视觉计算数据并行处理机制。这就是我们在开发Larrabee时的策略。它是一个IA兼容核心,加入了图形矢量视觉指令集,完全支持原生编程模型和DirectX、OpenGL等API接口。”
Gelsinger还表示独立软件开发商对Larrabee充满了热情,这也证明他们的策略是正确的,适合长期发展。
看来Gelsinger博士的观点是提倡循序渐进,不要贸然革命,尤其是不要大张旗鼓地和Intel对着干。
本文收录在
#快讯
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...