正文内容 评论(0)
图3中的回归曲线的斜率表示通过换算,能从理论的单精度计算能力来推测显卡的实际性能,利用这些信息以及显卡本身已知的单精度浮点性能,笔者可以大概推测出其它类似架构的GPU性能。根据图3,NVIDIA显卡的单精度浮点性能和3DMark Vantage GPU成绩的换算系数大概是14.14,AMD的大约是6.31,这也是两条回归曲线的实际斜率数值。斜率意义重大,如果这个模型是准确的话,只要将显卡的单精度浮点性能除以斜率,就大概知道显卡的3DMark Vantage GPU测试成绩。
为了评估这两条预测曲线的精度, 笔者将模型与几个用于桌面GPU实际的性能进行比较。不过在原始数据中,有关桌面GPU的信息很少,因此导致在选择显卡并进行对比时, 受到了比较大的局限。不过最终还是找到了7个可以用于比较的数据, 其中五个数据来自NVIDIA,另外两个数据来自AMD。从表1来看,图3的回归曲线的精确度还是很高的。尤其是在NVIDIA的GPU上,绝大多数的NVIDIA GPU产品的误差范围都在3%以内,最大误差出现在GeForce GTX 460,达到了+7%,意味着其性能表现比预计的更好。但是在AMD产品中,回归曲线出现了一定的预测误差,例如Radeon HD 5850的误差在-6%左右,而Radeon HD 4850则达到了-15%左右。由于模型比较简单,这样的结果还是可以接受的。
表1:性能统计
显卡名称 |
单精度浮 |
点能力 |
预测性能 |
实际性能 |
GeForce GTX 580 |
1581 |
22351 |
23179 |
-3.57% |
GeForce GTX 570 |
1405 |
19867 |
20620 |
-3.64% |
GeForce GTX 470 |
1089 |
15390 |
15189 |
1.32% |
GeForce GTX 460 |
907 |
12825 |
11994 |
6.93% |
Radeon HD 5850 |
2088 |
13171 |
14028 |
-6.11% |
Radeon HD 4850 |
1000 |
6308 |
7436 |
-15.17% |
用户也可以根据斜率来进一步使用单精度浮点性能,来预测任意GPU的3DMark Vantage GPU分数(必须是DirectX 10的显卡),然后和实际的3DMark Vantage GPU分数进行对比,并比较误差。下面是两个计算公式:
NVIDIA显卡的3DMark Vantage GPU分数=GPU单精度浮点性能×14.14
AMD显卡的3DMark VantageGPU分数=GPU单精度浮点性能×6.31
由于该模型的预测结果不错,接下来笔者会进一步进行一些处理,将文章开篇的模型公式重新变化、调整,并加入峰值性能的概念后,得到下列公式:
图形性能=流处理器数量×频率×IPC/指令数目=峰值单精度浮点性能×斜率
将这个公式变化一下,又可以得到两个公式,分别是:
IPC/指令数目=峰值IPC×斜率
斜率=IPC/(峰值IPC×指令数目)=有效核心数量/指令数
经过公式的转换和变形后,从最终斜率来看(图5、图6),可以得到AMD和NVIDIA在GPU内核架构设计上的差异性。一般说来,GPU的峰值单精度浮点速度是由Shader Core的数量乘以频率再乘以IPC峰值得到的,峰值和实际效能的差距则代表了AMD和NVIDIA在驱动设计和架构设计方面的差距和不同——NVIDIA回归曲线的斜率大约是AMD的2.2倍,这意味着NVIDIA架构的效率也达到了AMD架构的2.2倍。请注意,这只是理论上的,并非表示在实际游戏中也有这样的差异。或许这也从侧面证明了为什么AMD要对传统的VLIW 5架构作出重大调整(变更为VLIW4),并最终将其抛弃开发了全新的GCN。