正文内容 评论(0)
六、AI测试:能运行Deepseek V3 685B大模型
这种产品已经不单纯是传统意义上的迷你机,更是一台迷你AI工作站,非常适合AI开发者,尤其是个人和小企业开发者。
1、AI Image Generation Benchmark--Stable Diffusion 1.5(FP16)
2、AI Image Generation Benchmark - Stable Diffusion XL
3、AI Computer Vision Benchmark
4、Qwen-235b
abee AI Station 395 Max迷你液冷工作站配备了128GB LPDDR5X内存,最多可以分配96GB显存。测试时我们设置为64GB内存和64GB显存。
设置如上,GPU卸载设置为58,尽可能的用掉64GB显存,提升AI算力。
235B模型实际显存占用62.8GB,目前为止在消费级GPU仅有Radeon 8060S(最大可以分配96GB显存)可以流畅运行。
我们试着让Deepseek模仿杜甫的《登高》,为黄鹤楼创作一首七言律诗,生成速度为9.84tokens/s,总计耗时1分09秒。
当然如果将显存占用提升到95GB,性能应该还能提升50%左右。
同样的命题,让豆包也写了一首《黄鹤楼》,不忍直视。
最后我们尝试了一下Deepseek V3-0324,这是一个拥有685B参数的超大规模模型,abee AI Station 395 Max迷你液冷工作站生成速度为5.86 tokens/s。








