正文内容 评论(0

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行
2026-01-12 12:27:04  出处:快科技 作者:流云 编辑:流云     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

六、AI测试:能运行Deepseek V3 685B大模型

这种产品已经不单纯是传统意义上的迷你机,更是一台迷你AI工作站,非常适合AI开发者,尤其是个人和小企业开发者。

1、AI Image Generation Benchmark--Stable Diffusion 1.5(FP16)

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

2、AI Image Generation Benchmark - Stable Diffusion XL

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

3、AI Computer Vision Benchmark

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

4、Qwen-235b

abee AI Station 395 Max迷你液冷工作站配备了128GB LPDDR5X内存,最多可以分配96GB显存。测试时我们设置为64GB内存和64GB显存。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

设置如上,GPU卸载设置为58,尽可能的用掉64GB显存,提升AI算力。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

235B模型实际显存占用62.8GB,目前为止在消费级GPU仅有Radeon 8060S(最大可以分配96GB显存)可以流畅运行。

我们试着让Deepseek模仿杜甫的《登高》,为黄鹤楼创作一首七言律诗,生成速度为9.84tokens/s,总计耗时1分09秒。

当然如果将显存占用提升到95GB,性能应该还能提升50%左右。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

同样的命题,让豆包也写了一首《黄鹤楼》,不忍直视。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

最后我们尝试了一下Deepseek V3-0324,这是一个拥有685B参数的超大规模模型,abee AI Station 395 Max迷你液冷工作站生成速度为5.86 tokens/s。

责任编辑:流云

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...