正文内容 评论(0)
快科技8月7日消息,尽管OpenAI CEO之前否认,但业界还是相信他们已经在训练GPT-5大模型,规模将是GPT-4的10倍以上,但这也意味着更烧钱,尤其是用于训练AI的显卡极为稀缺。
全球这么多搞AI大模型的,到底用了多少AI显卡是各家的秘密,很少公开准确数据,GPT-4猜测是在10000-25000张A100显卡上训练的,GPT-5所需的显卡还是迷,马斯克估计的是30000-50000张H100显卡,性能强得多。
除了OpenAI之外,其他公司对高性能AI显卡的需求也居高不下,Meta、谷歌、微软、苹果、特斯拉及马斯克自己都在搞各种AI,预测总需求高达43.2万张H100显卡,价值超过150亿美元。
这还只是国外网友分析的美国科技行业需求,实际上国内的需求不比美国少,即便只能购买特供版的A800、H800加速卡,但这没有妨碍国内公司投身AI大模型,不惜加价抢购AI显卡。
在当前的市场上,只有NVIDIA才能满足AI显卡的需求,AMD及Intel的AI显卡不仅性能、生态上存在问题,而且供货也跟不上,AMD的大杀器MI300X要到年底才能出货,2024年才能大批量上市。
归根到底,这波又是NVIDIA赚麻了,AI显卡的需求将持续到2024年底,这一年半中都是供不应求的情况,H100显卡售价25万元起步,加价的话就难说了,涨幅波动很大。