近日,中国AI公司DeepSeek的CEO表示,尽管受到美国出口限制,DeepSeek依然拥有50,000块NVIDIA H100 AI GPU。这些GPU被用于训练其最新的AI模型,使得DeepSeek的R1模型能够与OpenAI的o1和Meta的Llama等顶级AI模型相媲美甚至超越。
DeepSeek R1是目前世界上最先进的AI模型之一,它在最近的一次采访中,Scale AI创始人兼CEO Alexander Wang表示,DeepSeek R1在他们公司的最困难的AI测试中表现优异,甚至超过了所有顶级的AI模型。
在一次由CNBC进行的采访中,Wang提到DeepSeek的新AI测试“人类的最后一场考试”中,包含了来自数学、物理、生物和化学教授们的最难问题。经过对最新AI模型的测试后,Wang的团队发现DeepSeek的新模型实际上表现最佳,或者至少与最好的美国模型(如o1)相当。
尽管美国长期以来在AI领域处于领先地位,但Wang认为DeepSeek的新模型试图改变这一现状。他指出,DeepSeek选择在圣诞节这样的节假日发布其地球级模型,这象征着中国实验室正在取得重大突破。
DeepSeek利用了NVIDIA的Hopper AI架构中的H100和H200 AI GPU来训练其AI模型。然而,拜登政府实施的限制措施旨在阻止强大的AI GPU进入中国市场。尽管如此,Wang告诉CNBC,获取先进AI芯片到中国似乎并不那么困难。他透露,DeepSeek大约拥有五万块H100 GPU,并且这种数量超出了人们的预期。
在未来,获取先进AI芯片将受到芯片控制和出口控制的限制。然而,DeepSeek的策略不仅仅是依赖硬件,而是通过软件驱动的资源优化和开源方法来加速技术发展。悉尼科技大学的副教授Marina Zhang研究了中国的创新,她指出,DeepSeek专注于最大化软件驱动的资源优化,并采用开源方法,汇集集体智慧,促进合作创新。这种方法不仅缓解了资源约束,还加速了尖端技术的发展,使DeepSeek区别于更封闭的竞争者。