熱點觀察
自ChatGPT橫空出世,算力便被視作大模型產業創新的核心驅動力。這一趨勢使得GPU(圖形加速芯片)的地位急速攀升,甚至成為AI產業發展的關鍵制約因素,也就是我們常常聽到的“卡脖子”。
然而,這種趨勢卻被我國一家成立僅一年半的人工智能創業公司深度求索(下稱DeepSeek)終結。近日,DeepSeek僅憑借2048張英偉達GPU加速卡,在短短兩個月內成功訓練出擁有6710億參數的開源大模型DeepSeek-V3,著實讓剛高呼著進入“萬卡”時代(1萬張以上的加速卡組成的算力系統)的AI大模型產業界驚掉了一地的“下巴”。
從測評數據來看,相對于全球公認的頂級大模型GPT-4o,DeepSeek-V3的訓練成本僅為其二十分之一、輸入+輸出的售價也只有GPT-4o的十分之一,性能已然趕超GPT-4o。
還處在研發階段的GPT-5,或許更強。但OpenAI立項GPT-5已經一年半有余,目前也只做了兩輪訓練,且每輪訓練僅計算成本就接近5億美元。這也意味著,人們所期待的新一代通用大模型訓練成本已經達到十數億美元,甚至還會更高。產業界估計,按照這種傳統的訓練路徑,未來3年內大模型的訓練成本將上升至100億美元,甚至上不封頂。
這種大參數、大算力、大投入的研發模式,對于實力稍弱的AI企業來說,無疑是一道難以逾越的門檻。即便能“組局”成功,這種成本結構下產出的大模型產品,又有多少人能用得起呢?
再來看DeepSeek-V3,它證明了即使在硬件資源有限的情況下,通過數據與算法層面的優化創新,依然能夠高效利用算力,實現一流的大模型性能,同時還能大幅降低應用成本。其實,早在去年5月發布的DeepSeek-V2,就成功以“價格屠夫”的方式殺入市場,讓一眾大模型產品不得不跟進降價。“AI界拼多多”的稱號,絕非浪得虛名。
性價比方面,DeepSeek已經甩了OpenAI等業界大佬好幾條街了。在AI領域,一直有這樣的說法:硅谷企業擅長從0到1的創新,而中國企業則在從1到10的應用拓展上更具優勢,因為中國擁有廣闊的應用市場。
對于大模型產業而言,性價比已成為阻礙產業規模化應用的關鍵因素,DeepSeek的出現為解決這一難題提供了新思路。
當前,AI大模型仍處于技術創新的爆發階段,距離應用的全面爆發還有一段路要走,這也意味著產業發展充滿變數與機遇。不可否認,今天的英偉達市值逆天、GPU產品也供不應求,但如果DeepSeek的成功可以復制,產業界不再執著于萬卡集成的研發路徑時,GPU的主導地位還能持續多久呢?
大模型創新的另一種可能,不僅出現在AI產業,通信、芯片、量子計算等前沿科技領域也正悄然發生著改變。科技創新的魅力在于,它永遠蘊含著無限的可能性,并不斷突破邊界。
下一篇:返回列表
【免責聲明】本文轉載自網絡,與科技網無關。科技網站對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。