国产免费无码不卡A片视频喷水_3p一女两男三飞做爰视频_91九色视频在线观看_14小箩洗澡裸体高清视频_影音先锋成人网

當前位置: 首頁 > 書畫

大模型激戰(zhàn)半年:王小川進擊、王慧文退場,騰訊字節(jié)姍姍來遲

日期:2023-08-14 18:32:51 來源:時代財經(jīng)

本文來源:時代財經(jīng) 作者:謝斯臨

圖片來源:Pixabay

國產(chǎn)通用大模型的混戰(zhàn)遠未結束。在半年左右的蟄伏期過后,大部分玩家都浮出了水面。


(資料圖)

在這之中,有人加速迭代。8月8日,由搜狗搜索創(chuàng)始人王小川創(chuàng)立的百川智能發(fā)布了旗下第三款大模型產(chǎn)品Baichuan-53B,背后訓練參數(shù)高達530億。此時距離王小川宣布進軍大模型戰(zhàn)場不過4個月的時間,這家創(chuàng)業(yè)公司進展神速。

這還只是一個開始,百川智能方面向時代財經(jīng)透露,后續(xù)還會有多款產(chǎn)品發(fā)布,包括規(guī)模更大、參數(shù)超千億的大模型。

也有人黯淡退場。由美團聯(lián)合創(chuàng)始人王慧文創(chuàng)立,吸引源碼資本、五源資本等知名VC機構,以及美團創(chuàng)始人王興、快手創(chuàng)始人宿華等互聯(lián)網(wǎng)大佬投資的光年之外,曾一度被市場認為是國內大模型戰(zhàn)場上最強有力的玩家之一。

然而,隨著6月下旬王慧文因健康問題離崗退出,無法繼續(xù)執(zhí)掌光年之外,這家備受期待的大模型創(chuàng)業(yè)公司只能賣身美團,一眾投資人也隨之退股。

還有人另辟蹊徑。AI大牛周明創(chuàng)立的瀾舟科技,強調輕量化模型,希望用更低的成本解決B端場景問題。而曾幫助谷歌將BERT模型的訓練時間從3天降到76分鐘的新加坡國立大學校長青年教授尤洋,則成立了潞晨科技,試圖用低成本訓練大模型的解決方案突圍。

相比之下,大廠自研的大模型則姍姍來遲。直到8月初,騰訊自研的混元大模型和字節(jié)打造的AI對話類產(chǎn)品Grace才先后傳出內測消息,具體面世時間仍未可知。

同樣停留在測試階段的,還有李開復創(chuàng)立的AI 2.0企業(yè)“零一萬物”。在7月3日舉辦的對外交流會上,李開復透露,該公司在三個月內已實現(xiàn)百億參數(shù)規(guī)模的模型內測,目前正向300億—700億參數(shù)規(guī)模擴大。不過,該產(chǎn)品至今仍未向市場開放。

這些仍未發(fā)布的大模型產(chǎn)品將為科技行業(yè)帶來什么樣的改變,值得市場期待。從這個角度來看,這場混戰(zhàn)或許還要持續(xù)很久。

進擊的王小川

由王小川創(chuàng)立的百川智能,正以其驚人的產(chǎn)品發(fā)布速度吸引市場的關注。

在其4月宣布下場做大模型后,僅用了兩個月零五天的時間,就在6月15日發(fā)布70億參數(shù)開源大模型Baichuan-7B。不到一個月時間,又發(fā)布了130億參數(shù)開源大模型Baichuan-13B。

8月8日發(fā)布的Baichuan-53B,已經(jīng)是這家大模型創(chuàng)業(yè)公司半年內發(fā)布的第三款產(chǎn)品,百川智能進展神速。

百川智能相關負責人回復時代財經(jīng)表示,公司在創(chuàng)立之前就已經(jīng)花了很多時間做前期準備,開始就把路線和方法想得比較清楚。

其指出,做大模型都會考慮三個層面:數(shù)據(jù)、算法和算力。拋開算力不說,做搜索的公司天然有優(yōu)秀的數(shù)據(jù)能力,百川智能的核心團隊此前已經(jīng)做了20年的數(shù)據(jù)抓取、抽取、清洗、去重、反垃圾等操作,可以更快拿到高質量數(shù)據(jù)集。

而算法是以自然語言處理為中心,將算法工程進行迭代,不是單一的工程問題,而是在文本數(shù)據(jù)驅動下,算法和工程共同運行。此前在搜索領域積累的經(jīng)驗在這里也能很好地發(fā)揮作用,利用數(shù)據(jù)評價推動模型進步。

“有了之前多年的技術和經(jīng)驗積累,百川智能做大模型產(chǎn)品的速度才會又快又好?!?/p>

不過,在發(fā)布會上,王小川亦指出,當下國產(chǎn)通用大模型仍處在一個分型復刻的階段。各家廠商基本都在對標OpenAI,不可避免地會出現(xiàn)同質化的問題。

正因如此,在他看來,與美國閉源大模型的頭部格局已定的情況不同,“中國誰的大模型最好”現(xiàn)在并沒有結論。在這場混戰(zhàn)之中,錢是重要的,但最終決定的力量還是人和團隊、組織能力。大廠錢多、人多、算力多,但組織效率通常不一定夠好,創(chuàng)業(yè)公司的組織效率可能好,也可能不好。

“大家都在爭取機會,而且不一定落在大廠里。”

王小川還在采訪中談及退場的王慧文。其指出,王慧文是國內幾個主流做大模型里唯一一個沒有強勢技術背景的,對他的挑戰(zhàn)比其他家要大。工作中要做大量的技術決策,招什么人、走什么技術路線圖、需要多少計算資源,一定會面臨非常多的決策壓力。

“不是做大模型壓力大,是沒有技術背景做決策壓力會大很多。但是技術足夠的話,其實挺愉悅的。”

騰訊、字節(jié)姍姍來遲

大模型混戰(zhàn)開啟之初,互聯(lián)網(wǎng)大廠因為坐擁更多算力、人才、資金和數(shù)據(jù),被認為是強大的競爭對手。

百度自研的文心一言早在今年3月底就已率先落地;阿里打造通義千問緊隨其后,在4月11日舉辦的阿里云峰會上揭曉。就在阿里發(fā)布通義千問的前一天,王小川才剛剛宣布下場,成立百川智能。

相比之下,同為一線大廠的騰訊跟字節(jié),推出通用大模型的步調要慢許多。

8月3日,據(jù)36kr報道,騰訊自研的 “騰訊混元大模型”已經(jīng)進入應用內測階段。三天后,8月6日,字節(jié)旗下的AI對話類產(chǎn)品Grace也被爆出歷經(jīng)兩個月的研發(fā)后,終于進入測試階段。

此時距離百度發(fā)布文心一言已經(jīng)過去4個月。對于騰訊通用大模型產(chǎn)品步調稍慢的原因,馬化騰曾公開表示,“騰訊也一樣在埋頭研發(fā),但是并不急于早早做完,把半成品拿出來展示。”

不過,“并不著急”的騰訊,還是在今年6月中旬率先公布了“行業(yè)大模型”的路線,一口氣拋出10大行業(yè)超過50個解決方案。無獨有偶,字節(jié)跳動也同樣在6月發(fā)布大模型服務平臺“火山方舟”,通過集成多家AI科技公司及科研院所的大模型,向企業(yè)提供全方位的平臺服務。

市場曾一度認為,行業(yè)大模型將成為這兩家大廠突圍的方法。

但事實或許并非如此。當下被鼓吹的行業(yè)大模型始終存在著被替代的風險??拼笥嶏w總裁吳曉如曾向時代財經(jīng)指出,10年前,在語音識別技術上,也曾誕生過諸多聚焦在通話、行車、辦公等不同場景的專用模型,但隨著通用模型技術的成熟,專用模型也隨之退場。

“我認為大模型也會經(jīng)歷一樣的階段。”

相比之下,從更長遠角度看,通用大模型才真正代表著一個平臺級或顛覆性的大機會。正是因此,騰訊和字節(jié)都不可能放任自己錯過,哪怕進度緩慢,但它們必定要堅持在場。

有騰訊內部人士向時代財經(jīng)指出,騰訊的計劃一直是兩條腿走路,通用和行業(yè)齊頭并進。只是與一些激進的廠商相比,旗下產(chǎn)品涵蓋社交、游戲、廣告、內容創(chuàng)作等多個領域的騰訊,要更為謹慎一些。

學院派創(chuàng)業(yè)者另辟蹊徑

在大模型戰(zhàn)場上,來自高校、研究機構的學院派創(chuàng)業(yè)公司組成了競爭的第三極。

它們既不是王小川、王慧文這樣的種子選手,在創(chuàng)業(yè)之初就能憑借人脈吸引到數(shù)億美元的投資,并以此迅速起步。也不像騰訊、阿里、百度這樣的大廠,在算力、人才、資金等各個方面都占據(jù)難以逾越的優(yōu)勢。

但憑借著他們對于人工智能技術的深度理解,這些創(chuàng)業(yè)者仍然能在夾擊之下,另辟蹊徑找到新的發(fā)展方向。

比如由原微軟亞洲研究院副院長周明創(chuàng)立的瀾舟科技,不同于市面上一眾追逐千億乃至萬億參數(shù)的大模型產(chǎn)品,這位從1980年就開始研究NLP(自然語言處理)的華人AI大牛希望以更輕量級模型解決B端場景的問題。

其推出的孟子大模型曾以十億參數(shù),刷新此前被百億、千億級別參數(shù)模型輪番霸榜的中文語言理解權威評測基準 CLUE 榜單。

這是一項務實的決策。出于數(shù)據(jù)安全考慮,絕大部分企業(yè)都不會將數(shù)據(jù)上傳,而是會要求本地化部署,成本因此被顯著拉高。在接受媒體采訪時,周明指出,哪怕只是本地部署推理,拿訓練好的大模型來用,千億參數(shù)大模型也需要8到16塊 A100,換算下來至少是一兩百萬元的投入,“對很多場景來說,客戶需要便宜和夠用”。

由新加坡國立大學校長青年教授尤洋創(chuàng)立的潞晨科技,則希望利用算法技術降低大模型的調用成本。

現(xiàn)如今,無論是大廠,還是創(chuàng)業(yè)公司,都必須面對國產(chǎn)大模型同質化趨勢愈發(fā)明顯的問題。如果這一問題不被解決,未來大模型極有可能陷入當下云服務廠商面臨的低毛利困境。

尤洋對時代財經(jīng)表示,這是因為底層技術基座迭代成本過于高昂。他以GPT舉例,OpenAI每一次的訓練成本高達6000萬美元,每隔三四個月就需要訓練一次,迭代一次則需要四五次訓練。以此計算,每迭代一次技術基座可能需要2億到3億美元。

過于高昂的成本導致市場上的技術基座極其稀缺?;旧现挥蠫PT、LLAMA,還有國內的GLM。各家廠商基本都是在模仿這幾家大模型做產(chǎn)品,才導致了同質化的問題愈發(fā)凸顯。

長期研究高性能計算的尤洋因此成立了潞晨科技。該公司目前推出的開源系統(tǒng)Colossal-AI 可通過高效多維并行、異構內存等技術,顯著降低AI大模型訓練、微調和推理的開發(fā)與應用成本。

尤洋認為,只有伴隨大模型訓練成本快速下降,或者采取更好的優(yōu)化技術,使得參數(shù)控制在200億左右,還依然能夠達到和千億參數(shù)一樣的效果時,才會真正迎來大模型百花齊放的那一天。

標簽:

熱門推薦

猜你喜歡