大煉模型進(jìn)入尾聲,“失眠”的歐洲和日本能否扳回一局?
原創(chuàng) 王茜茜 | 2024-08-07 20:25
【數(shù)據(jù)猿導(dǎo)讀】 在錯失移動互聯(lián)網(wǎng)浪潮后,擁有7億多人口的歐洲和1億左右人口的日本輾轉(zhuǎn)反側(cè),難以入眠,紛紛喊出要全力支持AI的口號,期待能夠通過抓住AI革命來提升國際競爭力。同時,考慮到技術(shù)主權(quán)、數(shù)據(jù)安全以及語言和文化的獨特性,開發(fā)自己的LLMs成為不可避免的選擇。那么,它們的進(jìn)展如何呢?...

2022年末,ChatGPT-3.5的驚艷亮相,瞬間引爆了全球范圍內(nèi)的生成式AI(GenAI)熱潮。
這場現(xiàn)代版的"淘金熱"迅速在科技領(lǐng)域蔓延,尤其是在全球兩大科技強(qiáng)國——中國和美國之間掀起了一場激烈的競賽——短短數(shù)月內(nèi),上百個大語言模型(LLMs)如雨后春筍般涌現(xiàn)。
在擁有14億人口的中國市場,本土科技巨頭紛紛亮出了各自的利器:阿里巴巴的"通義千問"、百度的"文心一言"、華為的"盤古"等模型背靠中國龐大且語言文化高度統(tǒng)一的市場,擁有豐富多樣的應(yīng)用場景和海量的用戶需求,為其持續(xù)優(yōu)化和發(fā)展提供了得天獨厚的優(yōu)勢。
在大洋彼岸,美國的科技巨頭們同樣不甘示弱。OpenAI的ChatGPT繼續(xù)引領(lǐng)潮流,Meta(原Facebook)推出的開源模型Llama展現(xiàn)出強(qiáng)勁實力,谷歌的Gemini正在快速追趕,而由Anthropic開發(fā)、得到亞馬遜支持的Claude也異軍突起。這些模型依托其母公司或者合作伙伴的全球業(yè)務(wù)網(wǎng)絡(luò),在國際市場拓展方面占據(jù)天然優(yōu)勢。
在錯失移動互聯(lián)網(wǎng)浪潮后,擁有7億多人口的歐洲和1億左右人口的日本輾轉(zhuǎn)反側(cè),難以入眠,紛紛喊出要全力支持AI的口號,期待能夠通過抓住AI革命來提升國際競爭力。同時,考慮到技術(shù)主權(quán)、數(shù)據(jù)安全以及語言和文化的獨特性,開發(fā)自己的LLMs成為不可避免的選擇。那么,它們的進(jìn)展如何呢?
歐洲想要打造自己的OpenAI,但頭部AI初創(chuàng)企業(yè)仍依賴美國資本和技術(shù)
根據(jù)總部位于倫敦的投資集團(tuán)Roosh在今年6月發(fā)布的一份報告,歐洲AI相關(guān)的風(fēng)險投資金額在十年內(nèi)增長了10倍,超過以往任何一年的融資總額,占?xì)W洲所有風(fēng)險投資的10%以上。
其中,英國初創(chuàng)公司在2024年籌集了最多的資金,為21億美元,其次是法國,為12億美元。
在歐洲LLMs市場中,幾家公司脫穎而出,各自以不同的策略和技術(shù)特色占據(jù)一席之地。
1. 呼聲最大,估值最高的LLMs當(dāng)屬Mistral AI。
由前DeepMind 研究員Arthur Mensch,前Facebook AI研究員Timothée Lacroix和Guillaume Lample于2023年在法國巴黎創(chuàng)立,Mistral AI專注于打造更小、更高效的模型從而降低模型使用成本,同時構(gòu)建一個平臺,讓企業(yè)能夠更加方便、安全、低成本地調(diào)用模型。
(Mistral AI三位聯(lián)合創(chuàng)始人。從左到右分別為 Guillaume Lample, Arthur Mensch, Timothée Lacroix)
Mistral AI創(chuàng)始團(tuán)隊可謂是“星光熠熠”。在創(chuàng)業(yè)之前,Mensch曾在DeepMind主導(dǎo)了Retro、Flamingo和Chinchilla三個項目,這些是Google在LLM、RAG和多模態(tài)領(lǐng)域的里程碑作品;而Lacroix和Lample則在Meta工作期間共同負(fù)責(zé)了LLaMa大型語言模型的開發(fā)。
Mistral AI在7月24日發(fā)布了擁有1230億參數(shù)的最新旗艦?zāi)P蚆istral Large 2(又被稱為mistral-large-2407),并聲稱只用不到Llama-3.1-405b三分之一的參數(shù),實現(xiàn)了更優(yōu)的代碼生成、數(shù)學(xué)和推理能力。
Mistral Large 2可以理解數(shù)10種語言,這比GPT-4o對50多種語言的支持要少。根據(jù)LiveBench的評分,Mistral Large 2的總體平均得分為 47.86,低于GPT-4o的 54.63,而Antropic的最新模型 claude-3-5-sonnet-20240620以59.87的得分位居榜首。
(截圖來自LiveBench)
LiveBench是一個每月發(fā)布LLM測評結(jié)果的平臺,基于最新的數(shù)據(jù)集、arXiv 論文、新聞文章和IMDb 電影簡介等資料進(jìn)行評估。該基準(zhǔn)測試涵蓋了6個類別中的18項不同任務(wù),為模型的綜合表現(xiàn)提供了詳盡的分析。
和OpenAI不同,Mistral AI選擇了開源路線,考慮到企業(yè)私有化使用模型的需求,并且開源模型能力也會逐步升級從而滿足更多需求,Arthur在訪談中還提到,開源也能夠讓模型受到公眾監(jiān)督、更加安全。
為了更直觀的感受Mistral Large2的能力,我們用一道非常經(jīng)典的,用來考驗LLM基本邏輯推理能力的題目,對Mistral Chat進(jìn)行了一個小測試——“女生Sally有3個兄弟,每個哥哥又有2個姐妹,請問Sally有幾個姐妹?”最終,Mistral Chat給出了正確的答案:1個姐妹。
這家總部位于巴黎的AI初創(chuàng)公司,最近在由General Catalyst領(lǐng)投的B輪融資中籌集了6.4億美元,估值達(dá)到60億美元。
2. 總部位于英國的Stability AI 以Stable Diffusion圖像生成模型聞名,同時也在開發(fā)StableLM語言模型,采用開源策略和社區(qū)驅(qū)動的開發(fā)模式。
StableLM模型系列包括多個參數(shù)規(guī)模的模型,最初發(fā)布的版本包括30億和70億參數(shù)模型,未來還計劃推出150億到650億參數(shù)的模型。
今年4月最新發(fā)布的Stable LM 2 12B,是一個擁有120億參數(shù)的基礎(chǔ)模型,支持英語、西班牙語、德語、意大利語、法語、葡萄牙語和荷蘭語七種語言。
Stability AI創(chuàng)始人Emad Mostaque的背景在AI創(chuàng)業(yè)公司當(dāng)中頗為特別。他擁有牛津大學(xué)數(shù)學(xué)和計算機(jī)科學(xué)學(xué)士學(xué)位,但沒有在任何科技公司工作的經(jīng)歷。在創(chuàng)立Stability AI之前,他主要在英國對沖基金行業(yè)工作。2020年,37歲的Mostaque用自己做對沖基金經(jīng)理的積蓄作為啟動資金,在倫敦創(chuàng)立了Stability AI。
隨著公司面臨逐漸高企的財務(wù)挑戰(zhàn)和核心技術(shù)人員流失的問題,Mostaqu在今年3月選擇離開Stability AI,去追逐去中心化AI。在他離職后一個月,資金短缺的Stability AI宣布裁員10%,并對業(yè)務(wù)規(guī)模進(jìn)行了一定調(diào)整。
根據(jù)路透社消息,在今年6月,Stability AI籌集了約 8000 萬美元的資金,投資者包括 Coatue Management、Lightspeed Venture Partners 和前谷歌首席執(zhí)行官 Eric Schmidt。此前,Stability AI 在2022年10月完成了1.01億美元的種子輪融資,估值達(dá)到了10億美元,成為獨角獸公司。
不過在詢問Stable LM 2 12B同樣的問題之后,我們發(fā)現(xiàn)它的推理能力不如Mistral Large 2——它給出了一個錯誤答案,稱Sally有5個姐妹。
3. 谷歌翻譯的主要競爭對手—總部位于德國科隆的DeepL—在7月18日推出了自己的第一個LLM。
DeepL是一家始創(chuàng)于2009年的德國科技公司,總部位于科隆。公司最初以在線詞典Linguee起家,后在2017年由計算機(jī)科學(xué)博士Jaroslaw Kutylowski帶領(lǐng)團(tuán)隊推出了DeepL Translator。這款翻譯工具憑借先進(jìn)的神經(jīng)網(wǎng)絡(luò)技術(shù),提供比多數(shù)同類產(chǎn)品更為自然、精確的翻譯結(jié)果,因此贏得了廣大翻譯工作者的青睞。
隨著來自大型科技公司的競爭壓力越來越大——OpenAI、谷歌、Meta等的公司的LLM可以輕松且免費地向用戶提供涵蓋100多種語言的翻譯服務(wù)——Kutylowski意識到了投入LLM的重要性。
(財富雜志關(guān)于DeepL推出LLMs的報道)
于是DeepL Translator在今年6月推出了第一個基于大型語言模型技術(shù)的模型:它完全由 DeepL內(nèi)部在其自己的基礎(chǔ)設(shè)施上構(gòu)建,并且專門為翻譯而量身定制。
“DeepL Translator于2017年構(gòu)思以來,我們一直在研究類似的神經(jīng)網(wǎng)絡(luò),但這種架構(gòu)的工作方式顯然發(fā)生了變化,我們首次將其轉(zhuǎn)向LLM技術(shù),”這位首席執(zhí)行官對媒體說到。
DeepL相信其模型提供了最優(yōu)質(zhì)的翻譯。該公司表示,在盲測中,語言專家對其下一代模型的偏愛程度是谷歌翻譯的1.3倍,ChatGPT-4的1.7倍,微軟的2.3倍。
在其自有LLM的幫助下,DeepL還將業(yè)務(wù)擴(kuò)展到文檔翻譯和寫作輔助工具,展現(xiàn)了在語言服務(wù)領(lǐng)域的廣闊應(yīng)用前景。
2024年5月,DeepL宣布以20億美元的估值獲得3億美元的投資。本輪融資由Index Ventures領(lǐng)投, IVP、Atomico 等參投。
值得一提的是,利用AI幫助用戶提升寫作質(zhì)量和準(zhǔn)確性的軟件Grammarly,也是一家起源于歐洲的公司,15年前在烏克蘭創(chuàng)立,隨著公司規(guī)模的壯大,總部逐漸搬至舊金山,以更好地獲取人才,拓展全球市場以及接觸更多的資本。
DeepL和Grammarly的成功,印證了歐洲在語言技術(shù)方面的優(yōu)勢。歐洲有24種官方語言和眾多的地方語言,這種多語言環(huán)境一定程度上推動了對高質(zhì)量翻譯和語言處理工具的需求。
4. Aleph Alpha,號稱歐洲人自己的OpenAI。
Aleph Alpha總部也位于德國,由前蘋果AI研究員Jonas Andrulis創(chuàng)立。以其Luminous系列模型為核心,這個系列包含多個不同規(guī)模和用途的模型:
1)Luminous-base擁有130億參數(shù),是目前Aleph Alpha最小的模型。因為它的速度最快、成本最低,因此非常適合日常使用。
2)Luminous-extended具有約300億參數(shù),在信息提取和語言簡化等任務(wù)上表現(xiàn)優(yōu)異,同時保持較高的性價比。
3)Luminous-supreme是Luminous系列中規(guī)模最大的模型,具有約700億參數(shù),提供最高精度和性能,適合復(fù)雜的語言處理任務(wù)。
Aleph Alpha主打“數(shù)據(jù)主權(quán)”的概念,簡要來說,就是支持將歐洲的AI模型的數(shù)據(jù)存儲和處理,都位于德國或歐洲地區(qū),而不是美國等其他國家,確保數(shù)據(jù)的安全性。這一概念當(dāng)前在歐洲政府以及立法部門受到推崇。
因此,Luminous主要針對那些需要可靠、準(zhǔn)確信息的機(jī)構(gòu),如法律事務(wù)所、醫(yī)療服務(wù)提供商、銀行,以及政府和高校等。
目前,Luminous支持德語、法語、西班牙語、意大利語以及英語,其訓(xùn)練數(shù)據(jù)中包含有大量由歐洲議會發(fā)布的多語種公共文件。
去年11月,Aleph Alpha 從博世、SAP 和惠普支持的 B 輪融資中籌集了 5 億美元。
從LLMs的創(chuàng)新來看,德國確實走在歐洲的前沿。除了DeepL和Aleph Alpha之外,德國AI研究中心(DFKI)和黑森AI中心(hessian.AI)的研究人員還發(fā)起了一個名為Occiglot的開源計劃。
該計劃旨在開發(fā)針對歐洲語言的生成語言模型,涵蓋歐盟所有24種官方語言以及多種非官方和地區(qū)語言。目前,Occiglot在Hugging Face平臺上以Apache 2.0許可協(xié)議提供使用。
目前DeepL的LLM、Aleph Alpha的Luminous以及Occiglot未向普通用戶開放使用,因此我們暫時無法對它們的表現(xiàn)進(jìn)行一個最簡單、基本的測評。
5.在全球AI競賽中,歐洲正謀求一次戰(zhàn)略性的“彎道超車”。
通過啟動GenAI4EU計劃,歐盟希望促進(jìn)AI初創(chuàng)企業(yè)與行業(yè)部署者之間的合作,充分利用歐洲的超級計算基礎(chǔ)設(shè)施,開發(fā)出值得信賴的AI模型。
這些努力不僅是歐洲在數(shù)字經(jīng)濟(jì)新格局中重新定位自己的戰(zhàn)略性嘗試,也反映了其對錯失移動互聯(lián)網(wǎng)發(fā)展良機(jī)的深刻反思。
回溯歷史,歐洲曾憑借諾基亞、愛立信等科技巨頭,在移動通信領(lǐng)域獨領(lǐng)風(fēng)騷。然而,隨著智能手機(jī)時代的到來,歐洲逐漸失去了話語權(quán),讓美國公司憑借強(qiáng)大的軟件生態(tài)系統(tǒng)占據(jù)了制高點。這一教訓(xùn)深深刺痛了歐洲決策層,也成為其在AI時代奮起直追的重要動因。
然而,歐洲的AI戰(zhàn)略面臨著一個微妙的平衡難題:如何在嚴(yán)格監(jiān)管與鼓勵創(chuàng)新之間找到最佳平衡點?
一向走在技術(shù)監(jiān)管前沿的歐洲,在2024年3月通過了世界上第一個全面的AI監(jiān)管框架——《人工智能法案》(Artificial Intelligence Act),適用于在歐盟開展業(yè)務(wù)或產(chǎn)生影響的任何組織。這意味著科技巨頭在歐盟市場的業(yè)務(wù)以及對歐盟公民數(shù)據(jù)的使用受到更嚴(yán)格的審查。
出于監(jiān)管方面的考慮,Meta已經(jīng)限制了Llama模型在歐洲的可用性。此前,這家美國社交網(wǎng)絡(luò)巨頭還被勒令停止在歐盟使用Facebook和Instagram的帖子訓(xùn)練其模型,原因是擔(dān)心這可能違反了GDPR(《通用數(shù)據(jù)保護(hù)條例》)。
監(jiān)管的介入誠然可以更好地保障普通用戶的利益,但也在一定程度上給創(chuàng)新帶來了掣肘,尤其是對于一個還處在發(fā)展初期的技術(shù)。在這場沒有先例可循的嘗試中,歐洲需要展現(xiàn)出前所未有的戰(zhàn)略智慧和政策靈活性。如果成功,歐洲將為全球AI治理提供一個兼顧創(chuàng)新與倫理的范本;如果失敗,則可能重蹈移動互聯(lián)網(wǎng)時代的覆轍,進(jìn)一步拉大與全球科技強(qiáng)國的差距。
值得一提的是,盡管Mistral AI被視為歐洲AI領(lǐng)域的“領(lǐng)跑者”,但其背后的資本結(jié)構(gòu)和人才構(gòu)成卻與美國密切相關(guān)。
Mistral AI的主要投資者來自多家美國知名投資公司,包括Andreessen Horowitz (a16z)、General Catalyst、Lightspeed Venture Partners、NVIDIA和Salesforce Ventures等。雖然也有如法國電信巨頭Xavier Niel等歐洲投資者的參與,但美國資本在其投資中占據(jù)了明顯的主導(dǎo)地位。
另一方面,創(chuàng)始團(tuán)隊雖然扎根法國,但他們大多有在美國科技巨頭工作的經(jīng)歷:除了幾位聯(lián)合創(chuàng)始人分別在Google旗下的DeepMind和Meta從事AI研究工作,還有不少團(tuán)隊成員曾在美國頂級科技公司工作過。這也使得Mistral盡管根植于歐洲,但企業(yè)文化明顯受到硅谷創(chuàng)業(yè)精神的影響。
最后,我們再用一張圖表來加深對歐洲LLMs的主要參與者的印象。
(制圖:數(shù)據(jù)猿)
日本LLM發(fā)展主要建立在現(xiàn)有模型之上,而非從零開始搭建
1. 在日本AI領(lǐng)域,擁有“鈔能力”的軟銀(SoftBank)無疑是最重要的參與者之一。
考慮到當(dāng)前日語AI數(shù)據(jù)集的開發(fā)相對滯后,這家市值接近千億美元的科技巨頭決定投資9.6億美元開發(fā)自主AI模型,目標(biāo)是在2024年完成一個具有3500億參數(shù)的本土化大型語言模型(LLM)。
為達(dá)成目標(biāo),軟銀于2023年8月1日成立了SB Intuitions,這是一個專注于研發(fā)能夠適應(yīng)日本商業(yè)習(xí)慣和文化需求的GenAI服務(wù)的部門。
截至目前,軟銀推出了兩款基于不同架構(gòu)的LLM:基于GPT-NeoX的Sarashina1和基于Llama的Sarashina2,它們的最大上下文長度分別為2048和4096個token。作為參考,ChatGPT-3和ChatGPT-4的上下文長度分別為4096和8192個token,這意味著Sarashina2支持的上下文長度與ChatGPT-3相當(dāng)。
(軟銀的LLM Sarashina)
軟銀還計劃與各方合作,建立一個生態(tài)系統(tǒng)來加速日本在GenAI領(lǐng)域的發(fā)展。作為這個策略的一部分,公司已經(jīng)建設(shè)了一個頂級的計算平臺,包括一臺NVIDIA DGX SuperPOD™ AI超級計算機(jī)和2,000多個NVIDIA Tensor Core GPU。該平臺于2023年10月正式啟用,并將向大學(xué)、研究機(jī)構(gòu)和企業(yè)提供必要的計算資源。
作為旗下涵蓋了電信服務(wù)、金融科技和機(jī)器人等多個產(chǎn)業(yè)的巨頭,軟銀已經(jīng)開始利用LLM提升服務(wù)效率、優(yōu)化客戶體驗和推動業(yè)務(wù)創(chuàng)新。例如,公司已經(jīng)部署了由LLM驅(qū)動的AI聊天機(jī)器人和虛擬助手,以實現(xiàn)24小時客戶支持;同時,通過LLM設(shè)計個性化營銷活動,以及預(yù)測市場趨勢、客戶需求和潛在風(fēng)險。
為了充分利用AI技術(shù)的潛力,軟銀除了自研LLM外,還與微軟建立了戰(zhàn)略聯(lián)盟,為使用微軟AI服務(wù)的日本企業(yè)提供安全的數(shù)據(jù)環(huán)境。公司還計劃建立一個由多個GenAI系統(tǒng)組成的平臺,從OpenAI、微軟、谷歌等公司開發(fā)的多個模型中挑選最適合客戶需求的模型。
(孫正義)
軟銀,尤其是創(chuàng)始人孫正義,對AI的投資展現(xiàn)出極大的樂觀態(tài)度。據(jù)《華爾街日報》2023年7月的報道,愿景基金——由軟銀發(fā)起的全球頂尖私募股權(quán)基金——在過去幾年中已投資了1400億美元于400個AI相關(guān)項目。
2. 被譽為“日本亞馬遜”的Rakuten 推出了一套高性能開源日語LLM— RakutenAI-7B。
(Rakuten的電商返現(xiàn)業(yè)務(wù)頁面)
這個擁有70億參數(shù)的基礎(chǔ)模型是在樂天的GPU集群上,通過持續(xù)訓(xùn)練Mistral AI的開源模型Mistral-7B-v0.1而開發(fā)而成。RakutenAI-7B巧妙地重用了預(yù)訓(xùn)練模型的權(quán)重,在日語理解方面的相關(guān)基準(zhǔn)測試中更是拔得頭籌。
為了提升日語分詞的準(zhǔn)確性,開發(fā)團(tuán)隊將Mistral的詞匯量從32k擴(kuò)展到了48k,這一改進(jìn)使得模型能用更少的token傳遞更多信息。樂天的目標(biāo)是提供一個經(jīng)濟(jì)高效的日語模型,以適應(yīng)各種應(yīng)用場景。值得一提的是,該模型采用Apache 2.0許可證發(fā)布,任何人都可以免費訪問和使用。
此外,樂天還基于指令微調(diào)技術(shù)開發(fā)了RakutenAI-7B-instruct和RakutenAI-7B-chat兩個變體,進(jìn)一步提升了模型遵循指令和生成自然對話的能力。
作為一家業(yè)務(wù)橫跨電子商務(wù)、金融科技、數(shù)字內(nèi)容和電信等多個領(lǐng)域的跨國公司,樂天能夠?qū)I融入其運營中,以推動增長并創(chuàng)造價值。
3. 對于大部分人來說,CyberAgent這個名字有些陌生,但它卻是日本本土LLM的主要建設(shè)者,沒有之一。
創(chuàng)立于1998 年,CyberAgent 的業(yè)務(wù)主要集中在流媒體服務(wù)、數(shù)字營銷和在線廣告等方面。
這家老牌科技公司先后推出了基于GPT-NeoX的OpenCALM,以及基于Llama的CyberAgentLM2 (CALM2)和CyberAgentLM3 (CALM3)。其中,CALM3表現(xiàn)最為出色,支持高達(dá)16384個token的上下文長度,大大拓展了模型的應(yīng)用范圍。
(CyberAgent的官網(wǎng))
除了自主研發(fā),CyberAgent還積極與東京工業(yè)大學(xué)、東北大學(xué)、名古屋大學(xué)等高校以及富士通等企業(yè)合作,利用日本超級計算機(jī)“富岳”(Fugaku)共同訓(xùn)練出Fugaku-LLM。
該模型在3800億個token上進(jìn)行訓(xùn)練,其中約60%的數(shù)據(jù)是日語,因此,無論是處理敬語(keigo)還是生成自然對話,F(xiàn)ugaku-LLM都展現(xiàn)出不錯的性能。此外,F(xiàn)ugaku-LLM擁有130億個參數(shù),遠(yuǎn)超大多數(shù)通常只擁有不超過70億個參數(shù)的日本本土LLMs。
日本東京國立信息研究所 (NII) 還發(fā)起了LLM-jp, 一個專注于大規(guī)模日語 LLM 的研究和開發(fā)的項目。來自學(xué)術(shù)界、工業(yè)界和研究機(jī)構(gòu)等各個領(lǐng)域 1500 多名參與者的共同合作下,LLM-jp推出了基于GPT的開源旗艦?zāi)P蚅LM-jp-13B。
(日本主要LLM概覽。制圖:數(shù)據(jù)猿)
基于以上信息,不難發(fā)現(xiàn)日本LLM發(fā)展主要基于對現(xiàn)有模型的優(yōu)化而非從零開始。
這種策略不僅能夠大幅縮減訓(xùn)練時間和計算資源需求,更重要的是,它讓日本得以將有限的人才庫和精力聚焦于有獨特價值的領(lǐng)域——日語優(yōu)化和文化適應(yīng)。
更值得關(guān)注的是,日本在LLM發(fā)展中展現(xiàn)出的開放態(tài)度:RakutenAI-7B, LLM-jp, Fuguku-LLM 等項目都選擇了開源,以期促進(jìn)日本AI生態(tài)系統(tǒng)的發(fā)展。這種開放共享的精神,與日本傳統(tǒng)的相對保守的企業(yè)文化形成了有趣的反差。
產(chǎn)學(xué)研的緊密結(jié)合,更是日本AI發(fā)展的一大亮點。LLM-jp項目獲得日本國立信息研究所的鼎力支持,F(xiàn)ugaku-LLM項目充分利用國家級超級計算機(jī)資源,這些或多或少彰顯了日本的政策制定者們在AI領(lǐng)域決心。
縱觀日本的LLM發(fā)展策略,更多的是對“務(wù)實”和“本土化”的考量。然而,這種策略也使得相較于全球AI巨頭,日本本土模型在規(guī)模和通用性上還有不小差距,限制其在全球舞臺上的競爭力。但毋庸置疑的是,本土模型能夠更好的服務(wù)日本企業(yè)和社會,帶來實實在在的價值。
從監(jiān)管角度來看,日本對GenAI采取了相對寬松的立場,尤其是在版權(quán)方面。允許AI模型處理任何數(shù)據(jù)進(jìn)行訓(xùn)練,不論其版權(quán)狀態(tài)如何,也不分商業(yè)或非營利用途。這一政策立場旨在加速日本在GenAI領(lǐng)域的進(jìn)步,但政府也承認(rèn),隨著技術(shù)及其影響的演變,可能會對這一立場進(jìn)行調(diào)整。
進(jìn)入GenAI時代,大一統(tǒng)的市場具有明顯的優(yōu)勢,未來競爭仍聚焦在中美身上
LLMs已經(jīng)成為參與GenAI技術(shù)革命的門票。但我們不得不直面一個現(xiàn)實:這也是一場規(guī)模經(jīng)濟(jì)的游戲,其"贏家通吃"的特征可能比移動互聯(lián)網(wǎng)時代更為顯著。對于規(guī)模相對較小的日本市場和高度分散的歐洲市場,這種局面尤其具有挑戰(zhàn)性。
在LLMs的全球競爭中,大一統(tǒng)的市場具有明顯的優(yōu)勢,主要體現(xiàn)在數(shù)據(jù)獲取、計算資源匯聚、人才集中和成熟的應(yīng)用生態(tài)系統(tǒng)等方面。
具有語言統(tǒng)一性、龐大人口規(guī)模和一致政策的市場,不僅能提供更豐富多樣的訓(xùn)練數(shù)據(jù),還能開拓更廣闊的應(yīng)用場景和吸引更多用戶,這對于模型的持續(xù)改進(jìn)和商業(yè)化至關(guān)重要。
另一方面,近期華爾街對AI的態(tài)度也在悄然轉(zhuǎn)變,從單純關(guān)注企業(yè)在AI技術(shù)上的投入,轉(zhuǎn)向評估這些投資的實際盈利能力。
(關(guān)于華爾街重新審視企業(yè)對AI投資的相關(guān)報道截圖)
在這樣的市場環(huán)境中,對于多數(shù)機(jī)構(gòu)來說,自主開發(fā)LLMs可能相當(dāng)于“重新造輪子”,不僅成本高昂,其商業(yè)成功的可能性也令人擔(dān)憂。
盡管面臨這些挑戰(zhàn),小國家和碎片化市場可以在本地化和文化適應(yīng)性方面尋找突破。通過構(gòu)建專注于當(dāng)?shù)卣Z言和文化需求的模型,它們可以更有效地服務(wù)于特定的市場需求。此外,與國際大型企業(yè)的合作也是一個行之有效的策略。通過這種合作方式,較小市場可以利用大型企業(yè)的技術(shù)力量和資源,同時保持對本地數(shù)據(jù)和隱私的控制。
可以預(yù)見的是,在國際舞臺上,未來在GenAI領(lǐng)域的競爭預(yù)計仍會聚焦在中美身上。
來源:數(shù)據(jù)猿
刷新相關(guān)文章
我要評論
不容錯過的資訊
-
1OpenAI領(lǐng)導(dǎo)層大動蕩;智譜AI開源 CogVid
-
2聯(lián)想集團(tuán)副總裁陳敏儀:以價值為導(dǎo)向,聯(lián)
-
32024 FDS?金融領(lǐng)袖峰會:銀行業(yè)在數(shù)字
-
42024第三屆國際綠色零碳節(jié)在京舉辦 以新
-
5【AI大模型展】Smartbi AIChat——Ai上
-
6智譜AI發(fā)布生成式視頻功能清影;OpenAI
-
7重磅!2024年中國油氣田與長輸管道無人場
-
8《2024中國數(shù)智產(chǎn)業(yè)AI大模型先鋒企業(yè)》榜
-
9網(wǎng)易瑤臺三度參展WAIC,引領(lǐng)沉浸式體驗新
-
10SynSense時識科技獲寧波通商基金、三星
大數(shù)據(jù)企業(yè)推薦more >
大家都在搜
