Meta,重磅發(fā)布!
來源:證券時報網(wǎng)作者:周春媚2025-04-06 13:06

開源大模型元老,發(fā)布重磅更新。

北京時間4月6日凌晨,美國科技巨頭Meta推出了開源人工智能模型Llama 4。據(jù)介紹,該模型目前目前有Scout和Maverick兩個版本,是Meta迄今為止最先進(jìn)的模型,也是同類產(chǎn)品中多模態(tài)性最強(qiáng)的模型。

f307784d81af63b57779a62b1b2390b.png

在DeepSeek引發(fā)模型開源浪潮以前,Meta一直是開源模型的領(lǐng)先玩家及重要的行業(yè)奠基者。在ChatGPT橫空出世7個多月后,Meta就率先宣布開源Llama 2,并且可免費(fèi)商用。這也成為大模型發(fā)展的分水嶺,是開源模型社區(qū)的歷史性時刻。Llama第四代模型的發(fā)布,不僅是Meta應(yīng)對DeepSeek等新興開源勢力的一次“回?fù)簟?,同時也推動了開源模型技術(shù)的進(jìn)一步發(fā)展和生態(tài)的進(jìn)一步完善。

大規(guī)模、多模態(tài)、長文本的Llama 4發(fā)布

北京時間4月6日凌晨,Meta發(fā)布Llama 4系列首批模型,包括兩款高效模型Llama 4 Scout、Llama 4 Maverick。此外,Meta還預(yù)覽了其迄今最強(qiáng)大最智能的模型——Llama 4 Behemoth,是“新模型中的教師”。

Llama 4模型是Llama系列模型中首批采用混合專家(MoE)架構(gòu)的模型。這一模型也是DeepSeek系列模型采用的架構(gòu),與傳統(tǒng)的稠密模型相比,在MoE架構(gòu)中,單獨(dú)的token只會激活全部參數(shù)中的一小部分,訓(xùn)練和推理的計算效率更高。

首先,Llama 4的第一大特點(diǎn)是參數(shù)規(guī)模大,最先進(jìn)的Llama 4 Behemoth總參數(shù)高達(dá)2萬億(作為對照,DeepSeek-R1總參數(shù)規(guī)模為6710億)。

其中,Llama 4 Scout面向文檔摘要與大型代碼庫推理任務(wù),專為高效信息提取與復(fù)雜邏輯推理打造,共有16位“專家”、1090億參數(shù)、170億激活參數(shù)量;Llama 4 Maverick則專注于多模態(tài)能力,支持視覺和語音輸入,具備頂級的多語言支持與編程能力,共有128位“專家”、4000億參數(shù)、170億激活參數(shù)量;Llama 4 Behemoth(預(yù)覽版)則是Meta未來最強(qiáng)大的AI模型之一,具備令人矚目的超大規(guī)模參數(shù)架構(gòu),具有2880億激活參數(shù)量,總參數(shù)高達(dá)2萬億。

其次,Llama 4的另外一大特點(diǎn)是多模態(tài)能力突出。作為原生多模態(tài)模型,Llama 4采用了早期融合(Early Fusion)技術(shù),可以用海量的無標(biāo)簽文本、圖片和視頻數(shù)據(jù)一起來預(yù)訓(xùn)練模型,實(shí)現(xiàn)文本和視覺token無縫整合到統(tǒng)一的模型框架里。

據(jù)Meta介紹,Llama用各種圖像和視頻幀靜止圖像訓(xùn)練兩個模型,以賦予它們廣泛的視覺理解能力,包括時間活動和相關(guān)圖像。這支持多圖像輸入與文本提示的無縫交互,用于視覺推理和理解任務(wù)。模型在預(yù)訓(xùn)練中最多使用48張圖像,后訓(xùn)練中測試了最多8張圖像,結(jié)果良好。

最后,Llama在長文本能力上也取得了突破,具有超大的上下文窗口長度。Llama 4 Scout 模型支持高達(dá)1000萬token的上下文窗口,刷新了開源模型的紀(jì)錄,而市場上其他領(lǐng)先模型如GPT-4o也未能達(dá)到此規(guī)模。超大上下文窗口使Llama 4在處理長文檔、復(fù)雜對話和多輪推理任務(wù)時表現(xiàn)出色。

大模型競爭趨于白熱化

作為開源模型社區(qū)的“領(lǐng)頭羊”和佼佼者,Llama(Large Language Model Meta AI)系列模型由Meta在2022年推出。2023年,為應(yīng)對ChatGPT等領(lǐng)先閉源模型的挑戰(zhàn),Meta率先宣布開源Llama 2,并且可免費(fèi)商用。這一開源之舉激活了開發(fā)者社區(qū)的創(chuàng)新潛力,此后基于Llama 2構(gòu)建的應(yīng)用項(xiàng)目數(shù)量大大增加,覆蓋各種領(lǐng)域,形成了一個充滿活力的生態(tài)系統(tǒng)。

2024年4月,Llama 3正式發(fā)布,在技術(shù)層面實(shí)現(xiàn)了諸多突破,最重要的是不僅在單語言任務(wù)上表現(xiàn)卓越,還實(shí)現(xiàn)了多模態(tài)處理能力,能夠同時理解并生成文本、圖像、音頻等多種類型的數(shù)據(jù),從而開啟了多模態(tài)的新紀(jì)元。

雖然Meta是開源模型的重要奠基者,但是開源領(lǐng)域的競爭正變得日益激烈和焦灼,尤其是DeepSeek的崛起,對Meta在開源模型社區(qū)的領(lǐng)先地位構(gòu)成了巨大的沖擊。

今年1月末,在DeepSeek剛剛在海外火爆出圈時,就有Meta員工在匿名社區(qū)TeamBlind上爆料稱,僅用550萬美元訓(xùn)練的DeepSeek-V3在基準(zhǔn)測試中已經(jīng)讓Llama模型相形見絀,Meta的工程師們正在爭分奪秒地分析DeepSeek,試圖復(fù)制其中的一切可能技術(shù)。該爆料帖還說,Meta管理層正面臨嚴(yán)峻的財務(wù)壓力,其生成式AI部門數(shù)十位高管,“每個人的年薪都超過了DeepSeek-V3的全部訓(xùn)練費(fèi)用。如何向公司高層解釋這種投入產(chǎn)出比,已成為他們的噩夢”。

除了DeepSeek以外,阿里巴巴通義千問系列開源大模型也屢屢斬獲佳績。4月2日,全球最大的AI開源社區(qū)Hugging Face更新了大模型榜單,阿里通義千問近期開源的端到端全模態(tài)大模型Qwen2.5-Omni登上總榜榜首。據(jù)了解,阿里至今已向全球開源200多款模型,千問衍生模型數(shù)量已突破10萬,超越美國Llama系列,成為全球最大的開源模型族群。

在Llama 4發(fā)布之際,OpenAI首席執(zhí)行官山姆·奧特曼也對外透露了公司的模型發(fā)布計劃。他表示,OpenAI可能在幾周后發(fā)布最新的推理模型o3和最新的基座模型o4-mini,然后在幾個月后推出GPT-5。

DeepSeek-R2模型何時發(fā)布也備受市場關(guān)注。4月4日,DeepSeek與清華大學(xué)研究團(tuán)隊(duì)聯(lián)合發(fā)布題為《獎勵模型的推理時Scaling方法及其在大規(guī)模語言模型中的應(yīng)用》的重磅論文,提出自我原則點(diǎn)評調(diào)優(yōu)(SPCT)與元獎勵模型(Meta Reward Model)兩項(xiàng)核心技術(shù),為提升大語言模型的推理能力提供了全新方法論。雖然官方并未明確R2的發(fā)布時間,但這一成果被視為DeepSeek下一代推理模型R2的重要技術(shù)鋪墊。

技術(shù)的不斷突破及各家大模型的密集推出,表明大模型競爭趨于白熱化,彼此間你追我趕將是未來一段時間的常態(tài)。業(yè)內(nèi)人士分析稱,模型能力的持續(xù)提升,推動大模型競爭進(jìn)入推理強(qiáng)化和應(yīng)用拓展的下半場賽程。個人智能體潛力初步顯現(xiàn),行業(yè)應(yīng)用漸次走深,開源開放日益成為大模型的核心競爭力組成。大算力、多模態(tài)、強(qiáng)推理、廣開源、準(zhǔn)數(shù)據(jù)、智能體、深應(yīng)用等,成為大模型發(fā)展的重要趨勢。

責(zé)編:李丹

校對:劉榕枝

責(zé)任編輯: 孫孝熙
聲明:證券時報力求信息真實(shí)、準(zhǔn)確,文章提及內(nèi)容僅供參考,不構(gòu)成實(shí)質(zhì)性投資建議,據(jù)此操作風(fēng)險自擔(dān)
下載“證券時報”官方APP,或關(guān)注官方微信公眾號,即可隨時了解股市動態(tài),洞察政策信息,把握財富機(jī)會。
網(wǎng)友評論
登錄后可以發(fā)言
發(fā)送
網(wǎng)友評論僅供其表達(dá)個人看法,并不表明證券時報立場
暫無評論
為你推薦
時報熱榜
換一換
    熱點(diǎn)視頻
    換一換
    国产精品爽爽ⅴA在线观看,91网站在线播放不卡,欧美亚洲中文字幕,最新国产三级电影