精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
谷歌再放核彈!開源最強大模型Gemini技術,碾壓Llama 2,一月三大招硬剛OpenAI

突發(fā)!谷歌開源Gemini兄弟版,全面狙擊Llama 2。
作者 |  香草 李水青
編輯 |  李水青
就在剛剛,谷歌向最強開源大模型的寶座發(fā)起進攻
智東西2月22日凌晨報道,昨日晚間,谷歌毫無預兆地發(fā)布了開源模型Gemma,直接狙擊Llama 2,繼通過Gemini拳打OpenAI后,試圖用Gemma腳踢Meta。

▲谷歌發(fā)布Gemma(圖源:谷歌)

不同于Gemini的“全家桶”路線,Gemma主打輕量級高性能,有20億70億兩種參數(shù)規(guī)模,能在筆記本電腦、臺式機、物聯(lián)網設備、移動設備和云端等不同平臺運行。
性能方面,Gemma在18個基準測評中平均成績擊敗目前的主流開源模型Llama 2和Mistral,特別是在數(shù)學代碼能力上表現(xiàn)突出,還直接登頂Hugging Face開源大模型排行榜

▲Gemma登頂Hugging Face開源大模型排行榜(圖源:X)

谷歌同步放出了技術報告,通過深度解讀,智東西注意到除了模型性能優(yōu)異外,Gemma的分詞器詞表大小達到256k,這意味著它更容易擴展至其他語言。
谷歌還強調Gemma基于自家TPUv5e芯片訓練,Gemma 7B使用了4096個TPUv5e,Gemma 2B使用了512個TPUv5e,秀出挑戰(zhàn)英偉達GPU統(tǒng)治地位的“肌肉”。
短短12天,谷歌連續(xù)放出三個大招,先是9日宣布其最強大模型Gemini Ultra免費用,又在16日放出大模型“核彈”Gemini 1.5,再是21日突然放出開源模型Gemma,動作之密集、行動之迅速,似乎在向搶了自己風頭的OpenAI宣戰(zhàn)。
Gemma具體強在哪兒?它在哪些方面打贏了Llama 2?其技術原理和訓練過程有哪些亮點?讓我們從技術報告中尋找答案。
Gemma官網地址:
https://ai.google.dev/gemma
Gemma開源地址:
https://www.kaggle.com/models/google/gemma/code/

01.
采用Gemini相同架構
輕量級筆記本也能跑
據介紹,Gemma模型的研發(fā)是受到Gemini的啟發(fā),它的名字來源于意大利語“寶石”,是由谷歌DeepMind和其他團隊共同合作開發(fā)。
Gemma采用了與Gemini相同的技術和基礎架構,基于英偉達GPU和谷歌云TPU等硬件平臺進行優(yōu)化,有20億、70億兩種參數(shù)規(guī)模,每個規(guī)模又分預訓練指令微調兩個版本。
性能方面,谷歌稱Gemma在MMLU、BBH、HumanEval等八項基準測試集上大幅超過Llama 2。

▲Gemma在基準測試上與Llama 2的跑分對比(圖源:谷歌)

在發(fā)布權重的同時,谷歌還推出Responsible Generative AI Toolkit等一系列工具,為使用Gemma創(chuàng)建更安全的AI應用程序提供指導。此外,谷歌通過原生Keras 3.0為JAX、PyTorch和TensorFlow等主要框架提供推理和監(jiān)督微調(SFT)的工具鏈。
谷歌強調Gemma在設計時將其AI原則放在首位,通過大量微調和人類反饋強化學習(RLHF)使指令微調模型與負責任的行為對齊,還通過手工紅隊測試、自動對抗性測試等對模型進行評估。
此外,谷歌與英偉達宣布合作,利用英偉達TensorRT-LLM對Gemma進行優(yōu)化。英偉達上周剛發(fā)布的聊天機器人Chat with RTX也將很快增加對Gemma的支持。
即日起,Gemma在全球范圍內開放使用,用戶可以在Kaggle、Hugging Face等平臺上進行下載和試用,它可以直接在筆記本電腦或臺式機上運行。
發(fā)布才幾個小時,已有不少用戶分享了試用體驗。社交平臺X用戶@indigo11稱其“速度飛快”,“輸出很穩(wěn)定”。

▲X用戶@indigo11分享Gemma試用體驗(圖源:X)

還有用戶嘗試了其他語種,稱Gemma對日語的支持很流暢。

▲X用戶@AiXsatoshi分享Gemma在日語上的試用體驗(圖源:X)


02.
數(shù)學、代碼能力碾壓Llama 2
采用自家TPUv5e訓練
與Gemini發(fā)布時一樣,谷歌此次也同步公開了Gemma的技術報告。

▲Gemma技術報告(圖源:谷歌)

報告稱,Gemma 2B和7B模型分別在2T6T的tokens上進行訓練,數(shù)據主要來自網絡文檔、數(shù)學和代碼的英語數(shù)據。不同于Gemini,這些模型不是多模態(tài)的,也沒有針對多語言任務進行訓練。
谷歌使用Gemini的SentencePiece分詞器的一個子集以保證兼容性。它分割數(shù)字但不去除額外的空格,并且對未知標記依賴于字節(jié)級編碼,詞表大小為256k個tokens,這可能意味著它更容易擴展到其他語言

▲開發(fā)者稱256k分詞器值得注意(圖源:X)

兩個規(guī)模中,70億參數(shù)的Gemma 7B適用于GPU、TPU上的高效部署和開發(fā),20億參數(shù)的Gemma 2B則適用于CPU。
Gemma基于谷歌的開源模型和生態(tài)構建,包括Word2Vec、BERT、T5、T5X等,其模型架構基于Transformer,主要核心參數(shù)如下表。

▲Gemma模型主要參數(shù)(圖源:谷歌)

在基準測評中,Gemma直接對標目前先進的開源模型Llama 2和Mistral,其中Gemma 7B在18個基準上取得11個優(yōu)勝,并以平均分56.4高于同級別模型。

▲Gemma與Llama 2、Mistral基準測評分數(shù)對比(圖源:谷歌)

從具體能力上看,Gemma 7B在問答、推理、數(shù)學/科學、代碼等方面的標準學術基準測試平均分數(shù)都高于同規(guī)模的Llama 2和Mistral模型。
此外,其推理、數(shù)學/科學、代碼能力還高于規(guī)模更大的Llama 2 13B。

▲Gemma與Llama 2、Mistral各能力對比(圖源:谷歌)

報告還詳細介紹了Gemma訓練采用的硬件:使用部署在256個芯片組成的Pod中的TPUv5e訓練,這些Pod配置成一個16*16芯片的2D環(huán)形網絡。
其中,Gemma 7B模型跨16個Pod進行訓練,共使用了4096個TPUv5e;Gemma 2B模型跨越2個Pod進行訓練,共使用了512個TPUv5e。
在一個Pod內部,谷歌為Gemma 7B使用了16路模型分片和16路數(shù)據復制,Gemma 2B則使用256路數(shù)據復制。優(yōu)化器狀態(tài)進一步通過類似于ZeRO-3的技術進行分片。
技術報告地址:
https://goo.gle/GemmaReport

03.
被OpenAI逼急了
谷歌一月連放三大招

2024開年,OpenAI發(fā)布的Sora文生視頻模型爆火,一舉搶走了谷歌最新力作Gemini 1.5 Pro大模型的風頭。

但谷歌并沒有就此打住,而是乘勝追擊放出一個月里的第三個大招,這三個大招分別是:

2月9日大年三十,谷歌宣布其最強大模型Gemini Ultra免費用,Gemini Ultra于2023年12月發(fā)布時在MMLU(大規(guī)模多任務語言理解)測評上超過人類專家,在32個多模態(tài)基準中取得30個SOTA(當前最優(yōu)效果),幾乎全方位超越GPT-4,向OpenAI發(fā)起強勢一擊。《谷歌大年三十整大活!最強大模型Gemini Ultra免費用,狙擊GPT-4》

2月16日大年初七,谷歌放出其大模型核彈——Gemini 1.5,并將上下文窗口長度擴展到100萬個tokens。Gemini 1.5 Pro可一次處理1小時的視頻、11小時的音頻、超過3萬行代碼或超過70萬字的代碼庫,向OpenAI還沒發(fā)布的GPT-5發(fā)起挑戰(zhàn)。 (《谷歌Gemini 1.5模型來了!突破100萬個tokens,能處理1小時視頻【附58頁技術報告】》

2月21日正月十二,谷歌在被“搶頭條”后,一舉將采用創(chuàng)建Gemini相同研究和技術的Gemma開源,一方面狙擊Llama 2等開源模型,登上開源大模型鐵王座,同時為嗷嗷待哺的生成式AI的應用開發(fā)者帶來福音,更是為閉源的代表OpenAI狠狠地上了一課。

自2022年12月ChatGPT發(fā)布以來,AI領域扛把子谷歌就陷入被OpenAI壓著打的境地,“復仇”心切。

在GPT-3大模型問世前,DeepMind的風頭更勝一籌,坐擁AlphaGo、AlphaGo Zero、MuZero、AlphaFold等一系列打敗人類的明星AI模型。隨著生成式AI風口漸盛,谷歌DeepMind卻開始顯得力不從心,ChatGPT引發(fā)谷歌AI人才大軍流向OpenAI,OpenAI卻由此扶搖直上。

2023年3月,谷歌促成谷歌大腦和DeepMind冰釋前嫌,合并對抗OpenAI,被業(yè)內稱為“谷歌復仇聯(lián)盟”。然而,直到年底的12月7日,谷歌最強大模型Gemini才姍姍來遲,盡管效果驚艷卻令市場有些意興闌珊。2024年1月31日,谷歌最新財報顯示其收入亮眼,卻因AI方面進展不及預期市值一夜蒸發(fā)超1000億美元

然而,2024年2月一來到,谷歌的狀態(tài)來了個180度大轉彎,攢了一年的大招接二連三地釋放,試圖用強大的Gemini大模型矩陣證明,其是被嚴重低估的。

值得一提的是,谷歌還有另一張王牌是自研芯片,有望成為其與OpenAI抗衡的有力底牌。2023年8月,谷歌云發(fā)布最新云端AI芯片TPU v5e,TPU被視作全球AI芯片霸主英偉達GPU的勁敵。

據半導體研究和咨詢公司SemiAnalysis的分析師曝料,谷歌擁有的算力資源比OpenAI、Meta、亞馬遜、甲骨文和CoreWeave加起來還要多,其下一代大模型Gemini已經開始在新的TPUv5 Pod上進行訓練,算力達到GPT-4的5倍,基于其目前的基礎設施建設情況,到明年年底可能達到20倍。


04.
結語:谷歌再放大招
拳打OpenAI,腳踢Meta

從2023年12月發(fā)布Gemini多模態(tài)大模型,到2024年2月連放Gemini Ultra免費版、Gimini 1.5、Gemini技術開源三個大招,谷歌的大模型矩陣逐漸清晰,從閉源和開源兩大路線對OpenAI打響復仇戰(zhàn),也向推出開源模型Llama 2的Meta宣戰(zhàn)。

當下,OpenAI的文生視頻大模型Sora風頭正盛。實際上,谷歌已于2023年12月推出了用于零樣本視頻生成的大型語言模型VideoPoet,可在單個大模型中無縫集成了多種視頻生成功能。谷歌在文生視頻領域的儲備想必也深,可以預測后續(xù)和OpenAI有得一打,而壓力也就此給到了國內的AI企業(yè)。

(本文系網易新聞·網易號特色內容激勵計劃簽約賬號【智東西】原創(chuàng)內容,未經賬號授權,禁止隨意轉載。)

本站僅提供存儲服務,所有內容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
全球最強開源大模型一夜易主!谷歌Gemma 7B碾壓Llama 2 13B,今夜重燃開源之戰(zhàn)
谷歌深夜發(fā)布全球最強開源大模型Gemma,性能“吊打”130億的Llama|鈦媒體AGI
新火種AI|谷歌深夜炸彈!史上最強開源模型Gemma,打響新一輪AI之戰(zhàn)
谷歌最強開源大模型亮相!Gemini技術下放,筆記本就能跑,可商用
谷歌的原生多模態(tài)大模型Gemini來了,劍指GPT-4
巨龍?zhí)K醒,谷歌剛剛發(fā)布的大模型工具要反擊OpenAI?
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 高雄县| 兴化市| 新巴尔虎左旗| 永兴县| 衡南县| 广东省| 庆城县| 龙陵县| 观塘区| 临高县| 通许县| 即墨市| 介休市| 嘉义县| 福鼎市| 博客| 堆龙德庆县| 东乡族自治县| 马鞍山市| 克东县| 互助| 卫辉市| 阳泉市| 丽江市| 松阳县| 昭通市| 富川| 会昌县| 永宁县| 凤阳县| 若尔盖县| 建德市| 博湖县| 常熟市| 孝感市| 西宁市| 吐鲁番市| 山东| 定南县| 界首市| 额济纳旗|