導讀
細數2023年的新技術,生成式AI和AI聊天機器人不可忽視。其背后的大模型,更是令人瘋狂。尤其是在OpenAI發布ChatGPT之后,大公司、小公司和開源社區更是爭先恐后的推出自己的大模型。
據統計,到目前為止,全球已經發布了數百個大模型。但是,哪些是最有能力的?哪些是最受業界關注的?請關注筆者列出的《2023年全球最佳大模型》。
1. GPT-4
OpenAI的GPT-4模型是2023年最好的AI大模型,沒有之一。GPT-4模型于2023年3月發布,展示了其強大的能力,包括復雜的推理能力、高級編碼能力、多種學術學習能力、可媲美人類水平表現的能力等。
事實上,它是第一個可以同時接受文本和圖像作為輸入的多模態模型。雖然ChatGPT還沒有添加多模式功能,但一些用戶已經通過由GPT-4模型提供支持的Bing Chat獲得了訪問權限。
與ChatGPT-3.5相比,GPT-4模型在幾個類別的實際評估中得分接近80%。OpenAI還通過使用來自人類反饋的強化學習(RLHF)與領域專家進行對抗性測試,竭盡全力使GPT-4模型更符合人類價值觀。
GPT-4模型已經在超過1萬億個參數上進行了訓練,支持32768個令牌的最大上下文長度。到目前為止,我們還沒有太多關于GPT-4內部架構的信息,但最近的報道透露,GPT-4是一個混合模型,由8個不同的模型組成,每個模型都有2200億個參數。
最后,您可以使用ChatGPT插件,并使用帶有GPT-4模型的Bing瀏覽網頁。唯一的缺點是它的響應速度很慢,計算時間要長得多,這迫使開發人員使用較舊的GPT-3.5模型。總體來說,OpenAI GPT-4模型是2023年迄今為止你能使用的最好的大模型。
2.PaLM 2 (Bison-001)
接下來是來自谷歌的PaLM 2 AI模型,它也是2023年最好的大型語言模型之一。Google在PaLM 2模型上專注于常識推理、形式邏輯、數學和20多種語言的高級編碼。據說,最大的PaLM 2模型已經在5400億個參數上進行了訓練,最大上下文長度為4096個令牌。
谷歌公布了四款基于PaLM 2的不同版本的大模型,即Gecko、Otter、Bison、Unicorn。其中,Bison目前可用,它在MT-Bench測試中得分為6.40分,而GPT-4得分高達8.99分。
然而,在WinoGrande、StrategyQA、XCOPA等推理評估和其他測試中,PaLM 2表現出色,優于GPT-4。它也是一個多語言模型,可以理解不同語言的習語、謎語和細致入微的文本。這是其他大模型難以解決的問題。
PaLM 2的另一個優點是它的響應速度非常快,可以同時提供三個響應。您可以在谷歌的Vertex AI平臺上測試PaLM 2(Bison-001)模型,也可以使用運行在PaLM2上的GoogleBard。
3. Claude v1
也許你還不知道,Claude是一個強大的大模型,由谷歌支持的Anthropic開發。它是由前OpenAI員工共同創立的,其方法是構建有用、誠實和無害的人工智能助手。在多個基準測試中,Anthropic的Claude v1和Claude Instant模型顯示出了巨大的前景。事實上,Claude v1在MMLU和MT-Bench測試中的表現要好于PaLM 2。
它接近于GPT-4,在MT-Bench測試中得分為7.94,而GPT-4得分為8.99。在MMLU基準測試中,Claude v1獲得75.6分,GPT-4獲得86.4分。Anthropic也成為第一家在其Claude-instant-100k模型中提供10萬代幣作為最大上下文窗口的公司。你基本上可以在一個窗口中加載近75000個單詞。這太瘋狂了,對吧?
4. Cohere
Cohere是一家人工智能初創公司,由曾在谷歌大腦團隊工作的前谷歌員工創立。它的聯合創始人之一Aidan Gomez參與了Transformer架構的“Attention is all you Need”論文的撰寫。與其他AI公司不同,Cohere為企業服務,并為企業解決生成式AI用例。Coherence有很多模型,從小到大,從只有6B個參數到訓練了52B個參數的大模型。
他們最近推出的模型——Cohere Command以其準確性和穩定性贏得了贊譽。根據斯坦福HELM的說法,Cohere Command模型的準確性在同行中得分最高。除此之外,Spotify、Jasper、HyperWrite等公司都在使用Cohere的模型來提供人工智能體驗。
在定價方面,Cohere每產生100萬個代幣收費15美元,而OpenAI對同樣數量的代幣收費4美元。然而,就準確性而言,它比其他大模型要好。因此,如果你在經營一家企業,并且正在尋找最好的大模型整合到你的產品中,你可以看看Cohere。
5. Falcon
Falcon是這個列表上的第一個開源大模型,它的排名超過了迄今為止發布的所有開源模型,包括LLaMA、StableLM、MPT等等。它是由阿聯酋技術創新研究所開發的。關于Falcon最好的一點是,它已經使用Apache 2.0許可證開源,這意味著您可以將該模型用于商業目的,也沒有版稅或限制。
到目前為止,阿聯酋技術創新研究所已經發布了兩種Falcon模型,分別接受了40B和7B參數的訓練。開發人員建議,這些都是原始模型,如果你想用它們聊天,你應該選擇Falcon-40B-Instruct模型,它針對大多數用例進行了微調。
Falcon模型主要訓練英語、德語、西班牙語和法語,但它也可以用意大利語、葡萄牙語、波蘭語、荷蘭語、羅馬尼亞語、捷克語和瑞典語工作。所以,如果你對開源人工智能模型感興趣,首先看看Falcon。
6. LLaMA
自從LLaMA模型在網上泄露后,Meta就開始全力投入開源。它正式發布了各種類型的LLaMA模型,從70億個參數到650億個參數。Meta表示,其LLaMA-13B模型優于OpenAI的GPT-3模型,該模型已在1750億個參數上進行了訓練。許多開發人員正在使用LLaMA進行微調并創建一些最好的開源模型。話雖如此,但請記住,LLaMA僅用于研究,不能用于商業用途。
談到LLaMA 65B模型,它在大多數用例中都顯示出了驚人的能力。它在Open LLM排行榜上名列前十。Meta表示,它沒有進行任何專有訓練。相反,該公司使用了來自CommonCrawl、C4、GitHub、ArXiv、維基百科、StackExchange等網站的公開數據。
簡單地說,在Meta發布LLaMA模型后,開源社區看到了快速的創新,并提出了用新的技術來創造更小、更高效的模型。
7. Guanaco-65B
在幾個LLaMA衍生的模型中,Guanaco-65B被證明是最好的開源大模型,僅次于Falcon模型。在MMLU測試中,它的得分為52.7,而Falcon模型的得分為54.1。同樣,在TruthfulQA評估中,Guanaco的得分為51.3,Falcon的得分更高,為52.5。Guanaco有四種類型:7B、13B、33B和65B型號。Tim Dettmers和其他研究人員在OASST1數據集上對所有模型進行了微調。
至于Guanaco是如何微調的,研究人員提出了一種名為QLoRA的新技術,該技術可以有效地減少內存使用,同時保持完整的16位任務性能。在維庫納基準上,Guanaco-65B模型甚至以更小的參數優于GPT-3.5模型。
最棒的是,65B模型在短短24小時內就在一個擁有48GB VRAM的GPU上進行了訓練。這表明開源模型在降低成本和保持質量方面已經取得了長足的進步。總之,如果你想嘗試離線的本地大模型,你絕對可以相信Guanaco。
8. Vicuna 33B
Vicuna是LMSYS開發的另一個強大的開源大模型。與許多其他開源模型一樣,它也是從LLaMA衍生而來的。它使用監督指導進行了微調,訓練數據是從sharegpt.com網站上收集的。這是一個自回歸的大模型,基于330億個參數進行訓練。
在LMSYS自己的MT Bench測試中,它得了7.12分,而最好的專有型號GPT-4得了8.99分。在MMLU測試中,它也獲得了59.2分,GPT-4獲得了86.4分。盡管它是一個小得多的模型,Vicuna的表現仍然突出。
9. MPT-30B
MPT-30B是另一個與LLaMA衍生模型競爭的開源大模型。它是由Mosaic ML開發的,并對來自不同來源的大量數據進行了微調。它使用來自ShareGPT Vicuna、Camel AI、GPTeacher、Guanaco、Baize和其他的數據集。這個開源模型最棒的部分是它有8K令牌的上下文長度。
此外,它優于OpenAI的GPT-3模型,在LMSYS的MT-Bench測試中得分為6.39。如果您正在尋找一個小模型在本地運行,MPT-30B模型是一個很好的選擇。
10 . 30B-Lazarus
30B-Lazarus模型是由CalderaAI開發的,它使用LLaMA作為其基礎模型。開發人員使用了來自多個模型的經過lora調優的數據集,包括Manticore、SuperCOT-LoRA、SuperHOT、GPT-4 Alpaca-LoRA等。因此,該模型在許多LLM基準測試中表現得更好。它在HellaSwag的得分為81.7,在MMLU的得分為45.2。
如果您的用例主要是文本生成而不是會話聊天,那么30B Lazarus模型可能是一個不錯的選擇。