LLMs之GLM-4:GLM-4的簡介、安裝和使用方法、案例應用之詳細攻略
導讀:2024年01月16日,智譜AI在「智譜AI技術開放日(Zhipu DevDay)」推出新一代基座大模型GLM-4。GLM-4 的主要亮點和能力如下:
>> 性能與GPT-4相近:多模態、長文本能力得到提升。在多個評測集上,GLM-4性能已接近或超過GPT-4。
>> 強大的多模態能力:文生圖和多模態理解能力得到增強,效果超過開源SD模型,逼近DALLE-3。
>> 全新推出的All Tools能力:GLM-4能自主理解和執行復雜任務,調用瀏覽器、代碼解釋器等完成復雜工作。
>> 個性化智能體功能:用戶可以通過智譜官網輕松創建屬于自己的GLM智能體,實現大模型開發定制。
開心一笑,送給每一位AI研究學者:“OpenAI摸著石頭過河,我們摸著OpenAI過河。” ^~^
2024年01月16日,智譜AI在「智譜AI技術開放日(Zhipu DevDay)」推出新一代基座大模型GLM-4。智譜AI發布 All Tools、GLMs、MaaS API、大模型科研基金、大模型開源基金以及「Z計劃」創業基金等內容。
新一代基座大模型GLM-4,整體性能相比GLM3全面提升60%,逼近GPT-4;支持更長上下文;更強的多模態;支持更快推理速度,更多并發,大大降低推理成本;同時GLM-4增強了智能體能力。
GLM-4 在 MMLU、GSM8K、MATH、BBH、HellaSwag、HumanEval等數據集上,分別達到GPT-4 94%、95%、91%、99%、90%、100%的水平。
GLM-4在IFEval的prompt級別上中、英分別達到GPT-4的88%、85%的水平,在Instruction級別上中、英分別達到GPT-4的90%、89%的水平。
GLM-4在中文對齊能力上整體超過GPT-4。
我們在LongBench(128K)測試集上對多個模型進行評測,GLM-4性能超過 Claude 2.1;在「大海撈針」(128K)實驗中,GLM-4的測試結果為 128K以內全綠,做到100%精準召回。
CogView3在文生圖多個評測指標上,相比DALLE3 約在 91.4%?~99.3%的水平之間。
GLM-4 實現自主根據用戶意圖,自動理解、規劃復雜指令,自由調用網頁瀏覽器、Code Interpreter代碼解釋器和多模態文生圖大模型,以完成復雜任務。簡單來講,即只需一個指令,GLM-4會自動分析指令,結合上下文選擇決定調用合適的工具。
GLM-4 能夠結合上下文進行AI繪畫創作(CogView3),如下圖所示,大模型能夠遵循人的指令來不斷修改生成圖片的結果:
GLM-4能夠通過自動調用python解釋器,進行復雜計算(例如復雜方程、微積分等),在GSM8K、MATH、Math23K等多個評測集上都取得了接近或同等GPT-4 All Tools的水平。
通過?動調? python 解釋器,進?復雜計算(復雜?程、微積分等)???????
同樣GLM-4 也可以完成文件處理、數據分析、圖表繪制等復雜任務,支持處理Excel、PDF、PPT等格式文件。
GLM-4 能夠自行規劃檢索任務、自行選擇信息源、自行與信息源交互,在準確率上能夠達到 78.08,是GPT-4 All Tools 的116%。
GLM-4 能夠根據用戶提供的Function描述,自動選擇所需 Function并生成參數,以及根據 Function 的返回值生成回復;同時也支持一次輸入進行多次 Function 調用,支持包含中文及特殊符號的 Function 名字。這一方面GLM-4 All Tools 與 GPT-4 Turbo 相當。
除了以上單項工具自動調用外,GLM-4 同樣能夠實現多工具自動調用,例如結合?網頁瀏覽、CogView3、代碼解釋器等的調用方式。
We are more open。我們一直在路上, 我們期待與所有研究者和開發者共同探索大模型的未來,為社會創造價值。
從ChatGLM一代二代三代以來,我們幾乎開源了所有內核模型,包括千億級基座GLM-130B、搜索增強模型WebGLM、圖形理解模型VisualGLM、代碼模型CodeGeeX1、2,文生圖模型CogView1、2,圖形增強理解模型CogVLM還有可視化認知Agent模型CogAgent。我們希望這些模型能夠幫助大家深入認知大模型技術,而不是簡單調用,幫助大家一起探索大模型技術的未來。
???????
等待開源中……
網頁版體驗地址:https://chatglm.cn/main/detail
GLM-4的全線能力提升使得我們有機會探索真正意義上的GLMs。用戶可以下載(更新)智譜清言 APP,進行體驗,快速創建和分享自己的「智能體」。
同樣,MaaS 平臺也將全網開放 GLM-4、GLM-4V、CogView3 等模型 API,并邀請內測 GLM-4 Assistant API。
GLM-4的API接口文檔:https://open.bigmodel.cn/dev/api#glm-4
cogview-3的???????API接口文檔:https://open.bigmodel.cn/dev/api#cogview
import zhipuai
zhipuai.api_key = "your api key"
response = zhipuai.model_api.sse_invoke(
model="glm-4",
prompt= [],
temperature= 0.95,
top_p= 0.7,
incremental=True
)
for event in response.events():
if event.event == "add":
print(event.data, end="")
elif event.event == "error" or event.event == "interrupted":
print(event.data, end="")
elif event.event == "finish":
print(event.data)
print(event.meta, end="")
else:
print(event.data, end="")
效果分析:信息定位到了,但存在舊版信息內容,故大模型總結存在偏差。
更多內容探索中……