機器之心編輯部
從此,開發者 “Token 自由” 不再是夢,可以甩開膀子開發超級應用了。
“Token 自由” 傳送門,一鍵直達:
cloud.siliconflow.cn/s/free
大模型 Token 工廠
即時上新、極速輸出、價格親民
既然叫 Token 工廠,那用戶喜歡的模型就都能直接在 SiliconCloud 上找到。
最近,大模型社區相當熱鬧,開源模型不斷刷新著 SOTA,輪流霸榜。
硅基流動第一時間將這些大模型快速上架到 SiliconCloud,包括最強開源代碼生成模型 DeepSeek-Coder-V2,超越 Llama3 的大語言模型 Qwen2、GLM-4-9B-Chat、DeepSeek V2 系列模型。還支持 Stable Diffusion 3 Medium、InstantID 等文生圖模型。
值得一提的是,對 DeepSeek V2 等部署難度極高的模型,SiliconCloud 是除官方之外唯一支持這些開源大模型的云服務平臺。
考慮到在不同應用場景下需要選擇適合的大模型,開發者可在 SiliconCloud 自由切換。
這樣的開源大模型聚合平臺,已經為開發者提供了不少便利,但還遠遠不夠,作為世界頂級的 AI Infra 團隊,硅基流動致力于將大模型部署成本降低 10000 倍。
要實現這一目標,核心挑戰是如何大幅提升大模型推理速度。對此,SiliconCloud 做到了什么程度?
直觀上圖,感受一下 Qwen2-72B-Instruct 在 SiliconCloud 上的響應速度。
剛開源不久的 SD3 Medium 的生圖時間在 1s 左右。
這些開源大模型的響應速度變快,相同的算力的產出更高,價格自然就打下來了。
SiliconCloud 上的大模型 API 價格也(很卷)更為親民。即使是 Qwen2-72B,官網顯示只要 4.13 元 / 1M Token。新用戶還可免費暢享 2000 萬 Token。
開發者評價:“速度快得再也回不去了”
SiliconCloud 一經發布,不少開發者就在各大社交平臺分享了使用體驗。部分 “自來水” 用戶是這樣評價的:
知乎上,機器學習系統專家 @方佳瑞稱贊了 SiliconCloud 的輸出速度,“用久了就受不了其他大模型廠商 web 端的響應速度”。
微博用戶 @祝威廉二世稱,其他幾家平臺都不敢放 Qwen2 大規模參數的模型,SiliconCloud 都放了,速度很快,還很便宜,一定會付費。
他還提到,大模型的最終產物是 Token,未來會由硅基流動這樣的 Token 工廠,或 OpenAI、阿里云這樣的大模型企業或云廠商完成 Token 的生產。
還有 X 用戶強烈推薦 SiliconCloud,體驗太過絲滑,尤其還有體貼周到的一流售后服務團隊。