每一周,我們的同事都會向社區的成員們發布一些關于 Hugging Face 相關的更新,包括我們的產品和平臺更新、社區活動、學習資源和內容更新、開源庫和模型更新等,我們將其稱之為「Hugging News」。
Hugging Face Spaces 現已支持使用 A100 GPU,用戶享受超快速機器學習推理,自助開通的價格為每小時 4.13 美元,企業客戶更可以享受更低的價格。此外,未來幾個月,Spaces 還將提供更多用于機器學習的超酷硬件,如果您有特定的需求,可以給我們留言。
基于隱私保障設計,所有的圖片都不聯網而是在本地生成;可下載模型,這些模型都基于 CPU、GPU 和 Apple 的神經計算引擎 (ANE) 進行優化。
Transformer 4.25 引入了 ImageProcessor,讓用戶能夠利用更為強大的圖像處理能力。同時,部分 API 也更加統一,參數配置項也改為使用 dict
,更直觀也更方便。
機器學習技術在今天的社會中發揮著越來越重要的作用,可以應用于各種領域,包括醫療、金融、社交媒體、自動駕駛等。然而,這些技術的應用也可能帶來許多潛在的倫理和道德問題,比如數據隱私、算法歧視、社會影響等。因此,有必要關注和鼓勵那些采用了倫理意識的機器學習項目,以確保這些項目符合社會的倫理標準和價值觀。
為了展示和鼓勵更好的機器學習實踐,我們正在請社區的成員們提交提名那些在這方面做的很好的 Space 應用,我們正在找尋如下相關的項目:
你可以在這里提名:
?? 我們正在舉辦首場 AI 對陣 AI 的虛擬足球賽,你可以將自己的模型提交到 Hugging Face Hub 中,然后與其他隊伍的作品展開一張 2v2 的足球較量賽。
首場挑戰賽由 MLAgents 團隊基于 Unity 引擎提供,我們會基于大家的反饋舉辦更多精彩的比賽。
快來加入我們的課程,并與來自世界各地的同學們踢一場精彩的 AI 球賽吧!
在這個版本中,我們提供了一款交互式配置 ?? Accelerate 的在線小工具,幫助你快速上手。同時,當你在訓練中需要跳過前幾個批次的數據時,DataLoaders
現在提供了函數來直接實現。此外,我們還提供了 release_memory
函數輔助釋放 PyTorch 占用的內存,以及更靈活的 load_state
與 save_state
API。
現在,我們在模型查找頁面增加了一個庫 (library) 篩選的標簽,這樣你就能更快找到跟自己感興趣的庫相關的各種模型了!
我們在 ?? Hugging Face Spaces 匯總了不少優秀的 Tune-A-Video 模型,幫你輕松實現「一句話,讓模型給我拍個片」。
Hugging Face 擴散模型課程的第四單元: 深入研究擴散模型已經發布,這是本課程的最后一個單元,在這個單元中,我們將探討最新研究中出現的擴散模型的許多改進和擴展。它將比以往的單元代碼更少,旨在為您提供進一步研究的起點。
在此前的推文里,我們發布了本課程的第一單元的 第一部分 和 第二部分。我們很高興地通知大家,我們的抱抱臉本地化小組已經完成了這個課程的全部內容!我們也即將在隨后的推文中陸續發布,歡迎關注我們。
只是因為在人群中多看了你一眼,我們在計算機視覺上的投入只是從 21 年的這個 PR 開始 (huggingface/transformers#10950)。
但自去年開始,我們開始投入大量的精力投入到計算機視覺上。現如今,Hugging Face Hub 上已經有 8 個核心的計算機視覺任務、3000 多個模型和 100 多個數據集了!
我們寫了篇博客介紹這些內容,不過你可以等等,我們的本地化小組的譯者 AIboy1993 已經完成了這篇博客的中文版,下周就發推送 (爭取不鴿)!
除此之外,還有一篇關于計算機視覺和語言預訓練的研究進展的博客文章 A Dive into Vision-Language Models,也已由我們本地化小組的 Matrix 同學完成了本地化,下周也將推送給大家。
現在,你可以在 ?? Hugging Face Spaces 上體驗 AudioLM 模型用文字描述生成相應音效的能力了。你只需要提供足夠詳細的描述,然后提交給模型進行處理即可。快去體驗專屬于你的獨家音效吧!
我們為大家提供了一款比較 Stable Diffusion v1.4、v2 和 Dall-E 2 執行文字生成圖片結果的工具。你可以選擇一個職業,及相應的形容詞,然后對比它們三者生成的圖片。
據說這可能是一個可以教 ChatGPT 看懂圖片的大語言模型,BLIP-2 由 Salesforce Research 團隊發布,你可以給他一張圖片,然后針對圖片里的內容跟 AI 進行對話。小編看了一些報道提到說 BLIP-2 可以「教會」讓 ChatGPT 學會看圖,真的有這么神奇嗎?