精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
MIT新突破:強悍AI視覺算法已可在手機上運行,優于現有方法三倍

近日,MIT-IBM 沃森人工智能實驗室的研究人員在計算機視覺識別算法相關研究中取得突破,他們使用的訓練視頻識別模型的新技術,不僅比目前最先進的方法快三倍,還成功縮小了最先進的計算機視覺模型,這就意味著,人們已經可以在處理能力非常有限的手機或其他設備上運行視頻識別模型。

深度學習(deeplearning)是機器學習的一個分支,它幫助電腦在某些定義明確的視覺任務上超越人類。而視覺識別是深度學習的最廣泛應用之一。計算機視覺算法目前可以分析醫學圖像、賦能自動駕駛汽車和人臉識別。但隨著這項技術擴展到識別視頻和真實世界的事物時,訓練模型就變得越來越大,計算量也越來越大。

據估計,訓練一個視頻識別模型比訓練一個圖像分類模型需要多 50 倍的數據和 8 倍的處理能力。隨著對訓練深度學習模型處理能力的需求呈指數級增長,以及人們對人工智能的巨大碳排放的擔憂與日俱增,這已經成為了重要的問題。另外,在低功耗移動設備上運行大型視頻識別模型仍然是一個挑戰,許多人工智能應用程序正朝著這個方向發展。

麻省理工學院電子工程與計算機科學系(EECS)助理教授韓松所帶領的團隊,正通過設計更高效的深度學習模型來解決這個問題。

(來源:麻省理工科技評論)

他們在一篇被 ICCV2019 接收的論文中概述了一種縮小視頻識別模型的方法,可加快智能手機和其他移動設備上的視覺識別模型訓練,并提高運行時的性能,成功將最先進模型中的 1.5 億個參數減少到 2500 萬個,模型縮小到原來的六分之一。

基礎的圖像和視頻識別模型是神經網絡,它大致模擬了大腦處理信息的方式。無論是數碼照片還是視頻圖像序列,神經網絡都會在像素中尋找模式,并為它們看到的東西構建一個抽象的表示。通過足夠多的例子,神經網絡“學習”識別人、物體以及它們之間的關系。通常,視頻識別算法會將視頻分割成圖像幀,并在每個幀上運行識別算法。然后,它通過觀察對象在隨后每幀中的變化,將視頻中顯示的動作拼接在一起。該方法要求算法“記住”它在每一幀中看到的內容,以及它看到這些內容的順序。這很低效,而且沒有必要。

在新的方法中,算法提取每一幀對象的基本草圖,并將它們疊加起來,算法可以通過觀察草圖中物體在空間中的移動來獲得時間流逝的印記,而不用記住什么時候發生了什么。該模型在識別某些視頻數據集中的行為方面,表現優于其他模型。

研究人員發現,這種訓練視頻識別模型新方法的速度是現有方法的三倍。在最近的一次演示中,它還能通過耗電很小的一臺小型電腦和一臺照相機來快速識別手勢。

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
強大的計算機視覺算法現在小到可以在你的手機上運行
醫學知識圖譜構建關鍵技術及研究進展
概率圖模型(PGM)綜述-by MIT 林達華博士
自動駕駛核心技術之三:環境感知
微信AR技術探索之(1):三維物體的識別與檢測 – VR眼鏡|VR虛擬現實|VR游戲|VR視頻|VR技術|VR下載|VR資訊
七步帶你認識計算機視覺
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 灯塔市| 大埔县| 东方市| 景泰县| 苏尼特左旗| 汝州市| 赤壁市| 青铜峡市| 阜康市| 遂溪县| 方山县| 诸暨市| 朝阳县| 台江县| 南汇区| 延长县| 洞头县| 商南县| 启东市| 松潘县| 永济市| 荆门市| 台中市| 东台市| 祁门县| 武宣县| 伊宁县| 广西| 将乐县| 南昌市| 吴江市| 公主岭市| 慈利县| 山丹县| 曲松县| 湾仔区| 长岭县| 南城县| 洪泽县| 衡水市| 昭苏县|