精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
透過現象看機器學習:奧卡姆剃刀,沒有免費的午餐,丑小鴨定理等

 Datawhale 

作者:邱錫鵬,復旦大學教授

寄語:本文對PAC學習理論、沒有免費的午餐定理、丑小鴨定理、奧卡姆剃刀原理等機器學習中有名的理論或定理進行了詳細的梳理。

在機器學習中,有一些非常有名的理論或定理,這些理論不僅有助于我們從本質理解機器學習特性,更好地學習相關理論,更重要的是可以有助于我們理解很多生活哲學,比如奧卡姆剃刀原理所延伸的極簡主義:如無必要,勿增實體的理念,讓我們一起細品吧。

沒有免費午餐定理

沒有免費午餐定理(NFL)是由Wolpert 和Macerday在最優化理論中提出的。沒有免費午餐定理證明:對于基于迭代的最優化算法,不存在某種算法對所有問題(有限的搜索空間內)都有效。

如果一個算法對某些問題有效,那么它一定在另外一些問題上比純隨機搜索算法更差。也就是說,不能脫離具體問題來談論算法的優劣,任何算法都有局限性. 必須要“具體問題具體分析”。


沒有免費午餐定理對于機器學習算法也同樣適用。不存在一種機器學習算法適合于任何領域或任務。 如果有人宣稱自己的模型在所有問題上都好于其他模型,那么他肯定是在吹牛。


丑小鴨定理

丑小鴨定理(Ugly Duckling Theorem)是1969 年由渡邊慧提出的[Watanable,1969]。“丑小鴨與白天鵝之間的區別和兩只白天鵝之間的區別一樣大”。這個定理初看好像不符合常識,但是仔細思考后是非常有道理的。


因為世界上不存在相似性的客觀標準,一切相似性的標準都是主觀的。


如果從體型大小或外貌的角度來看,丑小鴨和白天鵝的區別大于兩只白天鵝的區別;但是如果從基因的角度來看,丑小鴨與它父母的差別要小于它父母和其他白天鵝之間的差別。

奧卡姆剃刀原理

奧卡姆剃刀原理是由14 世紀邏輯學家William of Occam提出的一個解決問題的法則:“如無必要,勿增實體“。

奧卡姆剃刀的思想和機器學習上正則化思想十分類似:簡單的模型泛化能力更好。如果有兩個性能相近的模型,我們應該選擇更簡單的模型。


因此,在機器學習的學習準則上,我們經常會引入參數正則化來限制模型能力,避免過擬合。

 奧卡姆剃刀的一種形式化是最小描述長度(Minimum Description Length,MDL)原則,即對一個數據集??,最好的模型?? ∈ ? 是會使得數據集的壓縮效果最好,即編碼長度最小。

最小描述長度也可以通過貝葉斯學習的觀點來解釋[MacKay, 2003]。模型?? 在數據集?? 上的對數后驗概率為       

其中? log ??(??) 和? log ??(??|??) 可以分別看作是模型?? 的編碼長度和在該模型下數據集?? 的編碼長度。也就是說,我們不但要使得模型?? 可以編碼數據集??,也要使得模型?? 盡可能簡單。

PAC 學習理論

當使用機器學習方法來解決某個特定問題時,通常靠經驗或者多次試驗來選擇合適的模型、訓練樣本數量以及學習算法收斂的速度等。

但是經驗判斷或多次試驗往往成本比較高,也不太可靠,因此希望有一套理論能夠分析問題難度、計算模型能力,為學習算法提供理論保證,并指導機器學習模型和學習算法的設計。

這就是計算學習理論, 計算學習理論(Computational Learning Theory)是關于機器學習的理論基礎,其中最基礎的理論就是可能近似正確(Probably Approximately Correct,PAC)學習理論。

機器學習中一個很關鍵的問題是期望錯誤和經驗錯誤之間的差異,稱為泛化錯誤(Generalization Error)。泛化錯誤可以衡量一個機器學習模型?? 是否可以很好地泛化到未知數據。   

根據大數定律,當訓練集大小|??| 趨向于無窮大時,泛化錯誤趨向于0,即經驗風險趨近于期望風險。       

由于我們不知道真實的數據分布??(??, ??),也不知道真實的目標函數??(??),因此期望從有限的訓練樣本上學習到一個期望錯誤為0 的函數??(??) 是不切實際的。

因此,需要降低對學習算法能力的期望,只要求學習算法可以以一定的概率學習到一個近似正確的假設,即PAC 學習(PAC Learning)。

一個PAC 可學習(PACLearnable)的算法是指該學習算法能夠在多項式時間內從合理數量的訓練數據中學習到一個近似正確的??(??)。

PAC 學習可以分為兩部分:

  • “近似正確”(Approximately Correct):一個假設?? ∈ ? 是“近似正確”的,是指其在泛化錯誤???? (??)小于一個界限??。??一般為0到1/2之間的數,0 < ?? < 1/2。如果???? (??) 比較大,說明模型不能用來做正確的“預測”。
  • “可能”(Probably):一個學習算法?? 有“可能”以1 ? ?? 的概率學習到這樣一個“近似正確”的假設。?? 一般為0 到1/2之間的數,0 < ?? < 1/2。

PAC 學習可以下面公式描述:       

其中??,?? 是和樣本數量?? 以及假設空間? 相關的變量。如果固定??、??,可以反過來計算出需要的樣本數量:       

其中|?| 為假設空間的大小. 從上面公式可以看出,模型越復雜,即假設空間? 越大,模型的泛化能力越差。

要達到相同的泛化能力,越復雜的模型需要的樣本數量越多。為了提高模型的泛化能力,通常需要正則化(Regularization)來限制模型復雜度。

PAC 學習理論也可以幫助分析一個機器學習方法在什么條件下可以學習到一個近似正確的分類器。從上述公式可以看出,如果希望模型的假設空間越大,泛化錯誤越小,其需要的樣本數量越多。

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
“奧卡姆剃刀”
淺談人工智能入門必讀物《機器學習》
奧卡姆剃刀定律“奧卡姆剃刀定律”,又稱“...
當貝葉斯,奧卡姆和香農一起來定義機器學習
奧卡姆剃刀
【國君金工-學界縱橫系列】量化建模需放下“奧卡姆剃刀”
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 织金县| 洪雅县| 东乡县| 分宜县| 长顺县| 大兴区| 怀宁县| 红原县| 敦煌市| 长乐市| 潜江市| 泊头市| 威海市| 罗田县| 白银市| 集贤县| 射阳县| 德安县| 多伦县| 五台县| 固安县| 临沧市| 盐津县| 城口县| 赤水市| 潮州市| 龙门县| 湖北省| 莱芜市| SHOW| 花莲市| 陇南市| 昭通市| 双桥区| 新密市| 牡丹江市| 津南区| 英山县| 江华| 都江堰市| 政和县|