各位還記得AI Time第一期的主題是“論道AI安全與倫理”嗎?當時我們替各位向在場的三位老師提出了一個困擾大眾已久的問題,即“我們有一天真的會達到電影里的那種智能嗎?擁有情感,擁有愛?”
張鈸院士當時告訴我們:目前流行的人工智能主要基于人類的行為主義學派定義的智能,即人工智能在某些行為判定上超過人類。而人工智能如果想要有新思路的發(fā)展,哲學層面應該走在前面。同時他表示在研究上要成為真正的大師級人物,必須要有哲學思想,沒有哲學思想不可能產(chǎn)生全新的格局。
無獨有偶,6月19日下午,AI Time第二期論道中,北京大學王立威教授也從哲學層面去思考了此次論道主題“論道自動機器學習和可解釋機器學習”。他提到他很喜歡列夫托爾斯泰,但并不把他當做文學家看,而是把他當做哲學家看。
“列夫托爾斯泰的《戰(zhàn)爭與和平》中描述了宏大的歷史片段,他在這本書的最后向各位發(fā)問,我們所認知的歷史就是歷史書上為我們解釋的簡單因果關(guān)系嗎?其實那不是真實的歷史,真實的歷史其實是極其復雜的。而可解釋機器學習又該如何解釋呢?其實大部分問題是不可解釋的,解釋一定是用簡短語言就能解釋出來的。”
如果你是老板,你會怎么選?
為了讓各位更深入地思考,我們不妨將自動機器學習和可解釋機器學習表示為案例中的具體數(shù)字。
假設(shè)你是一家創(chuàng)業(yè)公司的老板,你的公司主要是用機器學習做電話詐騙的自動監(jiān)測。你現(xiàn)在遇到了兩個選擇一個是準確率高達85%的自動機器學習方案,另一個是準確率為78%的可解釋機器學習方案。創(chuàng)業(yè)公司財力有限,只能選擇一種方案,你會怎么選?
各位請先記住自己的選擇,等看完各位老師的想法后再想想自己內(nèi)心的選擇有沒有變化。
接下來我們就來看看各位老師的精彩觀點。
企業(yè)AutoML的用處是流程自動化
針對“AutoML是工業(yè)界的寵兒”這個說法,來自百度的高級研究員李興建博士介紹了AutoML在工業(yè)界的幾類典型應用:
一是神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的自動設(shè)計,工業(yè)界主要通過進化學習、強化學習和可微結(jié)構(gòu)等方式實現(xiàn),百度在生成對抗網(wǎng)絡(luò)(GenerativeAdversarial Networks,GAN)的結(jié)構(gòu)設(shè)計,尤其是上采樣結(jié)構(gòu)設(shè)計上做了一些搜索,發(fā)現(xiàn)搜索出來的網(wǎng)絡(luò)結(jié)構(gòu)相比人工設(shè)計的網(wǎng)絡(luò)訓練更穩(wěn)定,效果也更好;
二是在圖像的風格遷移中的應用,該任務核心模版是使用自編碼器(Autoencoder)做多尺度特征融合,百度團隊通過使用進化算法對該結(jié)構(gòu)進行搜索,發(fā)現(xiàn)只需要非常少的操作和連接,就可以達到同樣甚至是更好的效果,而且處理速度提高了近300倍;類似地應用還有很多。
實際上,AutoML在企業(yè)應用中除算法的自動化之外,還包括很多流程上的自動化,最終產(chǎn)出的從算法到流程全自動化的工具包。
可解釋性是建立人與AI交互的必經(jīng)之路
模型可解釋性對于驗證模型的行為是否符合人類的期望是很有必要的,它可以與用戶建立信任關(guān)系,并且可以簡化從手動過程到自動化過程的過渡。
來自密歇根大學的梅俏竹教授提出了一個問題:“AI如果這樣發(fā)展下去,AI與人的關(guān)系,有多少人認為是取代關(guān)系?又有多少人認為是合作關(guān)系?”
當然大部分人認為是合作關(guān)系,說到合作的話,任何一種合作關(guān)系都需要建立信任也需要交流,人和AI的合作也不例外,機器學習的模型不僅要告訴人類做了什么,也需要解釋其原因。
自動機器學習現(xiàn)在在工業(yè)界這么火,但它其實只是若干環(huán)節(jié)中的一環(huán),并不是整體,而在整個流程中,人和AI的交互是一個非常重要的環(huán)節(jié),所以可解釋性的機器學習就非常重要,醫(yī)療領(lǐng)域也是一樣。
可解釋機器學習的愿景跟自動的機器學習其實并不矛盾,真正的問題是人和AI的關(guān)系,如果你認為人和AI是一個協(xié)作的關(guān)系,可解釋性就是建立合作信任的一條必由之路。
不一定非要追求可解釋,重點是能不能解釋
既然提到可解釋學習,那它接下來該走的路也是大家關(guān)注的一個重點,對于各位提出的對可解釋學習的愿景,來自北京大學的王立威教授提出了一個很有意思的觀點:“在下圖中,神經(jīng)網(wǎng)絡(luò)識別出那是一只貓的依據(jù)是有皮毛和爪子,但是再深入一點,又該如何解釋皮毛和爪子?所以大部分問題本質(zhì)上是不可解釋的。
當下很多人都認為醫(yī)療里面可解釋性是一個很重要的要求,但是以他做醫(yī)療領(lǐng)域人工智能問題的經(jīng)驗來看,可解釋性在醫(yī)療領(lǐng)域的存在是有階段性的,在醫(yī)生完全不信任智能的開始階段,可解釋是有必要的;但是當醫(yī)生信任了智能,系統(tǒng)性能已經(jīng)達到甚至超過醫(yī)生的階段時,可解釋性就不再有必要了。
如果對某類東西的解釋沒有一個可以用簡短語言描述的模型,這就叫做不可解釋,我們不一定非要追求可解釋,一定是看能不能解釋。
可解釋的存在必要性隨場景變化
來自美國伊利諾伊大學芝加哥分校的Philip S. Yu教授對可解釋的存在必要性的理解依據(jù)于場景的不同,他指出一些電子商務推薦場景,人類是不會參與的,是完全自動化的過程,不需要可解釋機器學習。
但是在一些自動駕駛和醫(yī)療場景下,單一不正確的預測會產(chǎn)生重大影響,能夠“驗證”模型至關(guān)重要,真正有人力的話,我們更多需要的是有可解釋性。
此時各位的選擇有變化了嗎?是準確率高達85%的自動機器學習方案還是準確率為78%的可解釋機器學習方案?
ACL2019新論文 深度學習VS環(huán)保
接下來再來看一張圖,它來自于今年提交到自然語言處理頂會ACL的一篇論文,這篇論文用數(shù)據(jù)證明某些新的模型/訓練方式取得了最優(yōu)的結(jié)果,但是進展微小,副作用更是不成比例的計算量/碳排放的增加。
論文一出,引起了大家的討論,有人認為是論文中所舉的例子耗能過大,現(xiàn)實中很少有個人或組織能做這么大規(guī)模的項目,但是例舉的神經(jīng)結(jié)構(gòu)搜索(NAS)消耗的能量和排放的二氧化碳是有道理的,因為搜索過程意味著需要運行幾個大數(shù)量級的訓練步驟。也有人認為現(xiàn)在我們所使用的一些人工智能產(chǎn)品在一開始設(shè)計時確實會消耗大量能源,但是當受過訓練的人工智能投入使用后是可以節(jié)省能源的,長遠平均來看,耗能也許并不多。
看到這里,各位還記得自己是那家創(chuàng)業(yè)公司的老板嗎?是準確率高達85%的自動機器學習方案還是準確率為78%的可解釋機器學習方案?
歡迎各位參與下方的投票、直接留言分享自己的看法或者心路歷程,留言點贊前3名可各獲得人工智能相關(guān)書籍一本!