人工智能與人類緊密的結合,使得智能化的人機協同成為大勢所趨。而人工智能技術的高速發展也面臨諸多困難與挑戰。其中,如何把AI技術的基本原理,其自動決策機制、潛在風險及防范措施,以通俗易懂的方式向人類說明,成為發展可信賴、安全可靠人工智能的首要任務。在此背景下,華夏基金首席數據官陳一昕、楊強、范力欣、朱軍、張拳石、朱松純、陶大程、崔鵬、周少華、劉琦、黃萱菁、張永鋒等12位來自機器學習、計算機視覺、自然語言處理,以及在生物醫療、金融、推薦系統等應用領域的著名專家,聯合創作了《可解釋人工智能導論》一書,現已重磅上市!
《可解釋人工智能導論》一書全面介紹可解釋AI的基礎知識、理論方法和行業應用。全書分為三部分,共11 章。第1章揭示基于數據驅動的人工智能系統決策機制,提出一種基于人機溝通交互場景的可解釋人工智能范式。第2~5 章介紹各種可解釋人工智能技術方法,包括貝葉斯方法、基于因果啟發的穩定學習和反事實推理、基于與或圖模型的人機協作解釋、對深度神經網絡的解釋。第6~10 章分別介紹可解釋人工智能在生物醫療、金融、計算機視覺、自然語言處理、推薦系統等領域的應用案例,詳細說明可解釋性在司法、城市管理、安防和制造等實際應用中發揮的積極作用。第11 章對全書進行總結,并論述可解釋人工智能研究面臨的挑戰和未來發展趨勢。
為什么要強調人工智能的可解釋性?可解釋性在日常生活當中比比皆是,比如一位醫生在向一位病人解釋診斷結果和治療措施時,要給病人一個好的病因和治療解釋,讓病人放心。但由于核心AI算法,尤其是深度學習算法,通常運行在類似于“黑盒”中的工作模式下,導致AI系統的運行結果,并不能以合乎情理的方式被人類所理解和認同。在涉及人身財產安全的重大領域中,如金融、醫療、自動駕駛等,模型的可解釋性成了決定用戶能否信任模型的關鍵。
華夏基金首席數據官陳一昕提到,在金融領域中,機器學習的可解釋性往往需要面對多種對象,包括開發者、使用用戶、應用用戶、金融監管、社會大眾等。不同對象所看重的“可解釋性”重點雖各不相同,但都有其必要性。對于開發者來說,算法的“可解釋性”可以保證后續調優改進過程的有效進行;對于金融工具的使用用戶來說,“可解釋性”則可以使機器學習模型像其他傳統金融理論或公式一樣被理解與接受;對于應用用戶,如使用模型的投資研究人員,“可解釋性”可以為模型給出的不同資產定價結果做出詳細說明;對于金融監管者來說,“可解釋性”可以保證其從全流程上對AI模型進行約束并防范金融風險;而對于社會大眾來說,任何一門學科的深入發展都是不可或缺的,人們需要對金融機構的決策進行審慎監督。
金融人工智能是一個在不斷發展的領域,隨著社會共識的加深以及金融人工智能可解釋性相關的法律、監管規章的持續完善,可解釋性將成為金融AI能夠長期可持續應用的必要原則之一。據了解,目前華夏基金正就將可解釋機器學習在基金業務領域的落地應用進行積極探索和嘗試,將AI技術作為一種輔助性的投資工具,集中應用在輔助評估海量數據(12.990, -0.11, -0.84%)集、動態股票篩選、提高投資效率等領域。
責任編輯:石秀珍 SF183