精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
除了拼技術(shù),谷歌、微軟、IBM都爭相給AI搞價(jià)值觀 | 騰研識者
最近,谷歌放棄與美國軍方續(xù)簽一份涉及軍事AI的合同,并承諾提出軍事AI倫理原則。據(jù)媒體報(bào)道谷歌內(nèi)部對與軍方的合作爭論非常激烈,知名科學(xué)家李飛飛就曾極力反對AI用于武器。
事實(shí)上,人工智能進(jìn)入人類世界,沒有人可以獨(dú)善其身。除了谷歌,微軟、IBM、Sage、SAP、百度等科技公司亦爭相提出了其自己的AI原則,甚至成立AI倫理委員會(huì),來舒緩?fù)饨鐚π屡d技術(shù)的擔(dān)憂,表明其發(fā)展AI的立場和態(tài)度。
凡此種種表明,在全球AI爭霸賽場上,除了技術(shù)研發(fā)和應(yīng)用,建立AI價(jià)值觀已成為新賽道。
正如作者所言,“如果我們追問科技何以向善,答案必然不在技術(shù)創(chuàng)新本身。因?yàn)榧夹g(shù)創(chuàng)新自身并不能保證廣泛的社會(huì)進(jìn)步。”
從基辛格的憂慮說起
最近,95歲高齡的基辛格在《大西洋報(bào)》上刊發(fā)了一篇長文《啟蒙主義是如何終結(jié)的》(How the Enlightenment Ends),闡發(fā)他本人對人工智能的看法。[1]用他的話來說就是,面對人工智能的興起,人類社會(huì)在哲學(xué)、理智等各方面都還沒有準(zhǔn)備好。
他回顧歷史發(fā)現(xiàn),15世紀(jì)印刷術(shù)的發(fā)明極大改變了近現(xiàn)代歷史進(jìn)程,實(shí)證的知識代替了宗教的學(xué)說,理性時(shí)代逐漸取代了宗教時(shí)代。個(gè)人見解和科學(xué)知識取代信仰,成為了人類意識的首要標(biāo)準(zhǔn)。理性時(shí)代產(chǎn)生的思想和行動(dòng)塑造了當(dāng)代世界秩序。
然而,人工智能等技術(shù)變革正在沖擊這一秩序,因?yàn)槲覀儫o法完全預(yù)料這些技術(shù)的影響,而且這些技術(shù)可能最終導(dǎo)致我們的世界所依賴的各種機(jī)器為數(shù)據(jù)和算法所驅(qū)動(dòng)且不受倫理或哲學(xué)規(guī)范約束。
基辛格的擔(dān)憂不無道理。大數(shù)據(jù)和人工智能算法在我們的社會(huì)中扮演著越來越重要的角色:參與交易、診治疾病、輔助司法和執(zhí)法、推薦個(gè)性化內(nèi)容和物品,等等。
可以說,算法在塑造我們的文化,塑造我們所聽所見,塑造我們的生活,無論人們是否意識到這些變化。算法社會(huì)已然成為現(xiàn)實(shí)。
然而,人們擔(dān)心一個(gè)在“黑盒”中運(yùn)行的算法社會(huì)在“不可解釋和不可理解”的帷幕之后固化或者加劇社會(huì)不公平。
科技公司探尋人工智能價(jià)值觀
面對社會(huì)公眾的擔(dān)憂和質(zhì)疑,科技公司并未無動(dòng)于衷,早已開始思考人工智能技術(shù)及其應(yīng)用的社會(huì)經(jīng)濟(jì)和人類健康影響,并采取措施確保人工智能有益于、造福于個(gè)人和社會(huì),最終目的是希望人工智能在人類社會(huì)中扮演一個(gè)積極的角色,而非一個(gè)破壞者的角色。
科技公司的舉措主要體現(xiàn)在以下三個(gè)方面。
其一,積極擁抱AI倫理與社會(huì)研究。
如今,AI領(lǐng)域的一個(gè)重要的風(fēng)向標(biāo)就是,AI研究不僅關(guān)乎技術(shù),更關(guān)乎技術(shù)的倫理與社會(huì)影響。跨學(xué)科、跨領(lǐng)域的研究在AI領(lǐng)域正成為一個(gè)顯著的趨勢。
華人AI科學(xué)家李飛飛是主要倡導(dǎo)者之一,她認(rèn)為現(xiàn)在是時(shí)候把AI與社會(huì)科學(xué)、人文科學(xué)結(jié)合起來,研究AI對社會(huì)、法律體系、組織、民主系統(tǒng)、教育和道德的深遠(yuǎn)影響。[2]這是科技企業(yè)負(fù)責(zé)任研發(fā)與創(chuàng)新(responsible research and innovation)的體現(xiàn)。
其二,提出人工智能價(jià)值觀。
AI研發(fā)和應(yīng)用需要遵循什么樣的倫理和價(jià)值原則,是各界都在努力探索的話題。
歐盟、英國等致力于達(dá)成國家層面、地區(qū)層面和國際層面的人工智能倫理準(zhǔn)則,F(xiàn)LI(即未來生命研究所,主導(dǎo)提出了“阿西洛馬人工智能原則”)、IEEE等希望推動(dòng)行業(yè)層面的人工智能倫理共識,谷歌、微軟等科技公司則紛紛提出企業(yè)層面的人工智能價(jià)值觀以贏得公眾和公眾的信任。
其三,成立AI倫理委員會(huì)。
對于科技公司而言,宣布成立AI倫理委員會(huì)似乎是應(yīng)對人工智能帶來的各種負(fù)面問題的最輕易做法。然而,能夠在AI研發(fā)和應(yīng)用中發(fā)揮價(jià)值,才是AI倫理委員會(huì)的最大價(jià)值,而這需要行業(yè)共識,比如行業(yè)最佳實(shí)踐。
科技向善更在技術(shù)之外
對于這一波AI發(fā)展浪潮,DeepMind起到了導(dǎo)火索的作用。
從擊敗世界頂級圍棋棋手李世石的AlphaGo,到舉世無對手的Master,再到不依靠任何人類經(jīng)驗(yàn)就能擊敗AlphaGo的AlphaGo Zero和無師自通掌握多種棋類游戲的AlphaZero,DeepMind在短短一兩年時(shí)間讓深度學(xué)習(xí)、人工智能等概念家喻戶曉。再加上一些名人的大膽預(yù)言和眾多媒體的各種炒作,社會(huì)公眾的焦慮情緒一時(shí)間被引爆了。對新技術(shù)的擔(dān)憂和疑慮再一次成為社會(huì)各界共議的話題。
隨著其AI技術(shù)的應(yīng)用從游戲領(lǐng)域延伸到醫(yī)療等產(chǎn)業(yè)領(lǐng)域,被谷歌高價(jià)收購的DeepMind在應(yīng)對AI的倫理與社會(huì)影響上并未無動(dòng)于衷。
2017年10月3日,DeepMind宣布成立人工智能倫理與社會(huì)部門(DeepMind Ethics& Society),目的在于補(bǔ)充、配合其AI研發(fā)和應(yīng)用活動(dòng)。[3]
DeepMind認(rèn)為,AI必須遵循最高的倫理標(biāo)準(zhǔn)以實(shí)現(xiàn)其對世界的巨大好處。技術(shù)并非中立,沒有價(jià)值觀。技術(shù)人員必須負(fù)責(zé)任地應(yīng)對其技術(shù)研發(fā)和應(yīng)用活動(dòng)的倫理和社會(huì)影響。
如果我們追問科技何以向善,答案必然不在技術(shù)創(chuàng)新本身。因?yàn)榧夹g(shù)創(chuàng)新自身并不能保證廣泛的社會(huì)進(jìn)步。
這部分地解釋了為什么DeepMind成立這個(gè)新部門。新部門身兼雙重目的:一方面,幫助技術(shù)人員將倫理付諸實(shí)踐;另一方面,探索人工智能的現(xiàn)實(shí)世界影響并幫助社會(huì)預(yù)測、控制人工智能的影響,以便人工智能技術(shù)能夠兼顧每個(gè)人的利益。新部門確定了五大核心原則和六大研究主題,如下圖所示。
核心原則
研究主題
社會(huì)福祉:AI應(yīng)服務(wù)于全球的社會(huì)和環(huán)境福祉,幫助建設(shè)更公平、更平等的社會(huì),被用來改善人們的生活并將他們的權(quán)利和福祉置于核心位置。
隱私、透明與公平:比如在利用數(shù)據(jù)過程中如何平衡個(gè)人與社會(huì),如何理解并應(yīng)對AI系統(tǒng)和數(shù)據(jù)中的偏見,AI系統(tǒng)需要什么形式的透明性,等等。
嚴(yán)格與循證:當(dāng)研究AI的社會(huì)影響時(shí),DeepMind致力于維持最高的學(xué)術(shù)標(biāo)準(zhǔn)。
經(jīng)濟(jì)影響:包容與平等:比如AI對勞動(dòng)力市場的影響,AI將如何影響社會(huì)中不同經(jīng)濟(jì)群體的收入從而影響社會(huì)不平等,如何預(yù)測AI的社會(huì)和經(jīng)濟(jì)影響并作出回應(yīng)。
透明與開放:DeepMind始終對合作伙伴和所資助的項(xiàng)目保持透明,絕不試圖影響或預(yù)先決定所資助的研究的結(jié)果。
治理與可責(zé)性:比如如何確保私營部門使用AI符合公共利益,如何跟上AI技術(shù)發(fā)展步伐,如何規(guī)制AI,AI系統(tǒng)需要什么樣的安全標(biāo)準(zhǔn)。
包容與跨學(xué)科:DeepMind力圖在研究中反映最廣泛的聲音,融合不同學(xué)科以便囊括多元的視角;DeepMind承認(rèn)AI帶來的問題不限于技術(shù)領(lǐng)域,且只有盡力吸納不同的意見和知識才能被解決。
管理AI風(fēng)險(xiǎn):濫用和意想不到的后果:AI系統(tǒng)可能具有產(chǎn)生意外后果或失靈的風(fēng)險(xiǎn),可能被用于不道德的目的,因此需要研究AI可能帶來的新的社會(huì)風(fēng)險(xiǎn),如何規(guī)制完全自主武器,如何以安全且道德的方式實(shí)施AI。
合作與包容:作為有望影響全社會(huì)的技術(shù),AI必須對全社會(huì)負(fù)責(zé)并由全社會(huì)塑造;DeepMind致力于支持關(guān)于AI的公共和學(xué)術(shù)對話,通過在研發(fā)人員和為新技術(shù)所影響的人之間建立持續(xù)性合作來確保AI對所有人有益。
AI道德與價(jià)值:比如如何確保AI作出的推薦或決定符合倫理規(guī)范和價(jià)值,如何將人類價(jià)值嵌入AI系統(tǒng)。
AI和世界的復(fù)雜挑戰(zhàn):AI技術(shù)可被用來幫助人們解決氣候變化、醫(yī)療保健等全球性難題,這需要各方共同努力。
人工智能價(jià)值觀引領(lǐng)技術(shù)創(chuàng)新及應(yīng)用
相比谷歌和DeepMind的務(wù)實(shí),微軟的務(wù)虛成分更多一些,但至少表明了其發(fā)展人工智能的立場和態(tài)度。
如前所述,基辛格認(rèn)為需要一套倫理和價(jià)值體系來約束人工智能的發(fā)展,某種程度上代表了各界的共識。微軟則從企業(yè)層面踐行這一思路。雖然微軟采取了多種方式對外闡釋其人工智能原則,但這些原則具有內(nèi)在的統(tǒng)一性,具體如下圖所示。
微軟
2016年,微軟CEO納德拉提出6項(xiàng)AI原則:AI必須被設(shè)計(jì)來輔助人類;AI必須是透明的;AI必須在最大化效率的同時(shí),尊重人類尊嚴(yán);AI必須被設(shè)計(jì)來實(shí)現(xiàn)智能化的隱私保護(hù);AI必須具有算法可責(zé)性,以便人們可以彌補(bǔ)意外出現(xiàn)的損害;AI必須防止偏見,確保恰當(dāng)、有代表性的研究,以便錯(cuò)誤的啟發(fā)法不被用來歧視。[4]
微軟AI部門(Microsoft  AI)認(rèn)為,人工智能技術(shù)應(yīng)當(dāng)遵循4項(xiàng)原則:(1)公平,人工智能必須在最大化效率的同時(shí)維護(hù)人的尊嚴(yán)并防止歧視;(2)可責(zé)性:AI必須具有算法可責(zé)性;(3)透明:AI必須是透明的;(4)倫理:AI必須輔助人類,并實(shí)現(xiàn)智能化的隱私保護(hù)。[5]
2018年1月,微軟發(fā)布《計(jì)算化未來:人工智能及其社會(huì)角色》(The Future Computed: Artificial Intelligence and its role in  society)一書,闡發(fā)6項(xiàng)AI原則:(1)公平,AI系統(tǒng)應(yīng)當(dāng)公平對待每個(gè)人;(2)可靠性,AI系統(tǒng)必須安全可靠地運(yùn)行;(3)隱私,AI系統(tǒng)必須尊重隱私;(4)包容性,AI系統(tǒng)必須賦能每一個(gè)人并使人們參與其中;(5)透明,AI系統(tǒng)必須是可理解的;(6)可責(zé)性,設(shè)計(jì)、應(yīng)用AI系統(tǒng)的人必須對其系統(tǒng)的運(yùn)行負(fù)責(zé)。[6]
在微軟之外,其他科技公司如IBM、Sage、SAP、百度等亦提出了其自己的AI原則。就在最近,谷歌放棄與美國軍方續(xù)簽一份涉及軍事AI的合同,并承諾提出軍事AI倫理原則。[7]
然而,國內(nèi)外關(guān)于人工智能倫理原則的探索在某種程度上是割裂的和分散的,不足以形成廣泛的行業(yè)共識和最佳實(shí)踐。將科技公司各自自發(fā)形成的AI原則轉(zhuǎn)變?yōu)樾袠I(yè)廣泛認(rèn)可的共識并用以形成對AI創(chuàng)新及應(yīng)用的倫理約束,AI價(jià)值觀才能發(fā)揮其作用。
AI倫理委員會(huì)能干啥?
AI倫理委員會(huì)并不是一個(gè)新概念。早在谷歌收購DeepMind之時(shí),其就承諾建立一個(gè)AI倫理委員會(huì)(AI ethics board)。然而在那之后,這一委員會(huì)就始終是一個(gè)謎團(tuán),無論是谷歌還是DeepMind都從未對外披露過關(guān)于這個(gè)委員會(huì)的一丁點(diǎn)信息。
因此,對于這個(gè)委員會(huì)所可能發(fā)揮的作用,人們幾乎一無所知。對互聯(lián)網(wǎng)行業(yè)和社會(huì)公眾而言,所謂的AI倫理委員會(huì)似乎就是一個(gè)雞肋。
微軟在其《計(jì)算化未來:人工智能及其社會(huì)角色》一書中透露其已經(jīng)成立了一個(gè)AI倫理委員會(huì)AETHER(AI andEthics in Engineering and Research Committee),確保將其奉行的6項(xiàng)AI原則融入AI研發(fā)和應(yīng)用。
據(jù)其說法,這個(gè)委員會(huì)作為微軟的內(nèi)部機(jī)構(gòu),囊括了工程、研究、咨詢、法律等部門的專家,旨在積極推動(dòng)形成內(nèi)部政策并應(yīng)對潛在的問題。
該AETHER委員會(huì)的主要職責(zé)是,制定能夠作用于微軟AI產(chǎn)品和方案之研發(fā)和應(yīng)用的最佳實(shí)踐和指導(dǎo)原則,幫助解決從其AI研究、產(chǎn)品和用戶互動(dòng)中產(chǎn)生的倫理和社會(huì)問題。
然而除此之外,沒有關(guān)于該委員會(huì)的其他信息。不透明似乎為AI倫理委員會(huì)的雞肋性質(zhì)多增加了一重原因。
但據(jù)報(bào)道,今年4月微軟曾出于倫理方面的考慮而放棄了一些潛在的交易。之所以放棄這些交易,可能是因?yàn)樨?fù)責(zé)審查潛在濫用的AETHER委員會(huì)起了作用。這似乎表明AETHER委員會(huì)會(huì)基于個(gè)案進(jìn)行倫理審查。
今年5月,在經(jīng)歷了引起軒然大波的數(shù)據(jù)泄露丑聞之后,F(xiàn)acebook宣布成立AI倫理團(tuán)隊(duì),負(fù)責(zé)防止其AI軟件中的歧視。從其官網(wǎng)可以發(fā)現(xiàn),F(xiàn)acebook正在招聘AI政策、倫理、法律等方面的人員,表明其開始重視AI倫理相關(guān)的工作。
凡此種種表明在AI技術(shù)研發(fā)和應(yīng)用之外,AI倫理已經(jīng)成為科技公司的主要關(guān)切之一。一方面在加強(qiáng)AI倫理相關(guān)的研究,另一方面通過AI倫理委員會(huì)對AI技術(shù)、產(chǎn)品和應(yīng)用形成倫理約束。與此同時(shí)通過對外傳遞其AI價(jià)值觀樹立良好形象。
雖然AI倫理委員會(huì)多少帶著秘密的色彩,但這不是共識性問題,而是最佳實(shí)踐問題。
共同塑造人工智能的社會(huì)角色
有人認(rèn)為以機(jī)器學(xué)習(xí)和深度學(xué)習(xí)為代表的AI技術(shù)已經(jīng)迎來瓶頸,新的AI寒冬將到來,但從各國對AI的重視程度來看,這一波AI浪潮的巨大價(jià)值還遠(yuǎn)沒有實(shí)現(xiàn),AI技術(shù)的產(chǎn)業(yè)化正待加強(qiáng)。在AI技術(shù)的加持下,我們正在步入機(jī)器人社會(huì)。
人們常常提及人工智能的學(xué)習(xí)能力、自主能力和適應(yīng)能力。這意味著從人機(jī)交互的層面來看,用純粹的被動(dòng)工具來刻畫人工智能已經(jīng)不恰當(dāng)了,至少已經(jīng)不能完全涵蓋人工智能了。
在這個(gè)意義上,我們需要積極塑造人工智能的社會(huì)角色,使其效益最大化,威脅最小化。因?yàn)槿斯ぶ悄艿臑E用和意外后果可能威脅數(shù)字的、物理的和政治的安全。
總之,人工智能進(jìn)入我們的世界,參與人類社會(huì)事務(wù),沒有人可以獨(dú)善其身。因此,需要社會(huì)各界共同塑造其社會(huì)角色,以共同分享其好處,防范其危險(xiǎn)。
政府、企業(yè)、社會(huì)機(jī)構(gòu)、行業(yè)組織、社會(huì)大眾等社會(huì)各界需要共同參與,在這樣一種多利益相關(guān)方的模式之上,人們才能最大程度地理解并控制人工智能的倫理和社會(huì)影響,在人類社會(huì)進(jìn)步和技術(shù)創(chuàng)新之間實(shí)現(xiàn)協(xié)同效應(yīng)。
[1]https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/
[2] http://www.atyun.com/17685.html
[3] https://deepmind.com/applied/deepmind-ethics-society/
[4]http://www.slate.com/articles/technology/future_tense/2016/06/microsoft_ceo_satya_nadella_humans_and_a_i_can_work_together_to_solve_society.html
[5] https://www.microsoft.com/en-us/ai/our-approach-to-ai
[6] https://blogs.microsoft.com/blog/2018/01/17/future-computed-artificial-intelligence-role-society/
[7]https://www.theverge.com/2018/5/30/17408446/google-ai-guidelines-weaponry-military-pentagon-maven-contract
騰 研 識 者 計(jì) 劃
傳播常識,尋求共識。
這是騰研識者計(jì)劃的初心與目標(biāo),也是我們騰訊研究院對研究這項(xiàng)嚴(yán)肅而重大工作的再定義。
傳播常識,我們不僅需要傳統(tǒng)意義上嚴(yán)謹(jǐn)沉穩(wěn)的鉆研者,更需要將高深理論翻譯解釋得簡潔有趣的分享者和連接者。
尋求共識,意味著我們需要打破學(xué)科、領(lǐng)域、產(chǎn)業(yè)與學(xué)術(shù)的邊界,打破信息繭房、知識結(jié)構(gòu)、數(shù)據(jù)孤島等種種壁壘,讓更多人參與思想的討論與砥礪。
我們希望讓學(xué)術(shù)更通俗,讓思想更大眾。
我們在找尋這樣一波學(xué)者 ,能把各種難懂的知識說得簡潔、有趣。
如果你恰好氣味相投,請加入我們。
自薦方式
請將你“傳播常識,尋求共識”的意向和文章發(fā)送到我們的郵箱
tencentresearch@tencent.com
面向群體
希能夠靈活運(yùn)用書本上知識來處理工作、生活問題的人。
希望能夠有獨(dú)立思考能力與跨界思維的人。
請相信,我們要教你的不是學(xué)術(shù)理論,而是如何利用知識更好的去生活。
本期識者
曹建峰
騰訊研究院高級研究員
中國互聯(lián)網(wǎng)協(xié)會(huì)青年專家
AI&法律雙棲青年學(xué)者,密切關(guān)注前沿科技的法律人。始終堅(jiān)持提供有深度、有溫度、有態(tài)度的跨界思考和觀點(diǎn)。
重點(diǎn)關(guān)注領(lǐng)域:法律科技、AI治理與倫理、人工智能&法律交叉領(lǐng)域、數(shù)據(jù)政策、網(wǎng)絡(luò)知識產(chǎn)權(quán)
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
谷歌25年創(chuàng)業(yè)史回顧3.0:從AI弄潮兒到追趕者
為預(yù)防 AI 誤入歧途,DeepMind 成立 AI 倫理研究團(tuán)隊(duì)
微軟總裁訪華談AI倫理:要讓人工智能平穩(wěn)發(fā)車,需要啟程前“裝上剎車”
計(jì)算未來:微軟眼中的人工智能
Google人工智能嶄露頭角:變身Atari游戲高手 | 雷鋒網(wǎng)
AI人工智能技術(shù)的危險(xiǎn)性
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 松潘县| 临洮县| 时尚| 杂多县| 离岛区| 阿瓦提县| 上思县| 邛崃市| 额济纳旗| 吕梁市| 定州市| 通辽市| 昌平区| 靖远县| 临西县| 沁水县| 淮安市| 康马县| 筠连县| 衢州市| 广宗县| 望谟县| 柘城县| 邢台县| 封丘县| 沙田区| 肥乡县| 饶河县| 和平县| 河曲县| 萝北县| 启东市| 渝中区| 盐山县| 辽源市| 南澳县| 安新县| 黄龙县| 赤城县| 扎囊县| 清河县|