“太硬核了!”“真過癮!”
這是2019騰云峰會“科技大爆炸:AI如何向善”主題論壇結束之后,來自現場觀眾的反饋。
而用論壇主持人、葦草智酷創始合伙人段永朝的話來說,這場討論讓人感受到“被吊打的快樂”——來自中科院的技術專家思考哲學,來自社科院的哲學大咖思考技術,這樣的跨界碰撞,只為增進我們對“AI向善”等主題的理解。
今天,我們首先分享來自中國社會科學院科學技術和社會研究中心主任段偉文老師的發言。對于“AI倫理”,段偉文老師認為,我們今天討論的人機關系并不是一種對立關系,而是一種從建立信任到實現協同發展的關系。這需要科學家、哲學家和企業等多方共同努力。
我今天報告的這個主題——“AI倫理:遁詞抑或軟著陸機制”有一些吊詭,因為面對的都是“行家”,是敢于直面世界真相的人,所以我用了“遁詞”這個詞。我希望提出一個質疑——這究竟是一種遁詞還是一種軟著陸機制?
這個話題要從人與工具的關系說起。
麥克盧漢說,“先是我們創造了工具,然后是這些工具創造了我們。”人和工具的關系就是這樣。我們現在每天早上起床后都會著急去找手機,好像母親在我們出生時給予我們拇指就是為了要親吻手機一樣。這些工具其實在重新塑造我們自己。
先看兩個AI倫理原則——
其一,最近聯合國教科文組織(UNESCO)提出的AI倫理準則,他們還要做進一步討論。這里有很多我們非常熟悉的東西:責任、問責、善治、可持續等理念;
▼上下滑動查看準則相關內容
UNESCO《人工智能倫理建議書》
a. 人權:應根據國際人權標準開發和實現AI。
b. 包容性:AI應具有包容性,在促進多樣性發展的同時,防止出現偏見和新的數字鴻溝。
c. 繁榮:AI應有利于提高生活質量。
d. 自主權:AI應始終確保人為控制,尊重人類的自主權。
e. 可解釋性:AI應具備可解釋性,能使人類深入了解其功能。
f. 透明:用于訓練AI系統的數據應保持透明。
g. 意識和素養:算法意識和對AI工作原理的基本了解是賦予公民權力的基礎。
h. 責任:開發自主智能系統時,開發人員和公司應考慮到倫理規范。
i. 問責制:應能明確AI驅動決策和AI系統行為的責任歸屬。
j. 民主:應根據民主原則開發、實施和使用AI 。
k. 善治:政府應定期報告其在警務、情報和安全方面的AI使用情況。
l. 可持續性:所有AI應用都需在潛在好處與整個AI和信息技術生產周期的環境影響之間達成平衡。
其二,美國國防部也頒布了AI倫理準則。從今年春天開始,美國一些官方和民間機構來到中國,反復詢問AI或AI倫理研究者,試圖了解我們對相關問題的看法——包括對于AI軍備競賽的態度等。
▼上下滑動查看準則相關內容
美國國防部人工智能準則
負責任。在AI系統中,人類應當保留適當程度的判斷能力,并且對國防部人工智能系統的開發、部署、使用和結果承擔責任。
公平公正。國防部應當通過采取措施,避免作戰或非作戰用途的AI系統在開發和部署階段出現偏見,防止其對人們造成傷害。
可溯源。國防部應當通過透明度和可審計的方法論、數據來源、設計流程和文檔等,確保技術專家能正確理解其AI系統的技術、研發進程和運作方法。
可信賴。國防部的AI系統應當易于理解、充分界定使用領域、安全。應當確保在使用領域的整個生命周期都測試其魯棒性。
可控。國防部的AI系統應當為滿足其預設的功能而進行開發、施工,并具備檢測和防止意外傷害、干擾的能力,在沖突升級或其他情況下能自動下線或停止工作。
我們仔細去看,他們的“倫理原則”實際上表現出一種“自己對自己負責”的態度,比如可溯源、可信賴等,即認為AI武器應該可控。但無論怎樣都可以看出,AI對人類來說是非常巨大的力量,就算強大如美國國防部也會擔心。
講到倫理,它要么是理念主義、觀念主義的善,要么就是實用主義的偽善。我不是批評偽善,因為嚴格來說,人是處在善和偽善之間。在一定程度上,偽善可能是文明得以維系的重要因素。
但我們還是不得不講清楚:創新永遠是先手,倫理永遠是后手。當初白起埋葬了30萬人,但直到司馬遷才能對這段歷史提出控訴,這就是文明。很多倫理審查、倫理標準不過是一種形式上的審查,實質是一種縱容。
現在AI所開創的世界還處于“測試版”。20年前,段永朝等老師在呼喚賽博時代、賽博空間的時候,宣言還是要將賽博空間和現實世界劃清界限。但后來我們發現事實并非如此,互聯網不是答案。
我們曾以為進入互聯網世界就像撲進知識的海洋——我們稱之為“沖浪”,但沒想到這些行為都讓我們留下了數字痕跡,所以導致從去中心化到再中心化。
現在更大的挑戰是機器智能的官僚主義,這種官僚主義的排他性非常厲害。
例如,如果用機器進行大數據挖掘,可能會讓一些本該接受救濟的人反而失去救濟;又例如,你不小心踢到垃圾筒,你感到不舒服,于是又“踹”了它一腳,這個監控錄像被傳到保險公司,于是你明年的保險費會因此提高。這就是一種靜悄悄但非常強悍的排他性。
此外,所有智能化的世界都是能動的世界。以往我們總是探討眼和心、心和世界的關系,但是將來世界和我們的關系是相互辨識的關系。古老的人類之所以有道德的約束,那是因為他們想象著一個萬物有靈的世界,所以當他們面對天神時會有所顧忌。
我們將來的世界是“萬物有智”的世界。到處都長滿眼睛,到處都在觀察和分析——以你不知道的目的。在這樣的情況下,我們現在正在做一場數據驅動下的“認知-干預”實踐。所有數據都和測量手段有關,這些數據的潛在用途還遠沒有被揭示出來,它將成為一些素材,這些素材會永遠留下去,不斷被重新解釋。
我們在這個時代遇到了一種新的透鏡。
十一世紀時,人類發明了透鏡,所以才有了望遠鏡、顯微鏡,進而可以研究物質運動,并且在解析幾何的幫助下找到物質運動的軌跡。在這個時代,數據就是我們的行為。通過數據這個新時代的透鏡,我們可以掌握所有人的行為規律及可能性。
正如當初笛卡爾發明解析幾何一樣,數據分析、數據挖掘這樣的勸說、引導、控制方法,就像解析幾何一樣,把我們帶到一個新的社會:解析社會。它的目的不再是研究物質運動或控制物質運動,而是研究人的行為并且控制人的行為。
比如在醫學研究領域,因為有了智能手環,我們可以實時收集大量的醫療數據,此時,“體檢”每時每刻都在進行。目前醫學中有一個“真實世界研究”,即根據實時數據研究究竟什么是真實的世界健康狀況。這和傳統醫學的隨機臨床對照實驗有什么不一樣?這值得進一步思考。
面對AI創新帶來的世界的測試版的加速升級,必須強調的一點是:人本身的脆弱性。
首先,機器在加速,我們的技能在不斷被“去技能化”。更“要命”的是,我們甚至到了“無技能可去的去技能化”的境地。我們以往說無產階級,將來我們會說“無技能階級”,并且我們沒有可以失去的東西了。
面對智能化的監測與自我監測,我們有一種迷茫:反正我們是透明的人,那就在末世里狂奔好了。有種說法是“普羅米修斯式羞愧”:普羅米修斯給人類帶來了技術,也使人在技術面前感到渺小,覺得自愧不如——我們計算能力不如計算器,更不要說計算機了。
從某個角度來說,人始終是過時的。但更重要的一點,“三軍可奪帥,匹夫不可奪志”,我發現人類從整體上說并沒有前進的方向,我們并不知道未來在哪里。
對于個體來講,沒有志向怎樣做一個頂天立地的人,中國文化應該有一種什么樣的“精氣神”?答案是:沒有。所以我們只能開出一些所謂理想主義的藥方放到現實主義的藥罐里,有了很多“負責任的AI”、“可信任的AI”、“可解釋的AI”、“可追責的AI”等。
實際上,我們現在的創新文化是從盎格魯-撒克遜文化過來的,再與亞洲的儒家文化結合。在這種結合下,似乎“沒有倫理約束”成為了一種創新優勢,重視倫理又好像可以成為一種競爭優勢。這和倫理沒有關系,只是功利的計算。所以我們有很多關于規范的探討,它不過是一種“糖衣”。
我只是在描述真實世界的樣子,不是批評。
現在有一種基本的說辭是,首先要鼓勵創新,社會企業都應該對任何新技術有開放和包容的心態,同時我們也必須嚴肅地探討技術和應用場景所需的道德規范。
從創新的角度來說,我們要做一些有針對性的工作,而不是籠統的批評。我們要去解決這樣一種沖突。具體來講,面對如低俗內容的聚合或算法歧視等由于技術強化而導致的結果,我們可以考慮怎樣對不良內容建模加以過濾或對數據的公平性進行修復。
我們首先面對的挑戰是,怎樣最終克服人類在倫理或道德上對AI的恐慌。我們可以有一套策略,包括要預見、設計與嵌入,要有開放性共識,要有適應性治理,以及要怎樣讓人類的技能獲得再生。最重要的是,要有一個基于行動者網絡的思考。
總的來講,我們跟技術的關系不是敵對關系而是競爭關系,在倫理和創新里也有一種競爭關系,可以稱之為爭勝關系。創新有悖倫理時,重要的是有沒有一些公眾工程師,能夠站在公眾的角度進行反向的爭勝性的設計——通過具體的技術設計實現對創新的倫理制約。
面對人機共生的時代,我們需要構建一種分布式的道德系統。
如果馬路上行駛的既有人類駕駛汽車也有自動駕駛汽車,那么此時應該有什么樣的責任分擔?就像我們開車時遇到不遵守交通規則的人,我們的辦法是避讓他,或者我們知道他的特點并適時應對。
人們已有的實踐智慧為未來人機協同的分布式道德機制構建提供了很多有益的線索。
在鼓勵自行車出行的荷蘭,法律規定在不發生相互危害的情況下,最多允許兩人并排騎自行車,如果有第三人加入并排騎行,不僅加入者,每個人都要承擔全部責任。其理由是,每個人都可以且能夠很容易的糾正這種情況。
同樣在荷蘭,在港口外面的河面上,法律允許至多三艘船并排停靠,如果有第四艘船停靠在另外三艘船旁時,相關判例的裁決是只有第四艘船需要對此負責任,因為其他三艘船糾正這個錯誤比加入它們的第四艘船困難得多。
在未來,人類和機器都要理解對方的缺陷,并且進行一種協同。在這種人機協同的認知生態下,人與機器才能明確責任的分擔。
另外,我們需要一種Beliving,需要建立面向智能化時代的人機信任機制。如果沒有人機信任關系,對人類、社會、世界都是一種災難。
我們要從數據行為主義轉到數據行動主義。現在這些人工智能體和監控設備只是根據數據——即我們的行為判斷我們的特征和意圖是什么,但其中有很多偏差。這就需要我們每個人拿出我們的能動性,采取行動來改變這種情況,糾正那些被采集和被分析的數據中的錯誤和偏見。
還有一點也需要思考。以往的社會是建立在“無知之幕”上的,但如果保險公司知道每一個人能夠活多久,那保險怎么賣?現在還有一種人臉識別技術,能夠通過人臉識別觀察你的健康狀態,當你到一家公司求職時,剛進入大門公司就可能決定是否錄取你...所以問題在于,我們是不是要真的需要這樣一個時代?
下面這張圖就是我們最后的迷思,機器智能可以無止境地進化,但人的尊嚴卻源于包容不完美。這就是我們要思考的,這就是我們的未來嗎?
? ? ?
作為人與人之間第三者的機器,
如何為人類創造和諧?
在主題發言后的圓桌討論環節,段偉文對AI倫理等話題進行了更為深入的闡釋,他同時提出了對“科技向善”、企業社會責任的看法——
講到科技與創新或是與人文、倫理價值的關系,其實人類一直有兩種策略。一種是審慎性原則,就是做任何事情都把壞處想到極端;一種是風險偏好性或冒險的原則,即任何時候都把好處想到最多。
在我看來,審慎性原則很難實現,大多數企業都是風險偏好的企業。但所謂風險偏好也要有一個度,對任何新事物都包容和接受是不對的。
我們在思考問題的時候要著眼整個社會環境,從技術社會系統入手分析人工智能技術和產業背后是什么。其中一個視角,是審視人工智能背后的資本,資本增值與社會價值應該如何協調。當我們考慮給每一個公園都裝上人臉識別裝置的時候,有沒有想到一千個公園可能就有一千個人失業,是不是要為了一個完全沒有必要的人臉識別裝置犧牲那么多勞動力?這是應該考慮的。
我們要在更大范圍內考慮相關的利益群體。一個企業如果要對社會負責,一方面要對他的產品、員工、用戶負責,另一方面還要考慮受其產品或服務影響的人,特別是那些比較脆弱的相關群體。
這個責任是什么?現在整個創新政策強調包容審慎,對互聯網、數字技術、人工智能等創新應用一般沒有按照產品責任來嚴格追究責任,也沒有像醫藥等行業那樣實行嚴格監管。對大數據、人工智能等應用帶來的社會問題,首先還是作為倫理道德問題來討論,實際上有助于這些創新形成一種倫理軟著陸機制,可以緩沖新技術帶來的倫理沖突。
在此過程中,難免出現各種負面的社會評價,但通過多方的參與和互動,企業可以找到改進和自我提升的方向,在具體的擔責實踐中培育對社會的責任感。同時,社會的評價和參與會更富有建設性,相關群體和公眾也可以看到改變的可能,學習到多元參與和共治的方法與智慧。
再就是企業社會責任。客觀地講,面對充滿風險與不確定性的科技時代,“向善”是科技公司體現其社會責任的應有之意。騰訊作為一個標桿企業講“科技向善”,這是沒問題的。要明白一點,“科技向善”是作為企業應有的擔當。
企業的發展與壯大,根本上源自用戶和社會公眾的信任與支持,源于現代文明架構下普通人對企業的群體饋贈,企業要認識到這一事實。企業一定要有這樣一種謙卑,要不斷強化社會責任感,要反思和追問:我的技術產品除了給我帶來更多的投資和盈利,是不是能給整個社會帶來更大的和諧?
最后,我們現在說的AI倫理還不是指人機對立,不是機器消滅人類,實際上是指如何協調人和機器的關系。
人機關系,說到最后還是人與人之間以機器為中介的關系。換句話說,機器是人和人之間的第三者。探討AI倫理的初衷在于,在人與人之間,機器如何擺放,才能使人的生命得以恰當安放,才能使人們在智能化時代安心生活。
我有一個重要的人生智慧,就是簡單和勇敢。在任何時候,我給大家的一句話都是——不要害怕!
? ? ?