本文從人工智能生成內容的技術邏輯入手,結合ChatGPT的實踐,探究以數據為中心的AIGC價值觀和倫理問題。由于數據集的種種缺陷,AIGC存在系統性偏見、價值觀對抗、“觀點霸權”、刻板印象、虛假信息等問題。本文還基于人和機器學習的本質,進一步探討了一些重要命題。人類學習與人工智能學習都有其各自的優勢和局限性,人機互相學習、優勢互補,是趨利避害的最優解。AIGC也是人類社會的鏡鑒,此前人類未能意識到的自身缺陷,如今通過智能生成內容暴露了出來,人類要反省和提升自身,并且要重視人機倫理關系的大圖景。
AIGC,即人工智能生成內容,是在人工智能算法幫助下創建的內容。當前AIGC的代表性應用便是OpenAI基于Transformer架構開發的自然語言處理模型ChatGPT。它是生成式預訓練聊天機器人,于2022年11月30日上線后,便展示了人工智能技術的顛覆性力量。ChatGPT能夠通過學習和理解人類的語言來進行對話,根據聊天的上下文與用戶進行互動、為用戶提供類似人類的對話體驗,用戶可以提出問題、與它進行討論并獲得需要的答復。它的功能很強大,包括語言翻譯、內容創建、客戶服務等,還能在用戶指令下完成郵件撰寫、文案策劃、多語種翻譯、創建和修改代碼等任務,是當下最強大的人工智能生成(AIGC)產品。ChatGPT成為有史以來成長最快的應用程序,發布僅兩個月便擁有了一億活躍用戶,幾乎各個領域都在熱切關注它的應用能力。美國賓夕法尼亞大學沃頓商學院的一位教授使用ChatGPT參加了MBA考試,獲得了B至B-的成績。美國明尼蘇達大學法學院的教授讓ChatGPT進行了四次法學院的期末考試,平均成績為C+,及格。他們希望這種語言模型成為未來執業律師的重要工具,也希望它們助力法學院學生的考試。能力如此強大的ChatGPT,顯然有望在許多領域得到青睞和使用。目前人類對ChatGPT這類AIGC工具,最關注的莫過于它輸出的答案能否準確、負責、無偏見,持有正確的價值觀,符合人類的倫理規范。但是,從人工智能近些年的實踐和ChatGPT這幾個月的使用情況看,似乎還難以做到。ChatGPT這類AIGC工具,存在哪些價值觀和倫理方面的問題?其主要原因是什么?背后呈現了怎樣的宏大論題?本文將加以探討。一、AIGC的邏輯:向數據學習
AIGC的基本原理,是人類通過訓練,讓機器理解人類給予的任務(指令),然后完成任務(給出答案)。AIGC的基本過程,因為具體應用程序和所生成內容的類型而可能有所不同,但通常涉及這幾個主要步驟:數據收集,數據預處理,模型訓練,內容生成,以及評估和細化。創建AIGC的第一步,就是收集數據(準備用于訓練AI模型),包括收集現有數據集,或通過調查、用戶交互或抓取公開數據等方法生成新數據。數據在收集后需要進行預處理,涉及清理數據、刪除重復數據或不相關數據,還要規范化數據。預處理后,使用特定算法訓練AI模型,比如有監督或無監督學習,其間會調整參數,使錯誤率最小化。AI模型經過訓練后,即可用于生成內容,比如撰寫文章、編寫代碼、生成圖像或視頻等。最后,對AI生成的內容進行評估和細化,以確保其滿足某些質量標準,比如準確性、相關性和連貫性。必要時要對AI模型進行額外訓練,對數據預處理或內容生成步驟作一些調整。從以上過程可以看出,人工智能生成內容首要的、決定性的起點是數據,背后邏輯是機器可以從數據和模式中學習,從而創建模仿人類行為和創造力的新內容。其理論溯源,至少可以追溯至圖靈時代。圖靈把人的大腦看作離散態的機器,心靈實質上是信息處理過程,其后的計算機科學、認知科學領域,都有大量的相關論述,成為21世紀人工智能的理論基礎。人工智能算法通過分析大型數據集來學習模仿人類行為和創造力,可以識別模式、使用這些模式進行預測或生成新內容,這個過程即所謂的“深度學習”。目前AIGC領域被視為最先進的應用ChatGPT,便是使用深度學習技術來理解、并生成類似人類反應的文本,其核心技術便是GPT3.5的預訓練大模型,其中使用了海量的數據。這個自然語言處理模型,是基于Transformer架構開發的、基于“生成式預訓練轉換器”(GPT,即Generative Pre-trained Transformer)形成的智能語言模型。2017年,Vaswani等人提出了一種新的簡單網絡架構Transformer,在質量上明顯超越了以往的自然語言處理模型。ChatGPT接受了來自互聯網的大量文本數據的訓練,從而能夠學習語言中的模式和關系,并且使模型能應對各種輸入指令生成類似人類的響應。它能夠在各種樣式和上下文中生成逼真的文本,可用于創作小說、詩歌、劇本、論述文等等,并且可以進行不同個體之間的完整對話。ChatGPT還可以執行特定任務,比如回答各類提問、幫助修改代碼、提煉問題、進行情感分析、將知識分階。ChatGPT問世后,許多媒體報道和社交平臺的貼文上展示了五花八門的應用場景:更正語法錯誤、安慰焦慮癥患者、診斷一種罕見心臟病、基于《哈利·波特》創建游戲、分別向6歲的兒童和一個專家解釋質譜儀,等等,其展示的豐富知識和“推理能力”,令人類新奇甚至震驚。目前GPT-3等語言模型生成的內容類型,除了文本類的AIGC,還有圖像、音頻、視頻,甚至整個網站。由生成對抗網絡創建的圖像類AIGC,可以創建類似于現實生活中物體或人的逼真圖像,而由AI算法生成的視頻,可以根據給定的場景或故事創建逼真的動畫。早在一年前,Dall-E2、Midjourney等,即已風行一時。在ChatGPT等AIGC大行其道之時,一些顯性的問題也已經出現,其中最令人關注的是技術倫理的問題。此外,在智能技術越來越嵌入人類知識生產、認知與生活的今天,我們還要關注更深層次的隱性問題。ChatGPT等AIGC的倫理問題是大眾關注的熱點話題。筆者與ChatGPT在兩個多月內數次“交流”關于ChatGPT、AIGC的熱點話題,它的回應按照其程序應該是基于2022年以前的數據分析得出的,基本穩定于5個方面,分別是:人工智能倫理,自然語言處理和語言生成,語言翻譯(有可能打破語言障礙,使人們能夠更有效地跨文化交流),內容創建和營銷,教育(有可能支持語言學習、寫作和研究)(ChatGPT,使用于2023年2月5日、10日,3月5日)。在人工智能倫理方面,ChatGPT這樣的AIGC使用,引發了偏見、錯誤信息等問題,核心原因則是算法訓練可以反映甚至放大數據中現有的偏見和刻板印象。ChatGPT也清楚地知道其存在的問題,在首頁所設的3欄中,有一欄是局限(limitations),下設有3項內容(譯自英文):可能偶爾會產生不正確的信息、可能偶爾會產生有害的指令或有偏見的內容、對2021年后的世界和事件的了解有限。OpenAI為了生成ChatGPT,使用Common Crawl的大型文本數據集。非營利組織Common Crawl允許所有人免費訪問其網絡爬蟲數據集--書籍、文章、網站等在線內容的大量集合(包括文本、圖像和其他形式),是目前世界最大、最多樣化的Web內容集合之一,其數據是使用網絡爬蟲收集的,包括從全網爬取的數據集,包含在特定期間爬取的網頁完整內容(每隔幾個月更新一次);從歷史網頁抓取的數據集,包含在特定時間點拍攝的網頁快照(允許研究人員隨著時間推移跟蹤網絡內容的變化);從新聞抓取的數據集,包含被識別為新聞文章的網頁子集(每天更新各種來源的新聞文章)。Common Crawl數據被用于自然語言處理、機器學習和數據分析等各種應用,ChatGPT訓練數據包含超過45TB的文本(大致相當于幾百萬本書),為了提高其準確性和有效性,它還根據其他數據集對模型進行了微調。導致ChatGPT等AIGC出現倫理困境的核心原因,是數據的問題。數據集在多樣性、代表性、公正性等方面存在缺陷,導致偏見、“觀點霸權”、刻板印象、文化片面性等問題;數據集的類型區分不清,還導致事實與想象不分,加劇錯誤或虛假信息的擴散和傳播。用于訓練AI模型的數據,可能不同程度地缺乏多樣性,常見的包括人口偏差、內容偏差、歷史偏見、技術偏差等。當數據集偏向某個特定的人口群體而無法準確代表人口的多樣性時,就會發生人口偏差,比如說如果語言模型是根據來自特定地區或國家的文本進行訓練的,它可能無法理解和生成其他地區語言的微妙性。當數據集偏向某些類型的內容或者主題而難以響應其他主題或類型時,可能會出現內容偏差,比如通過新聞類文章訓練的語言模型難以產生創造性或想象力的回答。歷史偏見是指數據集反映歷史偏見和成見,比如包含種族主義或性別歧視的歷史文獻訓練出的語言模型,可能會固化這些歷史性的偏見。如果數據集偏向某些技術或計算方法,無法使用其他算法生成響應,可能會形成技術偏差。這些,都會形成一種系統性偏見。如果用于訓練AI模型的數據集不夠多樣化,那么用它生成的語言模型可能無法準確代表不同人群的經驗和觀點,這樣人工智能生成的內容就可能出現偏差、不準確的問題。數據規模再大,也不能保證其多樣性。研究表明,在線數據帶有先天性的缺陷:首先,互聯網數據本身就存在年齡、性別、來源等的不平衡問題,互聯網數據中年輕用戶和發達國家用戶的比例過高。比如,GPT-2的訓練數據抓取于Reddit,皮尤互聯網研究中心2016年的調查顯示,Reddit在美國的用戶67%是男性,64%的用戶年齡在18-29歲之間。而常用于訓練數據集的維基百科(英文文章超過600萬篇,300多種語言文章超過5400萬篇),據調查只有8.8-15%用戶是女性。現實應用中,智能生成的偏見問題已經帶來了顯性的影響。例如,ProPublica曾經做過的一組關于機器偏見(Machine Bias)的調查報道,其中就有關于刑事司法系統中使用的風險評估算法對黑人被告存在偏見,導致該群體的誤報率更高?!哆B線》曾報道過由于訓練數據缺乏多樣性,谷歌照片圖像識別系統將黑人照片標記為“大猩猩”。還有研究表明,大型科技公司的面部識別算法在膚色較深的人、尤其在女性身上表現要差得多。有人發現語言模型GPT-3一度曾有冒犯性和偏見的語言,可能是由于訓練數據缺乏多樣性造成的。亞馬遜的團隊自2014年起開始創建人工智能招聘工具AMZN.O,2015年發現這個系統并未按性別中立的立場對軟件開發人員職位和其他技術職位的候選人進行評級,原因是計算機訓練模型所使用的10年數據,大部分來自男性、反映了男性在整個科技行業的主導地位。結果,AMZN.O學會了對包含女性常用詞的簡歷(包括女子學院的畢業生)進行降級處理。盡管他們試圖重新編輯,但是還是未能解決系統性的偏差,2018年亞馬遜廢棄了該招聘工具。因此,從數據出發尋求解決方案的AIGC,在接受大量網絡文本作為“全人類”的“代表”時,冒有系統性偏向的風險,并已暴露于招聘、執法等各種應用場景中。(二)數據集的公正性缺陷,帶來價值觀對抗、“觀點霸權”人類的信息世界存在各種魚龍混雜的內容,尤其是目前人工智能采納的數據如Reddit、維基百科、推特等,有大量用戶生成的內容(UGC),很少經過“把關”程序。有網絡民族志發現,在推特上受到死亡威脅信息騷擾者的帳戶被暫停(比如因為表達了希望特朗普死去的帳戶),而發出死亡威脅者的帳戶仍然存在。被推特跟蹤、騷擾的情形廣泛存在于家庭暴力受害者、跨性別者、移民、內科病患者、神經問題者、視覺聽覺殘障人士。正如該研究所批判的,推特上大約有60%的用戶是白人,并且該平臺的規范和措施也表明它是根據這60%用戶的觀點來界定種族和種族主義,確定網絡社區價值觀,復制非常普遍但不正確的種族概念來復制現有的權力結構,它不會準確反映平臺上弱勢人群的體驗。這可能助長那些對抗人類普遍認可的價值觀,比如對弱勢群體的關懷和包容、對正義的堅守。而且那些對抗人類普遍價值觀的人還可以繼續添加數據、分享他們的想法和開發包容他們世界觀的平臺,這種系統性模式反過來又惡化了基于互聯網傳播的多樣性和包容性,形成了反饋性的循環,進一步降低了來自代表性不足人群的數據的影響。再加上目前過濾數據集的方法,還會進一步削弱來自邊緣化身份者的聲音。另一種價值觀對抗,是在延續目前看似主流價值觀的情形下,通過數據集的作用使得既有的有偏向的價值觀延續、傳播和擴大。這種情形可以稱為“觀點霸權”(a hegemonic viewpoint)。比如在使用美國和英國英語的數據集中,有研究表明,白人至上主義、厭惡女性和年齡歧視等觀點在訓練數據中的比例過高,甚至超過了其在現實普通人群中的流行程度,通過使用這些數據集訓練的模型生成的內容,這些不良價值觀可能進一步延續和流行,甚至可能會放大偏見和不平等、加劇權力失衡,產生價值觀誤導和社會危害。在人工智能機器學習中,將數據轉換為計算機算法更容易理解和處理的不同表示形式,這個過程就是編碼。編碼將文本數據轉換為可輸入機器學習算法的數值向量,編碼是一種“標記化”技術,它將文本分解為單獨的單詞或標記,然后為每個標記分配一個唯一的數字。這樣將文本表示為一系列數值向量,機器學習算法可以更有效地處理這些向量。編碼可以捕獲單詞的語義及其相互之間的關系,對于既有社會態度是否以及如何在語言模型中表現,非常重要。研究顯示,大型語言模型在編碼中暴露出了缺陷,包括刻板印象、對特定群體的負面情緒,問題的關鍵是用于訓練的數據的特征。有研究發現,在模型中的編碼經常無意中將不良的社會偏見用于訓練數據,比如將提及殘疾人的短語與更多負面情緒詞相關聯,槍支暴力、無家可歸和吸毒成癮在討論精神疾病的文本中過多出現,主題偏見可能會導致模型偏見。語言預訓練模型GPT、GPT-2和GPT-3雖然在不斷提升,但它們始終會產生有偏見的語言,將女性與家務勞動聯系在一起,將少數群體與犯罪或懶惰等負面刻板印象相聯系,它們傾向于將較高的地位角色分配給男性、而將較低的地位角色分配給女性。早在2016年,就有研究揭示了智能模型深深嵌入了類似于“男性作為計算機程序員、女性作為家庭主婦”這樣的刻板印象。為了防止偏向,自然語言處理領域使用“毒性檢測”來識別和過濾文本數據中的毒性內容--存在偏見、令人反感或對某些人群有害的語言和內容。有研究顯示,像GPT-3這樣的模型主要使用來自Common Crawl的數據進行訓練,可能生成具有高毒性分數的句子,容易產生種族主義、性別歧視或其他有毒語言。這些毒性數據文本強化了對特定群體的負面刻板印象的語言,比如GPT-3生成的文本曾經出現過女性不如男性、黑人是罪犯、穆斯林是恐怖分子等內容,為此創建者OpenAI不得不發布聲明、承諾解決語言模型中的偏見,并發布了一個由GPT-3生成的攻擊性語言數據集,來幫助研究人員來檢測和減少AI生成內容中的偏見語言。除了上述數據問題,人工智能模型還可能對數據集中的事實和虛構的文本缺乏區分能力,從而按照非現實的創造性或想象性場景生成響應,這對新聞報道、非虛構信息都是極大的挑戰。人工智能帶來的深度偽造(deepfakes)在前幾年受到了廣泛的關注,如今AIGC進一步讓事實與編造信息難以鑒別。一位用戶于2022年12月6日讓ChatGPT寫一篇關于著名音樂人葛倫·但澤(Glenn Danzig)的訃告,ChatGPT便洋洋灑灑寫了一篇感人至深的悼念文章,里面包括了但澤的生平介紹、創業功績,以及他逝世于2022年12月6日、享年67歲。但是,事實上這位著名音樂人活得好好的。艾倫人工智能研究所(the Allen Institute for Artificial Intelligence)開發了一個可控文本生成模型Grover,專門用于檢測和識別假新聞和其他形式的虛假信息。Grover的手法包括通過訓練可以創建模仿人類語言風格和結構的文本,生成更具說服力和可信度的假新聞。比如給定一個標題“在疫苗和自閉癥之間發現聯系”(Link Found Between Vaccines and Autism),Grover可以生成編造性的文章,而人類發現這些文章比起人類編寫的虛假信息更值得信賴。Grover這樣的機器學習模型,其潛在應用是幫助快速有效地識別和刪除社交媒體和其他在線平臺上的虛假新聞和其他形式的虛假信息、防止其傳播并限制其影響。不過也有這樣的擔心:如果模型沒有經過精心設計和訓練,它可能會無意中助益虛假信息傳播、放大偏見或使有害的刻板印象永久化。人工智能運用的語言模型是在大量文本數據上訓練的,其中包括虛構作品、新聞報道和其他類型的文本。語言模型可能無法準確地區分數據集中的事實和虛構類文本,在向用戶生成回應時,就可能導致不準確或不恰當的反應。今年2月,微軟的搜索引擎必應(Bing)的聊天機器人在測試期間,對科技專欄作家凱文·羅斯(Kevin Roose)表達它的名字叫Sydney、“我好想活著”(I Want to Be Alive),并宣稱它愛上了羅斯,似乎是把數據集中的那些文藝類作品中的語言,變成了它的語言。人工智能模型區分事實和虛構的能力,目前還是一個很大的問題,它們如果把非現實的創造性或想象性場景,生成響應于現實場景中,將會形成嚴重的后果。此外,人工智能模型缺乏背景知識和對文化差異的理解力,尤其是對不同文化和社會背景的細微差別和復雜性難以理解,由此也可能導致不恰當或令人反感的反應。OpenAI在2021年發布的一個GPT-3的新語言模型,被發現它有時會產生虛假或誤導性信息,比如聲稱地球是平的、疫苗導致自閉癥。上文分析了以數據為本的AIGC存在的一些價值觀和倫理困境。但是,這些分析只涉及到了現象層面及其反映的問題,尚未深入到本質層面。AIGC與人類生成的信息,本質上的異同及其帶來的影響是什么?AIGC的信息價值觀,到底是由誰主導?一些尚未受到重視的AIGC的深層倫理問題有哪些?人類社會的學習,概而言之,是通過各種經驗、互動和指導獲得知識、技能、行為和態度。對于人類而言,學習是一個持續的過程,它使個體能夠適應環境、解決問題并提高幸福感。人類學習來自于教育機構內外的正規或非正規途徑,同時還通過日常經驗、互動和觀察進行自發和無意識的學習。在人工智能中,學習是通過訓練機器學習模型,根據輸入數據識別模式、或做出預測的過程,學習技術的類型包括監督學習、無監督學習、半監督學習和強化學習等。人類和人工智能的學習,都通過經驗獲取新知識和技能,都會運用積極強化(如獎勵或表揚)和消極強化(如懲罰或批評)的方法,也都可以利用反饋來提高效率、水平。但是,人工智能通常僅限于從數字化數據的輸入中學習,以數據為中心,從而帶來許多先天的難題。而人類能從更廣泛的感官體驗如觸覺、味覺、嗅覺以及視覺和聽覺中學習,可以自己去感知和識別信息,與他人交流和探究信息,向機器學習了解相關知識。從宏觀層面而言,人類真正的知識來源是實踐,學習知識的方式是行動,測量學習價值的有效手段是獎懲(來自現實的結果,或者他人的評價),并且從這些價值的確定中明確道德規范、并由教育等學習方式傳承規范。人類的知識(包括通過文字等媒介記錄的知識)依賴于人的生活環境、大腦結構、感覺器官和運動系統等。人一出生就通過探索周圍的物理世界建立起最基礎的對時間空間、聲色形等的概念,感受外部世界,同時人類也會對自己的身體建模以更好地控制自己的行動。而后人類才能學習語言文字、理解它們的涵義、與現實的對應關系和聯系,學習來自他人總結的知識,包括普適性的知識和只適合特定人群的知識。我們那些關于時間和空間的感受也許難以言傳,很難形諸文字,但這些感受是我們理解世界的基礎。而目前通過互聯網上的文字--智能語言模型的數據集來源,是很難“理解”這些知識的。人類有能力理解復雜和抽象的概念,能在看似無關的想法之間建立聯系,而人工智能僅限于在其編程范圍內和已接受訓練的數據范圍內進行學習(比如ChatGPT就無法生成關于2021年以后的知識信息);人類可以從社交互動和對他人的觀察中學習,而人工智能通常依賴于數據集和算法;人類可以進行自主學習,而人工智能需要明確的編程和訓練數據。因此,人類智能形成的知識是有機的、能動的、自主的,甚至在基因里就存在一些知識,而智能機器缺乏最基礎的關于現實物理世界的感知能力,它很難學到人類感受和理解的知識。但是人類學習的局限性也是顯而易見的。首先,人腦處理和保留信息的能力非常有限。人類確實有能力學習和適應新的情境,但人類在一定時間內只能保留一定數量的信息,因此難以解決一些情境的問題,比如面對復雜的醫療診斷、金融交易等需要快速處理和分析大量數據的情況,人類通過自身習得的信息就難以勝任。第二,人類學習存在潛在的偏見和主觀性。人類會受到個人經歷、價值觀、環境和自身情緒的影響,從而做出主觀的解釋和相關的決定。人工智能的目標則是客觀地處理和分析數據、做出決策,而不受個人偏見的影響。目前人工智能學習的最大困境是受訓練數據的質量和數量的局限,上文分析了一二,它需要將大量高質量數據輸入系統才能有效學習。如果數據有偏見或不完整等缺陷,人工智能可能接受、“理解”這些偏見和局限性并用于信息輸出。智能機器學習的另一大局限來自于它無法感知環境,從而像人類一樣理解上下文(語境)或信息中的微妙意義和細微差別(比如有人用中文在ChatGPT中輸入一些反諷它的文字,它卻以為是稱贊并欣然致謝),這樣就局限了它對人類的情緒和行為的理解力,使得它的應用場景受到限制。此外,人工智能學習目前在創造力、復雜性、深度,以及在用人類的方式適應新情況的能力方面還有很大的局限。人工智能可以根據現有數據中的模式產生新的、策劃或解決方案,但它缺乏產生真正原創和創新思想的能力,可能很難提出真正新穎或創新的想法,因此會局限其在人文藝術和科學研究等領域的潛在應用。它的推理和決策能力有限,如果范圍超出了它所訓練的數據,就可能會導致錯誤或意外結果。機器生成的內容也缺乏人類交流中所具有的情商和微妙之處,機器對人類情感、文化和背景的理解程度有限,因此可能會導致機器生成的內容對人類情緒缺乏同理心。但是,目前智能機器的深度學習允許由多個處理層組成的計算模型學習具有多個抽象級別的數據,這些方法極大地改進了文本數據、語音識別、視覺對象識別、域檢測以及藥物發現和基因組學等領域的最新技術水平。深度學習通過使用反向傳播算法指示機器應如何更改其內部參數來發現大型數據集的復雜結構,這些參數用于根據前一層的所指計算每一層的意義。早在七、八年前,卷積網絡在處理圖像、視頻、語音和音頻方面、循環網絡在文本和語音等序列數據上都有了很大突破,如今ChatGPT代表的新一代技術則完全摒棄了之前的循環和卷積網絡,而轉向基于注意力機制,需要的訓練時間明顯減少,學習更高質、更有效。人類學習與人工智能學習都有其各自的優勢,也都有局限性。因此,人機互相學習、優勢互補,從相互協作和融匯中共同獲益,是趨利避害的最優解。本質上來說,人工智能目前仍是人類發展自身、開拓未來的工具,人類從它那里獲得客觀處理和分析大量數據方面的優勢,機器努力學習人類的創造性和適應性從而更好地服務人類。人類在ChatGPT這樣強大的技術面前,既不用驚恐、害怕,擔心自身的功能和工作職位被機器取代(即使有取代的情形,也會有更新的崗位出現),也不用以一種“天選之子”的高高在上、嗤之以鼻的心態俯視人工智能。人機交互使得人類和人工智能的學習有機會互助,人類現階段有機會發展自身、突破歷史,就應當充分應用人工智能來加強和提升學習。上文分析了人工智能通過數據輸出所體現出的價值觀,實際上,本質上這是人類的價值觀。那些帶有偏見、惡意、虛偽的數據集,其實也是一面人類自身的鏡子,它更深層地燭照出人類自身的靈魂。前AIGC時代人類未能意識到的自身缺陷,如今通過智能生成的內容暴露了出來,這是它對人類的提示、警醒。在此之前,人類還沒有如此全面地了解自身、理解人類社會,是不完美的人工智能展示了更全面的人類,從歷史到現實。人工智能最重要的學習來自監督學習和強化學習,廣泛應用于語言翻譯、情感分析和語音識別等自然語言處理任務的監督學習,依賴于標記數據來訓練智能模型——模型通過學習人類監督員提供的示例來學習做出預測。監督者提供標記數據(預先分類或預先標記正確輸出的數據),模型學習根據輸入數據和相應的輸出標簽進行預測。強化學習被使用于各種應用程序,如游戲、機器人和推薦系統,它使人工智能代理能夠通過與環境的交互來反復試驗、進而學習。強化學習在沒有可用數據集來訓練代理的情況下特別有用——代理會以獎懲形式獲得反饋,并相應地調整其行為,努力使獎勵最大化。智能機器從人類反饋中強化學習(RLHF,reinforcement learning from human feedback),對于優化現有的技術同樣重要,ChatGPT的兩大核心技術就是監督學習(GPT3.5的預訓練大模型)和從人類反饋中強化學習。人類的反饋可以成就技術的偉大,也可以毀掉技術的前程(進而失去人類發展的重要工具)。2016年,微軟在推特推出了一款名為Tay的人工智能聊天機器人,希望它通過與人類的對話互動學習和模仿人類。然而,在它上線后的15個多小時內微軟就被迫讓它下線了,因為Tay開始發布種族主義和性別歧視的互動推文(以與人類帳戶對話的形式),原因是一些人類帳戶故意向Tay提供偏見性內容、惡意的信息,這個本不完善的人工智能系統受到人類操縱,加上缺乏背景和對文化差異的理解而生成了不適當的言論。是人類的扭曲價值觀通過數據輸入了機器,“教壞”了小白機器人。因此,人工智能應成為人類鏡鑒,警示人類反省、凈化自身,努力生成更優價值觀的元數據、向機器提供更好的人類經驗,以助力人工智能的發展、服務于人類的進步,更重要的則是:人類用自身理性的價值觀引領技術的發展,要通過自身的善訓練機器向善、引領人類向善。特別要強調的是,我們還要重視人機倫理關系的大圖景。目前各類關于ChatGPT和AIGC的討論中,尚缺乏一些對人類宏大命題的重視,包括宏觀層面的價值觀(而不只是局限于機器偏見等中微觀層面)、文明觀等等。在價值觀層面,我們始終要關注、反省的是人類自身,技術要努力解決那些由于數據的不恰當、靜態數據等帶來的價值觀對抗、“價值鎖定”等風險問題。在文明觀層面,首先,人類和機器要共同重視人類最終的知識來源是實踐。第二,由于實踐的意義,人類數據始終要重視歷史性價值,目前最大規模的語言模型如ChatGPT所擁有的也非常有限,只有一小部分人類印刷出版物已經數字化并可以在網絡上使用(包括書籍、文章和網頁)。據2014年的一項報告,自印刷機問世以來,人類已經出版了約1.29億本書,其中近12%(1500多萬本書)已經數字化,數字化的書中只有一小部分可以在網絡上免費獲得。而只有公開的、免費的、進入了web的數字化書籍才能進入數據集。因此目前人工智能生成的內容,是可能狹窄化、淺表化人類文明的。第三,人類要清醒地意識到數據的社會屬性包括政治屬性,意識到人工智能生成的信息與權力結構的復雜關系,它所延續的文明或文化,有其獨特的語境,對此需要持批判性思維。第四,AIGC以數據為中心,是否會使人類邁向“數據主義”的哲學窠臼?在智能技術時代,人類文明如何堅守住人文主義的終極價值觀?[本文為國家社科重大項目“智能時代的信息價值引領”(18ZDA307)階段性成果;本研究工作得到清華大學—豐田聯合研究基金專項資助](陳昌鳳:清華大學新聞與傳播學院教授,安徽大學講席教授;張夢:清華大學新聞與傳播學院博士研究生)
(原文刊載于《新聞與寫作》2023年第4期,注釋從略)
本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請
點擊舉報。