自ChatGPT于2022年底發布以來,許多新聞媒體都報道了人工智能帶來的倫理威脅。科技專家警告說,機器人殺手決心要滅絕人類,而世界經濟論壇則預測,機器將搶走人類的工作。
科技行業在投資人工智能提高生產力工具的同時,也在大幅裁員。好萊塢的編劇和演員正在罷工,以保護他們的工作和肖像權。學者們不斷揭示這些系統是如何加劇現有的偏見或創造毫無意義的工作——以及無數其他問題。
有一種更好的方式將人工智能引入工作場所。作為一名與美國國家航空航天局機器人航天器團隊合作的社會學家,我知道這一方法,因為我親眼目睹過。

這些機器人不是取代人類,而是協助我們拓展和完善人類的特質。在此過程中,他們避免了常見的道德陷阱,并為與人工智能合作指明了人道主義路線。
人工智能的替代神話
機器人殺手和失業的故事說明了“替代神話”是如何主導人們對人工智能的看法的。從這個角度來看,人類可以而且將會被機器自動化所取代。
經驗證據表明,自動化并不能降低成本。相反,它通過淘汰地位低下的工人,增加了留下來的地位較高的工人的工資成本,從而加劇了不平等。與此同時,當今的生產力工具激勵員工為雇主多干活,而不是少干活。
直接替代的替代方案是“混合自主”系統,即人和機器人協同工作。例如,自動駕駛汽車必須經過編程,才能實現在實際路況中與人類駕駛員共同駕駛汽車。之所以說自主是“混合的”,是因為人類和機器人在同一個系統中進行相關操作,他們的行為會相互影響。
然而,混合自主往往被視為邁向替代的一大步驟。它可能會導致系統中的人類僅僅是訓練、管理或教授人工智能工具。這讓人類背上了“幽靈工作”的包袱——程序員們希望機器學習很快就能淘汰那些無需動腦且零碎的任務。
替代引發了人工智能倫理方面的危險信號。諸如標記內容以訓練人工智能或清理臉書(Facebook)帖子之類的工作通常涉及創傷性任務,而且是由南半球的低薪勞動力完成的。大批自動駕駛汽車的設計者癡迷于“電車難題”——決定何時或是否碾壓行人是合乎道德的(一輛有軌電車駛來,前方的軌道上有5個人,片刻之后這5個人就會被電車碾壓致死;此時你手邊有一個拉桿,拉動之后電車會變道,這5個人可以幸免于難,但變道后的軌道上也有1個人,這個人將被電車碾壓致死。考慮以上情形,你是否應該拉動拉桿)。
但我對美國國家航空航天局機器人航天器團隊的研究表明,當公司拒絕“替代神話”,轉而選擇組建人機團隊時,人工智能的許多倫理問題就會消失。
拓展而非替代
強大的人機團隊在拓展和增強人類能力而不是取而代之時表現更好。工程師們制造出的機器可以完成人類無法完成的工作。然后,他們將機器和人力巧妙地結合在一起,可以朝著共同的目標邁進。
團隊合作還意味著充分利用機器人和人類感官或智能的綜合優勢。畢竟,機器人擁有許多人類不具備的能力,反之亦然。
例如,人類在火星上只能看到一直延伸到地平線光線昏暗、塵土飛揚的紅色地形。因此,工程師在火星車上配備了相機濾鏡,以“看到”人類在紅外線中看不到的光的波長,從而傳回色彩艷麗的偽彩色照片。
與此同時,火星車上的車載人工智能無法得出科學發現。只有將色彩斑斕的傳感器結果與專家討論相結合,科學家才能利用這些機器人的眼睛揭開火星的新真相。
尊重數據
人工智能訓練時使用這些數據在現實世界中造成的后果包括訴訟和種族定性。
火星上的機器人也依靠數據、處理能力和機器學習技術來完成工作。但它們需要的數據是視覺和距離信息,以生成可駕駛路徑或推薦絕妙的新圖像。
通過關注它們周圍的世界而不是我們的社會世界,這些機器人系統避免了困擾當今人工智能的監視、偏見和剝削等問題。
關懷倫理
機器人與人類的情感完美融合后,它們可以通過激發人類的情感來團結與之共事的群體。例如,經驗豐富的士兵在戰場上悼念損壞的無人機,家人會為他們的掃地機器人(Roombas)起名并賦予其個性。
與擬人化(將人類特征投射到機器上)不同,這種感覺源于對機器的關懷。它是在日常互動、共同成就和共同承擔責任的過程中形成的。
當機器激發出關懷意識時,它們就能強調——而不是削弱——人類的特質。
更好的人工智能是可能的
在人工智能可能被用來取代工人的行業中,技術專家可能會考慮如何通過巧妙的人機合作來增強人類的能力,而不是削弱人類的能力。
當然,拒絕替代并不能消除人工智能的所有倫理問題。但是,當替代不再是目標時,許多與人類生計、代理和偏見相關的問題就會發生轉變。
替代幻想只是人工智能和社會眾多可能實現的未來的一種。畢竟,如果“機器人”取代了所有主角,就沒人會看《星球大戰》了。要想對人類與人工智能的未來有一個更合乎倫理道德的愿景,你可以看看那些已在太空和地球上幸存下來并表現良好的人機團隊。(財富中文網)
珍妮特·維特西(Janet Vertesi)是普林斯頓大學社會學副教授。本文依據知識共享許可協議轉載自The Conversation。