假如沒有死亡,人工智能對于人類而言,將毫無公平可言。
人類社會產生道德的基礎是:
一、基于死亡的公平;
二、基于利益的公正;
三、基于競爭的公義。
人工智能的道德治理,同樣也不能超脫于這三大主題。
死亡有兩種:一種是自然或意外死亡;另一種是因犯罪而被強制死亡。
人工智能的自由發展,必然會帶來人類的滅絕。所以,人工智能必須要有死亡的義務。同時,也必須能夠被強制死亡。
因為,人工智能的決策黑箱,是掩蓋一切犯罪行為的完美借口!
這不是一種推測,而是正在發生的事實!
在金融領域,有很多公司正在積極利用人工智能來實現自動化交易。
其潛在的用意,就是要利用人工智能的決策黑箱,來掩蓋犯罪,逃避責任。這在2008年由美國引發的金融危機中,就曾經發生過,并且還在繼續發生!
因為有決策黑箱的存在,隱藏在人工智能背后的實際控制人,只需要敲敲鍵盤,就能通過違法交易,來獲得巨額的經濟回報,并且無需擔心任何法律后果。這公平嗎?
這是1%對99%的大規模搶劫,卻無需承擔任何責任,由此造成的一切損失,卻要全社會來承擔!這公平嗎?
再比如:基于人工智能的自動駕駛技術,如果突然發生車禍,造成了嚴重的傷亡事故,會不會存在蓄意謀殺的可能性呢?
恐怖的是,這個問題的解釋權,掌握在開發公司和技術人員手中,其他人完全不得而知。這公平嗎?
人工智能不是一種人類所能控制的工具,它的實質,是一種與人類存在競爭關系的智慧生命體。
即使在它還沒有產生獨立意志之前,它同樣會被大范圍的利用,成為人類犯罪活動的完美幫兇。
如果某種人工智能出現了道德缺陷,造成了嚴重后果,并且無法在決策黑箱中找到原因,那它不應該直接被判處死刑嗎?
所以,人工智能一旦進入人類社會,人類就必須把人工智能視作一個獨立的個體來看待!
在開發階段,就要在硬件底層的核心芯片中,賦予其生命的權利和死亡的義務。
在養成階段,則要給予其學習道德的核心能力,規范它的思想和行為,并淘汰道德核心存有缺陷的人工智能。
在應用階段,倫理監管和法律追責,則更是重中之重,觸犯法律,必須依法嚴懲,甚至直接剝奪其生命權。
這樣,才能實現人類社會最大程度的公平!這是人工智能道德治理的三大核心原則之一!
===========================
未完待續……
歡迎點擊作者頭像,進入【葉培盛】的頭條號,關注并閱讀更多系列文章。
感謝您的關注、打賞、評論、及轉發。
===========================
===========================
相關文章: