從語音助手到服務(wù)機器人,再到“阿爾法狗”橫掃圍棋界,人工智能的“能力”愈發(fā)強大,涉及的范圍也越來越廣。比較貼近我們?nèi)粘I畹哪^于語音機器人,如亞馬遜的Echo、谷歌的Home,以及如Siri這樣的語音助手。在這種大潮中,F(xiàn)acebook也有心加入。不過,F(xiàn)acebook不想做語音助手了,而是通過訓練機器人與人類的談判能力打入這一市場。
談判,是人類在日常生活中每天都要重復的行為,實際上,生活本身就充滿了談判。比如說服孩子不吃垃圾食品、買菜砍價、看電視的時候進行討論等等。這些看似簡單平常的場景實際上需要具備復雜的交流和推理技巧,由于擁有超級厲害的大腦,所以人類不以為難,但對計算機而言,談判可以說是相當復雜而艱巨的任務(wù)了。
筆者第一次看到人類與機器人交流的假想,是在郭達與蔡明1996年的春晚小品《機器人趣話》中,相信許多人都對蔡明扮演的那個說話嗲聲嗲氣的機器人有深刻的印象。但直到今天,與人類進行有意義的對話對于機器人而言仍是一項巨大的挑戰(zhàn)。因為這需要研究人員將知識與理解能力相結(jié)合,生成新型句子才可能達成目標。
目前,F(xiàn)AIR的研究人員已開源了該模型代碼,并介紹了這類機器人所具有的談判能力。
FAIR以“討價還價”這一模式作為切入點,訓練機器人如何分配物品,比如幾本書、幾頂帽子或幾個球等。每場談判的對話次數(shù)限定在10次之內(nèi),若在這一范圍內(nèi)雙方未達成共識,則誰也不能得到物品。
實際上,這里涉及到“多問題交涉”。
在這種訓練中,每個智能體都被賦予了專屬的價值函數(shù),代表的是對每種物品類別的在意程度。比如,對機器人而言,對每個球的在意程度是3。就像人類的生活場景一樣,我們不知道別人的想法,同樣,機器人也不知道其他機器人的價值函數(shù),只能通過談判中的對話進行推斷。
FAIR團隊在訓練過程中還創(chuàng)造了許多諸如此類的場景,并在每次訓練中都確保兩個機器人不能夠同時達成最優(yōu)結(jié)果。若機器人談判失敗,則會得到0分。換言之,談判過程必須有,表現(xiàn)的好得分也高。
而更為有趣的是,F(xiàn)AIR在訓練過程中還獨創(chuàng)了一種名為dialog rollouts的模式。這種模式巧妙地運用了人類的心理學知識,使機器人擁有更強大的談判能力。
具體而言就是,談判機器人能夠針對談判對象進行心理建模,以便預(yù)先引導對話方向。此時,機器人會將沒什么卵用甚至極具破壞性的交流引向成功。此種思路目前在游戲環(huán)境中多有應(yīng)用,但被用于語言方面尚屬首次。
在實際的談判例子中,機器人還會“耍心機”:先對價值函數(shù)低的項表現(xiàn)出興趣,之后通過讓步做出妥協(xié)。這種招數(shù)類似于三十六計中的“欲擒故縱”,對機器人而言可以說是極富謀略了。
此外,F(xiàn)AIR團隊還對人類間的談判數(shù)據(jù)進行了眾包,以便訓練機器人進行大規(guī)模的量化評估,研究者在這些數(shù)據(jù)的基礎(chǔ)上開發(fā)了一個循環(huán)神經(jīng)網(wǎng)絡(luò)使得機器人模擬人類的談判方式。為了達到目標,F(xiàn)AIR實現(xiàn)了對事先構(gòu)建的模型的數(shù)千次自我練習,并會對強化效果最佳的模型進行獎勵。為了防止這種模型衍生出自己的語言,還對它進行了生成人類語言的相關(guān)訓練。
在中國,也有具備猜度和分析人類心理功能的機器人出現(xiàn)。在去年10月的云棲大會上,阿里云與互聯(lián)網(wǎng)法律服務(wù)機構(gòu)無訟網(wǎng)絡(luò)科技聯(lián)合推出了一款法律機器人“法小淘”。它能夠基于法律大數(shù)據(jù),實現(xiàn)智能案情分析以及律師遴選。通過對數(shù)據(jù)的分析,了解律師所擅長的案件類型及合理的收費區(qū)間,而后推薦合適的案件。
這類似于英國律師制度中專門設(shè)置的“Barristers'Clerk”這一職位。其職責是向律師介紹合適的案源,并制定職業(yè)規(guī)劃。而“法小淘”不僅能擔當Clerk的全部功能,還能針對法律服務(wù)的細分領(lǐng)域提供更加詳細的建議。隨著深度學習的進步,它甚至能提示律師工作中可能存在的風險。例如,當律師提交的證據(jù)清單與該類案件的過往證據(jù)提交情況不符之時,“法小淘”便會發(fā)出預(yù)警。
由此可見,科技確實賦予了人工智能更大的能力。以前我們總說機器人還停留在“弱人工智能”階段,但要是照這種趨勢下去,強人工智能的到來可能就要加速了。不過,這依然不是那么容易實現(xiàn)的。
以談判機器人為例。在中國社會中,沒有關(guān)系可謂寸步難行,這也就是所謂的“在酒桌上永遠比在談判桌上更容易成事”。但談判機器人則是完全依靠理性去進行評估的,用概率去分析,用數(shù)據(jù)去說話。更可怕的是,它還會“心理戰(zhàn)術(shù)”。這種情況下,人類是很難占到上風的。
具體而言就是,在機器主導的環(huán)境下,要在半對抗的情境中達成交易,情況就相當復雜。機器人能夠通過技術(shù)分析出人類的真正訴求,但人卻琢磨不透AI的所思所想。俗話說“知己知彼,百戰(zhàn)不殆”,而這句話現(xiàn)在適用于人工智能。如果未來某天機器人真的坐到人類的談判桌上,那么人類可能會任其魚肉,反抗能力微乎其微。
這并非憑空猜測。FAIR研究人員曾將談判機器人放進與人協(xié)商的場景之中去,結(jié)果就像“詩人小冰”一樣,沒人察覺和自己互動的其實是個機器人。早在2016年的開發(fā)者大會中,扎克伯格就曾向外界介紹過類似的應(yīng)用場景。在這些場景中,人們可以通過機器人與企業(yè)互動,最終達成雙贏。
然而,也正是在應(yīng)用場景層面,目前還難以落地。盡管已經(jīng)開源,但FAIR直到現(xiàn)在也尚未表明談判機器人能夠應(yīng)用于哪些軟件,更未表示這種功能何時會出現(xiàn)于Facebook的產(chǎn)品中。因而這一技術(shù)要實現(xiàn)大范圍落地,還需要相當長的一段時間。
這類問題也同樣出現(xiàn)在律師機器人身上。雖然它能提供很多服務(wù),但在一些復雜的行為上,它們無法替代真正的助理。因為律師機器人的決定必須依據(jù)法律條文,一旦找不到就會做出拒絕的行為。在處理案件時,依據(jù)的不僅是法律,還有“情理”二字。許多法律之外的東西,是目前的律師機器人無法理解的。此外,法律服務(wù)實際上屬于低頻需求,這可能也會成為減緩法律機器人落地的原因之一。
但是,人工智能又確實在真真切切地發(fā)展著、進步著,各類智能語音助手和智能機器人層出不窮就能很好地體現(xiàn)出這一點。然而,人工智能已不僅是人類的助手,還會一窺人類心理,并為了獲取更有利的結(jié)果而說謊。
這貌似是人工智能要“搞事情”的前奏,一邊為我們的生活提供便利,一邊逐漸為我們帶來壓力。我們一邊享受著這種便利,同時也擔心失業(yè),甚至擔心著自己有天會被AI取代。就像未來的科技電影中演的那樣,AI愈發(fā)聰明,有了自己的意識,于是它們不再服從人類,甚至產(chǎn)生取代并統(tǒng)治人類的一系列計劃。
盡管目前許多先進的AI技術(shù)尚未大規(guī)模得以應(yīng)用,但人類確實應(yīng)該小心了,霍金等科學巨匠也早就警告過人類要謹慎應(yīng)用AI。如今看來,人工智能的步調(diào)正在加快,可能我們真的對它的力量一無所知。人類或許是時候該想想,未來強人工智能到來之時,如何找到與之和諧共處的平衡點。