在7月底,OpenAI推出了ChatGPT高級語音模式,其功能讓用戶感到震驚。而在周四發(fā)布的一份安全審查報告中,該公司承認,這種擬人化的聲音可能使一些用戶產(chǎn)生情感上的依戀,從而影響到正常的人際關(guān)系。
據(jù)OpenAI此前介紹,高級語音模式能提供更自然的實時對話,聽起來極其逼真,它允許用戶隨時打斷,并能感知和響應(yīng)用戶的情緒。實時響應(yīng)和可打斷對話是目前語音助手公認的技術(shù)難點。
OpenAI在今年5月推出了新版本大模型GPT-4o,同時還展示出了語音模式。該公司原定于6月底開始逐步向用戶開放語音模式,但最終決定推遲至7月發(fā)布。目前,僅向部分ChatGPT Plus用戶開放。
在OpenAI發(fā)布高級語音模式時,它就被視為2013年電影《她》中與主人公談戀愛的AI助理,但當(dāng)AI承認“她”還與數(shù)百名其他用戶有戀愛關(guān)系時,主人公陷入了崩潰。
在經(jīng)典科幻片《銀翼殺手2049》中,上演了幾乎同樣的場景,AI虛擬人成為了主角的女友,當(dāng)主角看到虛擬女友以同樣的形態(tài)被售賣時,令人羨慕的真摯愛情瞬間化為烏有。
現(xiàn)在,OpenAI顯然擔(dān)心上述虛構(gòu)的故事成為現(xiàn)實,它觀察到高級語音模式成為了用戶表達情感的工具。“用戶可能會與AI建立社交關(guān)系,減少他們對人類互動的需求,這可能有利于孤獨的人,但可能會影響健康的人際關(guān)系。”
OpenAI指出,從一個聽起來像人類的聊天機器人那里聽到的信息,可能會導(dǎo)致用戶過于信任這個工具,但AI有犯錯的傾向,這也會造成問題。
安全審查報告還提到,科技公司正在競相迅速向公眾推出AI工具,他們說這些工具可能會顛覆人類生活、工作、社交和查找信息的方式。但在人們真正理解這些含義之前,他們就已經(jīng)這么做了,但這往往會帶來意想不到的后果。
倫理挑戰(zhàn)
一些人已經(jīng)開始與AI聊天機器人建立所謂的戀愛關(guān)系,這引起了情感專家的擔(dān)憂。
亞利桑那州立大學(xué)研究技術(shù)和人類交流的教授Liesel Sharabi表示,科技公司在處理與技術(shù)相關(guān)的道德和責(zé)任問題上承擔(dān)了巨大的責(zé)任,而且目前這一切都還處于試驗階段。她擔(dān)心的是,人們可能會與那些可能長期存在不了、且不斷演變的技術(shù)形成非常深厚的聯(lián)系。
OpenAI認為,隨著時間的推移,用戶與ChatGPT語音模式的互動也可能影響社交中的正常行為。“我們的模型是尊重用戶的,允許用戶隨時打斷并'接管麥克風(fēng)’,這雖然對于AI來說是預(yù)期中的行為,但在人類互動中卻是違反社交規(guī)范的,至少有些失禮。”
目前,OpenAI稱致力于“安全地”構(gòu)建AI助手,并計劃繼續(xù)研究和解決用戶對其工具“情感依賴”的可能性。
OpenAI并不是唯一一家認識到AI助手模仿人類互動的風(fēng)險的公司。今年4月,谷歌DeepMind發(fā)表了一篇長篇論文,討論了更有能力的AI助手可能帶來的倫理挑戰(zhàn)。