精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
防止AI胡說八道!OpenAI公布最新大模型訓練方法,監督AI像人類一樣思考

當 AI 一本正經地胡說八道時,需要用“魔法”打敗“魔法”。
OpenAI 正尋求新方法對抗“AI 幻覺”

據 CNBC 報道,本周三,OpenAI 宣布計劃采取一種新的 AI 模型訓練方法,以解決“AI 幻覺”難題。

“AI 幻覺”指的是聊天機器人用編造的信息進行回應,這是 AI 的自信反應。當模型有“幻覺”(輸出欺騙性數據的傾向)時,其使用的的訓練數據并不能證明輸出的合理性。比如,ChatGPT 或 Bard 等模型有時看似在滔滔不絕陳述事實,但實際內容卻是“一本正經胡說八道”。

OpenAI 研究人員在報道中寫道,“即使是最先進的模型也很容易生成虛假信息——在不確定情況時,它們往往表現出捏造事實的傾向。 這種幻覺在需要多步推理的領域尤其嚴重,其中一個環節上的邏輯錯誤就足以破壞整個解答過程?!?/p>

OpenAI 為幻覺問題提出了新的策略:在 AI 模型訓練當中設置新的獎勵機制,不僅獎勵其獲得正確的最終結論,更要獎勵它們在得出答案的過程中做出的每個正確推理步驟。

研究人員表示,這種方法被稱為 “過程監督”,而非“結果監督”。由于能夠鼓勵模型更多遵循人類的“思維”方法鏈,所以過程監督方法也許能提高 AI 輸出的可解釋性。

OpenAI 公司數學生成(mathgen)研究員 Karl Cobbe 在采訪中指出,“檢測和緩解模型中的邏輯錯誤或者幻覺,將是構建高一致性 AGI(通用人工智能)的關鍵一步。”雖然 OpenAI 之前沒有發明出過程監督方法,但如今亡羊補牢,為時未晚?!斑@項研究的動機在于解決幻覺問題,使得模型具備解決挑戰性推理問題的強大能力?!?/p>

Cobbe 還提到,OpenAI 已經發布一套附帶數據集,其中包含 80 萬個人類標注,用于訓練研究論文中描述的這套模型。

解決“AI 幻覺”難題任重道遠

隨著 AI 技術得到廣泛應用,“AI 幻覺”帶來的潛在問題也開始浮現,并引發大眾擔憂。

以谷歌 2 月發布 Bard 時的宣傳為例,這款聊天機器人對詹姆斯·韋伯太空望遠鏡做出了錯誤描述。最近,ChatGPT 又在紐約聯邦法院一份文件中引述了“不存在的”案件,涉案律師可能因此面臨處罰。

美國律師 Steven A. Schwartz 向 ChatGPT 求助,想要為自己訴哥倫比亞國家航空一案找點支持案例,ChatGPT 卻給出了根本不存在的判例建議。Schwartz 聲稱他“沒有意識到 ChatGPT 給出的內容可能是假的”。但從他跟機器人的聊天記錄來看,他還是保持了一絲懷疑,想要進一步檢查這些信息。但很遺憾,他選擇詢問 ChatGPT 來確認內容真實性,系統則再次做出誤導,向他保證這些虛構判例完全真實合法。

此前在接受《紐約時報》采訪時,OpenAI 的聯合創始人 Ilya Stutskever 曾坦言 AI 幻覺是個大問題,但很有可能被“治愈”:我們現在的做法是雇人教會 ChatGPT 如何表現。你只需要與它互動,它就能從你的反應中推斷出你想要的東西,比如,你對輸出結果不滿意。因此,它應該在下一次做些不同的事情。我認為這種方法很有可能(a quite a high chance)完全解決幻覺的問題。

隨著 OpenAI 最新 AI 模型訓練方法的公布,如何解決“AI 幻覺”難題再次引發討論。

電子隱私信息中心高級顧問兼 AI 與人權項目負責人 Ben Winters 對 OpenAI 的訓練方法表示懷疑,稱實際效果要在檢查了完整的數據集和隨附示例后才能確定。

Winters 強調,“我只是覺得單憑這一種措施,不足以在實際應用場景當中顯著降低 AI 生成錯誤信息和不正確結果的問題……另外,他們會不會把研究成果全面納入產品也非常重要。如果不是,這反而會引發其他嚴重問題,比如操縱模型有選擇地向公眾發布信息。”

考慮到還不清楚 OpenAI 論文有沒有經過同行評審或者其他形式的評審,布朗大學技術責任中心主任 Suresh Venkatasubramanian 認為這項研究的意義更多在于初步觀察,而非實際應用。

Venkatasubramanian 指出,“在對此給予肯定之前,首先得等待這項成果在研究領域得到證實。這個世界上,很多結果總會定期出現。因為大語言模型的工作方式總體上并不穩定,所以在某一種設置、模型和上下文中起效的東西,很可能在另一種設置、模型和上下文中毫無作用。人們最擔心的「幻覺」,其實是模型可能捏造的引用和參考資料。但文中沒有能解決這個問題的證據?!也皇钦f一定解決不了,只是說這篇論文缺乏相關證據?!?/p>

在強調 ChatGPT 局限性方面,
OpenAI 做得還不夠

OpenAI 能夠意識 ChatGPT 的“AI 幻覺”問題,但在強調 ChatGPT 局限性方面,OpenAI 做得還不夠。

在 ChatGPT 的主頁上,OpenAI 發布的一條警告內容稱“可能偶爾會產生不正確信息”,這也是其系統功能和局限性部分的九條須知之一。但這條警告內容放在任何信息源上都同樣適用,對于 ChatGPT 這樣一種強大、身處炒作大潮的風口浪尖且容易被嚴重誤解的技術成果,OpenAI 在引導用戶方面做得還遠遠不夠,OpenAI 應該投入更多精力,明確強調 ChatGPT 無法穩定區分事實和“幻覺”。

據 The Verge 報道,過去幾個月間,很多人都被 ChatGPT 的“胡說八道”所愚弄和影響。值得慶幸的是,大多數案例都微不足道,幾乎沒有造成負面沖擊,ChatGPT 最多也就是捏造了一篇新聞報道、一篇學術論文或者一本不存在的書。但在個別案例中,ChatGPT 的錯誤信息確實可能引發嚴重后果。

今年 5 月,得克薩斯州農工大學的一位教授就使用聊天機器人檢查學生是不是在靠 AI 寫水文章。ChatGPT 倒是非常熱情,表示所有論文都是由 AI 生成的,但卻拿不出什么真憑實據。教授深信不疑而且大為光火,威脅要讓學生們掛科甚至畢不了業,好在最終大家發現了這個錯誤。

這些事件并不會徹底毀掉人們對于 ChatGPT 等聊天機器人的期待和認可。只要配合正確的場景和適當的保護措施,這些 AI 工具仍然能在信息檢索等任務中發揮巨大作用。目前也有各種有趣的研究正在推進,表明此類系統也許能在未來更好地尊重客觀事實。

但當下,這類 AI 產品的局限性需要引起人們足夠的重視。企業需要向大眾強調 AI 產品的局限性,媒體也需要承擔相應的報道責任。

干預措施并不需要特別復雜,但必須得有。比如,為什么 ChatGPT 無法識別用戶想要的是事實性依據,并提醒對方“請注意檢查信息來源”?在用戶要求它判斷特定文本是否由 AI 生成時,ChatGPT 為什么就不能明確表示“對不起,我沒有能力做出判斷”?

當然,OpenAI 一直在努力改進這些問題。自 ChatGPT 推出以來,它已經變得越來越坦率、會直言自己存在局限性。最經典的表述就是“作為一個 AI 語言模型,我……”。但不一致問題仍然存在,比如,當問它“你能檢測出 AI 生成的文本嗎?”它回答說“檢測結果不一定準確。”但向它輸入了一大段內容,并提出同樣的問題時,它只是簡單回答“是的,這段文字是由 AI 生成的?!?/p>

此外,當要求 ChatGPT 提供一份測量專業書籍推薦清單時,它給出的答案共有 10 本書,其中不少質量很高,但有 2 本則是完全虛構的。如果不是在刻意檢查,可能根本就不會注意到這個問題。當用戶和 ChatGPT 交流多了,并且驗證后就會發現,ChatGPT 這類 AI 產品經?!昂f八道”。

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
Meta首席AI科學家:AI還不如狗聰明,不會接管世界
谷歌研究科學家:ChatGPT秘密武器的演進與局限
ChatGPT-4 通過圖靈測試
GPT的數學能力,終于有救了?
GPT-4考90分全假!30年資深律師用ChatGPT打官司,6個虛假案例成笑柄
有關 GPT-5,我們目前可以掌握哪些信息?
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 临海市| 武宁县| 黄山市| 齐齐哈尔市| 大田县| 大姚县| 南京市| 兴城市| 福泉市| 磴口县| 晋江市| 余江县| 博罗县| 石泉县| 霸州市| 即墨市| 阳西县| 正安县| 高尔夫| 张家口市| 连城县| 曲阜市| 托克逊县| 拉孜县| 巍山| 凤城市| 黄浦区| 瑞安市| 漳浦县| 左云县| 汽车| 麦盖提县| 九寨沟县| 鄄城县| 松溪县| 丹阳市| 建德市| 莎车县| 九龙城区| 廊坊市| 成都市|