精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
教育業迎戰ChatGPT沖擊:探索“與狼共舞”路徑
userphoto

2023.02.13 廣東

關注

伴隨席卷全球的ChatGPT熱潮,第一批受到沖擊的教育/學術界也開始由最初的“如臨大敵”與“嚴厲禁止”,轉而探討如何擁抱并有效規制新生技術。

2023年伊始,全球多家頂級學術期刊對ChatGPT采取了嚴厲措施。1月26日,權威學術期刊《科學》的主編索普以社論的形式發文,宣布正在更新編輯規則,強調不能在作品中使用ChatGPT的生成物。1月24日,另一份權威學術期刊《自然》也發文表示,任何人工智能工具都不會被接受為研究論文的署名作者。

但2023年2月3日,《自然》發表的一篇最新評論文章(下稱“最新評論”)口風突變,對ChatGPT展示出了擁抱變化的積極態度。最新評論稱,學術界對AIGC(人工智能生成式內容)技術的使用是不可避免的,因此,單純的禁止是不可行的。

面向未來,最新評論認為,當務之急是學術界應就這一潛在的顛覆性技術的影響開展辯論,并據此提出五個關鍵問題,以及相應的建議。

這一判斷也與近期全球科技巨頭的行動相似:谷歌、百度跟隨微軟密集發布類似ChatGPT的聊天機器人項目,也因此引發資本市場的“ChatGPT旋風”。

《財經》通過梳理全球學界的最新行動,采訪接觸過ChatGPT的高校研究人員、人工智能治理領域的法律專家,試圖找到一條最大程度利用新技術促進學術發展,并有效規避“學術不端”“署名權爭議”“缺乏透明度”等問題的可行性路徑。

· 一名在加州大學伯克利分校就讀的博士候選人向《財經》坦言,日常研究沒有使用過ChatGPT及類似的聊天型機器人。原因在于ChatGPT生成的回答可能會不準確,這一行為不符合學術規范,擔心會被學校退學,自毀研究前途。

· 對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣:ChatGPT在現階段僅能做有限的信息整合和寫作,無法代替深度、原創性研究,可以通過開發甄別和對抗技術濫用的方法和工具來治理相關問題。

· 北京大學法學院教授薛軍:只要運用得當,ChatGPT會是一個積極的工具。未來學界應當形成規范,要求研究者在論文中披露由ChatGPT生成的內容,避免學術不端的風險。

·南開大學法學院副院長陳兵:ChatGPT是具有技術中性工具,要判斷研究者是否構成學術不端,要分析該工具在成果中起到的實質作用。

從“如臨大敵”到“加以利用”

最先感受到ChatGPT沖擊的教育業,不斷在近期采取嚴厲措施,避免“學術不端”。

多個廣為傳播的媒體報道案例顯示,多所美國名校的學生使用ChatGPT代替自己寫論文或完成考試,并表現出頂級水平。

斯坦福大學校園媒體《斯坦福日報》的一項匿名調查顯示,大約 17% 的受訪斯坦福學生(4497名)表示,使用過 ChatGPT 來協助他們完成秋季作業和考試。斯坦福大學發言人迪·繆斯特菲(Dee Mostofi)表示,該校司法事務委員會一直在監控新興的人工智能工具,并將討論它們如何與該校的榮譽準則相關聯。

在線課程供應商Study.com面向全球1000名18歲以上學生的一項調查顯示,每10個學生中就有超過9個知道ChatGPT,超過89%的學生使用ChatGPT來完成家庭作業,48%的學生用ChatGPT完成小測驗,53%的學生用ChatGPT寫論文,22%的學生用ChatGPT生成論文大綱。

ChatGPT同樣在某些考試中展示出驚人的能力。

發表在預印本網站MedRxiv的一篇文章顯示,ChatGPT在一項實驗中已經接近通過美國醫學執照考試(USMLE),而普通的美國醫學生需要四年的醫學院教育和兩年的臨床輪轉,才能通過這一考試。

全球教育界對此的第一反應是“如臨大敵”。

一個廣為傳播的評論來自哲學家、語言學家艾弗拉姆·諾姆·喬姆斯基(Avram Noam Chomsky)。在2023年1月23日的視頻采訪中,喬姆斯基表示,ChatGPT本質上是“高科技剽竊”和“避免學習的一種方式”。 喬姆斯基認為,學生本能地使用高科技來逃避學習是“教育系統失敗的標志”。

1月26日,《科學》通過社論宣布,正在更新編輯規則,強調不能在作品中使用由ChatGPT(或任何其他人工智能工具)所生成的文本、數字、圖像或圖形。社論特別強調,人工智能程序不能成為作者。如有違反,將構成科學不端行為。

1月24日,《自然》也發文表示,由于任何作者都承擔著對所發表作品的責任,而人工智能工具無法做到這點,因此任何人工智能工具都不會被接受為研究論文的署名作者。文章同時指出,如果研究人員使用了有關程序,應該在方法或致謝部分加以說明。

與此同時,學界也開始反思ChatGPT是否“百害而無一利”。

沃頓商學院教授克里斯提娜·特維奇(Christian Terwiesch)的一項研究記錄了GPT-3在MBA核心課程《運營管理》的考試中的表現。特維奇發現,雖然GPT-3在基本運營管理和流程分析問題上做得較好,非常善于根據人類的提示來修改其答案。但目前版本的GPT-3無法處理更高級的流程分析問題,且其數學水平相當于六年級,在相對簡單的計算中有時會出現令人驚訝的錯誤。OpenAI從2015年開啟人工智能研究,此后陸續推出了語言處理模型GPT-1、GPT-2、GPT-3,它們也即ChatGPT的前身。

特維奇表示,GPT-3技術能通過“個性化”“互動”的方式提高MBA教育的學習體驗。例如,生成個性化的學習材料,提供實時反饋,并促進在線討論和小組項目。特維奇據此認為,應該允許學生采用ChatGPT完成作業,但要提高作業的標準。

北京大學法學院教授薛軍對《財經》表示,只要運用得當,ChatGPT會是一個積極的工具。

張欣認為, ChatGPT在設計時并不存在主觀惡意意圖,亦沒有明顯的設計缺陷。一方面,ChatGPT可以提高學術研究基礎資料的檢索和整合效率。另一方面,ChatGPT在現階段僅能做有限的信息整合和寫作,但無法代替深度、原創性的研究。因此,ChatGPT可以反向激勵學術研究者開展更有深度的研究。

南開大學法學院副院長陳兵對《財經》分析,ChatGPT是具有技術中性的工具,要判斷研究者是否構成學術不端,要分析該工具在成果中起到的實質作用。如ChatGPT生成的內容僅占文章一小部分,文章多數部分為作者獨立完成,且包含其思想和情感,則可以視為該學者的智力成果,并不構成學術不端;若文章大部分內容皆出自ChatGPT生成的內容,且是基于對大量語言數據的計算模擬而成,并不具有現行《著作權法》中創作作品的構成要件,超過了合理限度范圍,且內容并沒有包含該學者的思想或情感表達,則可能構成學術不端。

但是,如何在利用、發揮新技術優勢的同時,避免落入倫理乃至法律陷阱,仍然需要持續地探討和實踐。

探討一:如何解決“學術不端”

前述最新評論作者提出了五條建議,以解決ChatGPT可能帶來的“學術不端”風險。

1. 堅持進行人工驗證。

2. 制定關于如何歸責的標準。

3. 投資開發真正開放的大型語言模型。

4. 擁抱人工智能帶來的好處。

5. 繼續擴大討論,鼓勵每個科研團隊甚至本科教學都嘗試ChatGPT,呼吁建立持續的、多元的國際論壇來討論相關問題。

對此,薛軍認為,未來學術界應當形成一種學術性規范,要求研究者、學生在論文中披露由ChatGPT生成的內容,避免學術不端的風險。

陳兵指出,在技術層面,需要基于ChatGPT技術生產內容的邏輯與特征,加強對ChatGPT生成的內容的鑒別和識別。

張欣也建議,可以“用算法來治理算法,用AI來治理AI”。此前,研究者曾基于“深度合成”技術開發出甄別對抗技術濫用的方法和工具。

張欣舉例說,谷歌開發了 “Reality Defender”工具,可掃描用戶瀏覽的圖像、視頻或其他數字媒介,標記并報告可疑的偽造內容,檢測經篡改的人工合成內容。未來,技術公司也可以針對性地開發甄別工具。

此外,張欣認為,可以依靠技術社群和用戶的力量的“眾包治理”來應對風險。比如科技巨頭Meta聯合微軟、Partnership on AI、MIT等九家機構發起深度合成檢測挑戰賽(Deepfake Detection Challenge),以眾包思路探索深度合成技術甄別治理工作。推特也主辦過算法偏見賞金挑戰賽,為算法偏見識別提供現金獎勵。

探討二:如何確定“署名權”

面向未來,一個有待解決的治理爭議是,人工智能能否成為論文作者。

最新評論認為,法律界需要弄清楚到底是誰擁有作品的署名權。是通過人工智能系統訓練文本的個人,還是生產人工智能的公司,或者是使用該系統來指導他們寫作的科學家?同時,必須考慮和界定作者的定義。

根據中國《著作權法》的規定,在作品上署名的默認為作者,也視為著作權人。除自然人,法人、其他組織也可以作為擬制人視為作者,繼而確立著作權歸屬。法律對于作者也有基本的判斷標準——具有獨創性貢獻。

薛軍表示,爭論人工智能是否具有署名權并非問題的關鍵。人工智能并非法律意義上的主體,因此并不存在署名權的問題,關鍵在于學術研究者在援引ChatGPT生成的內容時要如實披露。

此前北京大學法學院教授、中國法學會知識產權法研究會副會長張平曾表示,對于AI生成物,不應再秉持署名權和著作權合二為一的原則。AI署名的目的是聲明該作品是由人工智能而非自然人創作,標明作品出處,防止人類剽竊人工智能的成果。張平是在參加對外經濟貿易大學數字經濟與法律創新研究中心、《財經》商業治理研究院、財經E法共同發起第四期“數智說”研討時,表達上述觀點的。

張平援引案例表示,AI署名在客觀上有著標識作品來源的功能,類似于反欺詐和反假冒商標的作用。比如,谷歌的AlphaDog,微軟的小冰,騰訊的Dreamwriter等,都在其人工智能作品上署機器人和算法的名字,已經有馳名商標的功能。

此外,張平認為,AI生成物的著作權界定也可以借鑒其他知識產權法理模式。比如,《專利法》中的發明人署名與專利權歸屬無關。也可以認為,在作品上署名的是作者但不一定是著作權人,著作權人可以通過權利標注符號另行標注。而目前《著作權法》規定,視聽作品的著作權歸屬通過合同約定的模式,也是一種可選方案。

陳兵也認為,從學術規范層面,可通過“署名”對ChatGTP生成物進行標識,以避免學術著作中濫用該技術。

陳兵說解釋,在權責劃分上,可根據不同主體對生成內容價值的作用大小進行劃分。譬如ChatGTP生成內容的價值源于其設計者算法的巧妙設計,則設計者擁有ChatGTP生成著作的權利,工具使用者不得濫用或者非法使用ChatGTP生成內容。若ChatGPT的最終生成內容是經由工具使用者反復調適,輸入變量等操作,使生成內容的價值遠大于其在一般運行狀態下生成的內容,則工具的使用者可以享有著作權。

探討三:如何解決“缺乏透明度”問題

學術界擔憂的另一問題是大型語言模型缺乏透明度。

最新評論指出,ChatGPT及其前身基礎訓練集和大型語言模型是不公開的。科技公司可能會隱瞞其對話式人工智能的內部運作,這與透明和開放的科學原則背道而馳。

對此,張欣認為,雖然學術界希望科技公司盡可能開放代碼,但算法在實踐層面只能在合理范圍內展現透明度。當代碼開放可能涉及算法的“算計”,即引發算法安全漏洞和算法攻擊行為的時候,開放并非是明智之舉。再加上代碼本身涉及到商業秘密和知識產權,所以難以要求科技公司全部公開模型信息。

陳兵認為,ChatGPT的透明度缺乏涉及算法偏見、算法黑箱帶來的人工智能算法生成內容不公正、不健康的問題,但要解決上述問題并不宜直接公開其模型,OpenAI對于內部運作機制適當的隱瞞是有必要的。此外,通過開放應用接口等形式進行部分開源,具有非常大的商業價值,也可推動算法解釋權,僅需對算法作出決策所依據的基本規則和標準進行闡述即可。

薛軍表示,缺乏透明度涉及到算法監管。目前歐盟、美國都在制定人工智能相關的規制框架,其目的是基于人工智能產生的風險類型進行不同程度的管制。但由于ChatGPT的算法目前是不公開的,這就會對相關規制框架的應用造成一定的限制。薛軍分析說,目前ChatGPT技術路線還處于競爭的早期階段,什么時間真正開放,各個國家和地區可能還會有一些差別。

“目前,中國的百度、阿里都在跟進這一技術,漢語語境下的模型可能與英語語境下的模型有所不同,未來這一領域的技術競爭可能還會更加深入。”薛軍說。

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
鄧紫棋「跨越紅海」幕后,竟是英偉達AIGC黑科技!
顛覆性挑戰!你想象不到的一個新領域強勢崛起
王慧文豪擲3.4億,眾人都想復制ChatGPT|貳月大變局
陳昌鳳等:由數據決定?AIGC的價值觀和倫理問題
GPT“攻陷”畫師、寫手等行業,接下來這一重要領域也危險了!
人工智能太火!微軟狂砸100億美元?哪些A股存潛在投資機會?(附股)
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 钦州市| 朝阳市| 拉孜县| 习水县| 虹口区| 和平区| 东港市| 彰化市| 梁山县| 天水市| 当阳市| 天柱县| 西和县| 盐池县| 中超| 兰坪| 沁源县| 阿城市| 杭锦旗| 类乌齐县| 南和县| 绥芬河市| 登封市| 竹山县| 黎川县| 土默特右旗| 兰西县| 肃南| 永顺县| 汉源县| 临湘市| 合肥市| 广州市| 建湖县| 贺兰县| 宣恩县| 北宁市| 江油市| 平遥县| 华安县| 图木舒克市|