精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
GPT-4 發布后,你的 NLP 研究發生了怎樣的變化?

本文來自知乎的一個問題"GPT-4 發布后,你的 NLP 研究發生了怎樣的變化?",值得思考,選取幾個回答供大家參考,僅代表答者個人觀點,也歡迎對這個話題感興趣的朋友在文末留言。

鏈接:https://www.zhihu.com/question/589704718


作者:sonta

鏈接:https://www.zhihu.com/question/589704718/answer/2946475253

NLP已經死了

NLP社區可以大致分為兩個group: 一種是相信AGI的,一種是不相信的。

對于前者來說,LLM的興起當然是極其令人興奮的。之前的NLP模型對他們來說基本全是玩具,而LLM才是通往AGI的正確道路。他們會高呼生在這個時代極其幸運,并且all in LLM research。這無疑是正確的方向之一,如果你對LLM有興趣,野心和激情,那么all in LLM也是一個很不錯的選擇(如果有計算資源)。我摘錄一些dalao對LLM未來研究的建議(侵刪)僅供參考:

某dalao的建議

某LLM教父的twitter

可是對我來說,(API-driven or prompt-driven or ..) LLM research只能讓我感到無聊,并不能讓我感到興奮,所以我潤ML了,非必要不投*ACL(NLP潤ML人快來私戳,樂)。(Update:潤了,但沒完全潤,還是準備做點scale up一些非attention架構的work的)

我屬于第一類

后者的很多人應該像我一樣對LLM的research感到無聊,畢竟整個學科在越來越工程化。如果還打算繼續留下來做NLP research的,就需要好好想想如何說服自己,自己做的研究是有意義的。畢竟騙審稿人容易,騙自己難,做自己都認為沒價值的research還有什么樂趣呢?在LLM的邊邊角角繼續打不痛不癢的補丁,然后被GPT的下一個版本薄紗,那這樣,存在主義危機 (existential crisis) 就會像幽靈一樣陰魂不散。

因為我是做Parsing的,所以我很早之前就體會到現在許多人才體會到的心情(See 為什么研究NLP句法分析的人不多?- sonta的回答 - 知乎 https://www.zhihu.com/question/489981289/answer/2148458380) 。就算沒有LLM,在其他的比較強的神經網絡里面,句法信息也是可有可無的。所以單純做句法這個方向從實用的角度來看基本上可以說是毫無意義的,跟現在在LLM時代做其他NLP任務一樣。 那么我是如何說服自己做的呢?那當然是好玩。Parsing argubly是NLP最有意思的方向(從算法的好玩的角度來看)。現在的Parsingtrack已經大約有一半的work干脆實驗都不做了,直接純理論分析向(感謝Jason Eisner, Ryan Cotterell),就講究一個好玩,樂。Parsing這種偏理論的方向至少還能玩玩理論,那么其他更加應用的方向呢?我不知道。反正我感覺沒啥好做的。

舉Parsing的例子主要是想說,Parsing領域的今天就是很多NLP子領域的明天。NLP很多dalao都是做Parsing起家,那他們為什么現在不做了呢?因為Parsing is almost solved,他們當然轉向了其他更有前景的,unsolved的NLP子方向。而如今在LLM時代,NLP整個領域面臨solved,很多中間任務幾乎沒有存在的價值,

ChatGPT會對未來5年的NLP算法從業者帶來怎樣的沖擊?

通向AGI之路:大型語言模型(LLM)技術精要

甚至直接面向應用(e.g. 翻譯 潤色 糾錯 etc)的任務都面臨直接被GPT系列薄紗的危機, 那么小潤潤parsing,大潤或許可以考慮潤出做純NLP的research,例如跟我一樣潤ML,或者做一些NLP與其他學科的交叉,

當然,你也可以跟著Neubig一起去做保護環境(狗頭


作者:鄭楚杰
鏈接:https://www.zhihu.com/question/589704718/answer/2946162537

NLP community is broken

在過去,研究的意義是前瞻、指導應用發展。但如今 NLP 的學術研究已經跟不上工業界的進步,用有限資源做出的 toy 在兩三個月的審稿周期后就已被淘汰。現在群魔亂舞的 peer-review 也無法有效評估和引導研究的價值,rebuttal、recycle 只會進一步浪費時間

一個越多被提及的說法是「ACL 系列會議愛收精致的垃圾」。NLP community 在歷史的慣性逐步衰減后可能會迎來凋亡,或者成為圈地自萌的娛樂場


作者:匿名用戶
鏈接:https://www.zhihu.com/question/589704718/answer/2946249350

沒在名校強組,資源有限,在讀博一,有點49年入國軍的感覺了,能夠感覺到這是AI時代,(巨頭公司/機構)大有可為,但和我沒什么關系了。大概在接下來的幾個月一兩年內能夠看到大模型顯著地改變無數人的生活、工作,創造出巨量的價值,明明我就在做相關的研究,但我不僅沒法參與到這一切中,甚至還讓自己原有的努力作廢。

本來找了個ACL22的新數據集,加點ICLR、ICML里學到最新的trick,投個C會練練手。好巧不巧是個文本生成任務,看了下自己用的BART-base(別問,問就是large跑不起來),再看了下ChatGPT和GPT-4生成的結果,思考了一下午我的工作意義在哪里,怎么編出來意義,我已經想到審稿人在說:“糊弄的結果騙騙哥們兒可以,哥們打個哈哈就給你reject了,別真把自己騙了以為做的那坨東西就有意義了”。想了一下午,感覺或許能強行挽尊比GPT-3.5有限地強點,至于ChatGPT和GPT-4,無能為力。如果我的模型能勝出那只能是因為prompt沒選好。

畢竟還是需要發故事會達到畢業要求的,可以遇見未來只能試著去啃一啃大模型懶得去關注的邊邊角角,講一兩個自己都不相信的科幻故事,換個文憑。


作者:匿名用戶

鏈接:https://www.zhihu.com/question/589704718/answer/2940391370

NLP?NLPer去年12月已經哭過墳了,好像昨天哭墳更多是CV和多模態。

車輪碾過,沒有人是幸存者。

作者:劉聰NLP
鏈接:https://www.zhihu.com/question/589704718/answer/2946686094

有資源的NLPer,研究大模型基座;少資源的NLPer,研究大模型微調;沒資源的NLPer,研究接口調用

沒有資源的,為什么不研究prompt模板呢,因為也已經有自動化模板生成API。

不開玩笑的說,大模型賦予小模型更多能力的工作,可能是之后要研究的重點,畢竟10億參數的模型部署還可以嘗試,100億甚至1000億的模型對于企業來說還是壓力過大的。


本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
重磅:盤點7大方向,誰將誕生ChatGPT領域的尤里卡時刻
深入聊一聊chatGPT模型原理(無公式)
ChatGPT掀起技術狂潮:頂流之下,看人工智能喜與憂
ChatGPT以及LLM(大語言模型)的思考 | 一起用AI
關于ChatGPT的五個最重要問題
Stability AI火速發布Llama 2微調模型FreeWilly,性能媲美ChatGPT!網友驚呼游戲規則已改變
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 宁化县| 山东省| 光泽县| 手游| 翁牛特旗| 逊克县| 连平县| 焉耆| 伊宁县| 定日县| 久治县| 商河县| 阿尔山市| 改则县| 鄂托克前旗| 新竹县| 宁远县| 满洲里市| 翼城县| 石城县| 蓬安县| 平遥县| 上虞市| 龙川县| 河源市| 屏东市| 谷城县| 宁蒗| 屯留县| 四子王旗| 台安县| 德惠市| 清流县| 海宁市| 嘉兴市| 阿荣旗| 建湖县| 石狮市| 海南省| 德江县| 和政县|