精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
AAAI2024 | 分享10篇優(yōu)秀論文,涉及圖神經(jīng)網(wǎng)絡(luò)、大模型優(yōu)化、表格分析等熱門話題
更多干貨,第一時間送達(dá)

引言

第38屆AAAI人工智能年度會議將于2024年2月在加拿大溫哥華舉行。今天給大家分享十篇AAAI2024論文,主要涉及圖神經(jīng)網(wǎng)絡(luò),大模型幻覺、中文書法文字生成、表格數(shù)據(jù)分析、KGs錯誤檢測、多模態(tài)Prompt、思維圖生成等。 

論文獲取方式,回復(fù):AAAI2024

AAAI是由國際人工智能促進(jìn)協(xié)會主辦的年會,是人工智能領(lǐng)域中歷史最悠久、涵蓋內(nèi)容最廣泛的國際頂級學(xué)術(shù)會議之一,也是中國計算機學(xué)會(CCF)推薦的A類國際學(xué)術(shù)會議。更多AAAI介紹可以參考這篇文章:一文了解AAAI國際會議--附: 各年論文列表連接

圖神經(jīng)網(wǎng)絡(luò)微調(diào)

https://arxiv.org/pdf/2312.13583.pdf

本文研究解決預(yù)訓(xùn)練和微調(diào)圖神經(jīng)網(wǎng)絡(luò)在圖挖掘任務(wù)中的結(jié)構(gòu)一致性問題。作者發(fā)現(xiàn)預(yù)訓(xùn)練圖與微調(diào)圖之間的結(jié)構(gòu)差異主要源于生成模式的不一致。為此,本文作者提出了G-TUNING方法,通過調(diào)整預(yù)訓(xùn)練圖神經(jīng)網(wǎng)絡(luò),有效地保持了微調(diào)圖的生成模式。

通過理論分析證明了存在一組替代圖譜基,利用它們的線性組合可以高效地近似微調(diào)圖的生成模式。在遷移學(xué)習(xí)實驗中,與現(xiàn)有算法相比,G-TUNING在領(lǐng)域內(nèi)和領(lǐng)域外分別提升了0.5%和2.6%

中文書法字體生成

https://arxiv.org/pdf/2312.10314.pdf

本文研究主要針對少樣本中文書法字體生成的問題。本文提出了一種新穎的模型,DeepCalliFont,通過集成雙模生成模型實現(xiàn)少樣本中文書法字體合成。

具體而言,該模型包括圖像合成和序列生成兩個分支,通過雙模態(tài)表示學(xué)習(xí)策略生成一致的結(jié)果。兩種模態(tài)(即字形圖像和書寫序列)通過特征重組模塊和光柵化損失函數(shù)進(jìn)行合理集成。此外,采用新的預(yù)訓(xùn)練策略,通過利用大量的單模態(tài)數(shù)據(jù)來提高性能。定性和定量實驗證明了本文方法在少樣本中文書法字體生成任務(wù)上優(yōu)于其他最先進(jìn)的方法。

RAG減少LLM幻覺研究

https://arxiv.org/pdf/2309.01431.pdf

本文研究主要針對檢索增強生成(RAG)在緩解大型語言模型(LLMs)產(chǎn)生幻覺方面的問題。現(xiàn)有研究缺乏對檢索增強生成對不同大型語言模型的影響進(jìn)行嚴(yán)格評估,這使得難以確定RAG在不同LLMs能力中的潛在瓶頸。本文系統(tǒng)地調(diào)查了檢索增強生成對大型語言模型的影響。

本文分析了不同大型語言模型在RAG所需的4個基本能力方面的性能,包括噪聲魯棒性、負(fù)例拒絕、信息整合和反事實魯棒性。為此,本文建立了檢索增強生成基準(zhǔn)(RGB),這是一個用于在英語和中文中評估RAG的新語料庫。RGB根據(jù)解決案例所需的上述基本能力將基準(zhǔn)中的實例劃分為4個獨立的測試集。然后,我們在RGB上評估了6個代表性的LLMs,以診斷當(dāng)前LLMs在應(yīng)用RAG時的挑戰(zhàn)。評估表明,雖然LLMs在一定程度上具有噪聲魯棒性,但在負(fù)例拒絕、信息整合和處理虛假信息方面仍然存在顯著困難。結(jié)果表明,在將RAG有效應(yīng)用于LLMs方面仍有相當(dāng)?shù)奶魬?zhàn)。

表格數(shù)據(jù)分析

https://arxiv.org/pdf/2312.13671.pdf

本文研究主要針對表格數(shù)據(jù)分析領(lǐng)域存在的問題,當(dāng)前研究主要集中在Text2SQL和TableQA等基礎(chǔ)任務(wù),忽略了像預(yù)測和圖表生成這樣的高級分析。

為填補這一空白,本文提出了Text2Analysis基準(zhǔn),涵蓋了超越SQL兼容操作的高級分析任務(wù)。本文還開發(fā)了五種創(chuàng)新有效的注釋方法,充分利用大型語言模型的能力,提高數(shù)據(jù)的質(zhì)量和數(shù)量。此外引入了類似真實用戶問題的不確定查詢,測試模型對此類挑戰(zhàn)的理解和解決能力。

最終,本文收集了2249個查詢-結(jié)果對和347個表格,使用三種不同的評估指標(biāo)對五個最先進(jìn)的模型進(jìn)行評估,結(jié)果顯示本文的基準(zhǔn)在表格數(shù)據(jù)分析領(lǐng)域提出了相當(dāng)大的挑戰(zhàn)。

零樣本認(rèn)知診斷

https://arxiv.org/pdf/2312.13434.pdf

本文研究主要針對領(lǐng)域級零樣本認(rèn)知診斷(DZCD),該問題源于新啟動領(lǐng)域中缺乏學(xué)生練習(xí)日志。近期的跨領(lǐng)域診斷模型被證明是解決DZCD的一種策略,但這些方法主要關(guān)注如何在領(lǐng)域之間轉(zhuǎn)移學(xué)生狀態(tài)。然而,它們可能會無意中將不可轉(zhuǎn)移的信息納入學(xué)生表示中,從而限制知識轉(zhuǎn)移的效果。

為了解決這個問題,本文提出了Zero-1-to-3,通過早期學(xué)生實現(xiàn)領(lǐng)域共享認(rèn)知信號傳遞和虛擬數(shù)據(jù)生成,有效處理新領(lǐng)域中缺乏學(xué)生練習(xí)日志的情況。共享的認(rèn)知信號可以傳遞到目標(biāo)領(lǐng)域,豐富新領(lǐng)域的認(rèn)知先驗,確保認(rèn)知狀態(tài)傳播的目標(biāo)。在六個真實世界數(shù)據(jù)集上的廣泛實驗證明了本文模型在DZCD及其在問題推薦中的實際應(yīng)用方面的有效性。

動態(tài)網(wǎng)絡(luò)方法

https://arxiv.org/pdf/2312.13068.pdf

本文研究主要針對動態(tài)網(wǎng)絡(luò)方法在處理時間上連續(xù)變化的網(wǎng)絡(luò)時存在的局限性。本文提出了一種基于生存函數(shù)的新型隨機過程,用于建模鏈接在時間上的持續(xù)和缺失。這形成了一種通用的新似然規(guī)范,明確考慮了間歇性的邊持續(xù)網(wǎng)絡(luò),即GRASP:Graph Representation with Sequential Survival Process。

本文將該框架應(yīng)用于最近的連續(xù)時間動態(tài)潛在距離模型,以節(jié)點在潛在空間中的分段線性移動序列來刻畫網(wǎng)絡(luò)動態(tài)。本文在諸如鏈接預(yù)測和網(wǎng)絡(luò)完成等各種下游任務(wù)中進(jìn)行了定量評估,結(jié)果表明本文的建模框架能夠有效跟蹤潛在空間中節(jié)點的內(nèi)在軌跡,捕捉不斷演變的網(wǎng)絡(luò)結(jié)構(gòu)的基本特征。

KGs錯誤檢測

https://arxiv.org/pdf/2312.12108.pdf

本文研究主要針對知識圖譜(KGs)中存在的各種錯誤問題。本文提出了一種KG錯誤檢測模型CCA,通過三元組重建整合文本和圖結(jié)構(gòu)信息,更好地區(qū)分語義。

本文采用交互對比學(xué)習(xí)捕捉文本和結(jié)構(gòu)模式之間的差異。此外,本文構(gòu)建了包含語義相似噪聲和對抗性噪聲的真實數(shù)據(jù)集。實驗結(jié)果表明,CCA在檢測語義相似噪聲和對抗性噪聲方面優(yōu)于最先進(jìn)的基線方法。

思維圖生成

https://arxiv.org/pdf/2312.11997.pdf

本文研究主要針對思維圖生成中存在的問題,即現(xiàn)有方法雖然能夠并行生成思維圖,但主要側(cè)重于順序特征,難以捕捉結(jié)構(gòu)信息,尤其在建模長程語義關(guān)系方面存在困難。

本文提出了一種基于指代的思維圖生成網(wǎng)絡(luò)(CMGN),以引入外部結(jié)構(gòu)知識。具體而言,本文基于指代語義關(guān)系構(gòu)建指代圖,引入圖結(jié)構(gòu)信息。然后,采用指代圖編碼器挖掘句子之間的潛在關(guān)系。

為了排除噪聲并更好地利用指代圖的信息,本文采用對比學(xué)習(xí)方式中的圖增強模塊。實驗結(jié)果表明,本文模型優(yōu)于所有現(xiàn)有方法。案例研究進(jìn)一步證明,本文模型能夠更準(zhǔn)確、簡潔地揭示文檔的結(jié)構(gòu)和語義。

多模態(tài)對齊Prompt

https://arxiv.org/pdf/2312.08636.pdf

本文研究主要針對多任務(wù)學(xué)習(xí)中解碼器隨任務(wù)增加而復(fù)雜的問題。本文提出了一種集成無解碼器的視覺-語言模型CLIP的方法,該模型表現(xiàn)出強大的零樣本泛化能力。

本文首先提出了多模態(tài)對齊提示(MmAP)方法,用于在微調(diào)過程中對齊文本和視覺模態(tài)。在MmAP的基礎(chǔ)上,本文開發(fā)了一種創(chuàng)新的多任務(wù)提示學(xué)習(xí)框架。一方面,為了最大化相似任務(wù)的互補性;另一方面,為了保留每個任務(wù)的獨特特征,為每個任務(wù)分配一個特定的MmAP。

在兩個大型多任務(wù)學(xué)習(xí)數(shù)據(jù)集上的綜合實驗證明,本文方法相較于完全微調(diào)實現(xiàn)了顯著的性能提升,同時僅利用約0.09%的可訓(xùn)練參數(shù)。

多模型標(biāo)簽對齊

https://arxiv.org/pdf/2312.08212.pdf

本文研究主要針對在視覺-語言(VL)領(lǐng)域中,將預(yù)訓(xùn)練模型成功遷移到下游任務(wù)的問題。先前的方法主要集中于構(gòu)建文本和視覺輸入的提示模板,忽略了VL模型和下游任務(wù)之間類別標(biāo)簽表示的差距。

為解決這一挑戰(zhàn),本文引入了一種名為LAMM的創(chuàng)新標(biāo)簽對齊方法,通過端到端訓(xùn)練動態(tài)調(diào)整下游數(shù)據(jù)集的類別嵌入。此外,為了獲得更合適的標(biāo)簽分布,本文提出了一個分層損失,包括參數(shù)空間、特征空間和logits空間的對齊。我們在11個下游視覺數(shù)據(jù)集上進(jìn)行了實驗證明,本文方法在少樣本場景中顯著提高了現(xiàn)有多模態(tài)提示學(xué)習(xí)模型的性能,相較于16張圖像的最先進(jìn)方法,平均準(zhǔn)確率提升了2.31%。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
劉知遠(yuǎn)老師高鐵上回應(yīng):大模型LLM領(lǐng)域,有哪些可以作為學(xué)術(shù)研究方向?
AI:大力出奇跡?Bigger is better?AI下一代浪潮?—人工智能的大語言模型(LLMs)的簡介、發(fā)展以及未來趨勢
谷歌內(nèi)部文件泄漏:谷歌、OpenAI都沒有護(hù)城河,大模型門檻正被開源踏破
北航成AAAI 2021最大贏家,兩篇一作斬獲最佳論文、提名獎,研究皆與Transformer相關(guān)
美國人疑惑:這玩意我們天天吃不夠,為啥從沒看見中國人吃過?
2021年AI Top Stories
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 叶城县| 新田县| 金华市| 巴林左旗| 凉城县| 井陉县| 达日县| 剑阁县| 恩施市| 安吉县| 炎陵县| 大厂| 宣武区| 治县。| 雅安市| 哈尔滨市| 左贡县| 榕江县| 营口市| 湘乡市| 云浮市| 伊宁市| 姜堰市| 桂阳县| 增城市| 临夏市| 台安县| 荆门市| 德格县| 中超| 浮山县| 长乐市| 和平县| 龙里县| 澄城县| 额敏县| 筠连县| 措美县| 襄樊市| 封丘县| 原阳县|