第38屆AAAI人工智能年度會議將于2024年2月在加拿大溫哥華舉行。今天給大家分享十篇AAAI2024論文,主要涉及圖神經(jīng)網(wǎng)絡(luò),大模型幻覺、中文書法文字生成、表格數(shù)據(jù)分析、KGs錯誤檢測、多模態(tài)Prompt、思維圖生成等。
論文獲取方式,回復(fù):AAAI2024
AAAI是由國際人工智能促進(jìn)協(xié)會主辦的年會,是人工智能領(lǐng)域中歷史最悠久、涵蓋內(nèi)容最廣泛的國際頂級學(xué)術(shù)會議之一,也是中國計算機學(xué)會(CCF)推薦的A類國際學(xué)術(shù)會議。更多AAAI介紹可以參考這篇文章:一文了解AAAI國際會議--附: 各年論文列表連接
本文研究解決預(yù)訓(xùn)練和微調(diào)圖神經(jīng)網(wǎng)絡(luò)在圖挖掘任務(wù)中的結(jié)構(gòu)一致性問題。作者發(fā)現(xiàn)預(yù)訓(xùn)練圖與微調(diào)圖之間的結(jié)構(gòu)差異主要源于生成模式的不一致。為此,本文作者提出了G-TUNING方法,通過調(diào)整預(yù)訓(xùn)練圖神經(jīng)網(wǎng)絡(luò),有效地保持了微調(diào)圖的生成模式。
本文研究主要針對少樣本中文書法字體生成的問題。本文提出了一種新穎的模型,DeepCalliFont,通過集成雙模生成模型實現(xiàn)少樣本中文書法字體合成。
本文研究主要針對檢索增強生成(RAG)在緩解大型語言模型(LLMs)產(chǎn)生幻覺方面的問題。現(xiàn)有研究缺乏對檢索增強生成對不同大型語言模型的影響進(jìn)行嚴(yán)格評估,這使得難以確定RAG在不同LLMs能力中的潛在瓶頸。本文系統(tǒng)地調(diào)查了檢索增強生成對大型語言模型的影響。
本文研究主要針對表格數(shù)據(jù)分析領(lǐng)域存在的問題,當(dāng)前研究主要集中在Text2SQL和TableQA等基礎(chǔ)任務(wù),忽略了像預(yù)測和圖表生成這樣的高級分析。
最終,本文收集了2249個查詢-結(jié)果對和347個表格,使用三種不同的評估指標(biāo)對五個最先進(jìn)的模型進(jìn)行評估,結(jié)果顯示本文的基準(zhǔn)在表格數(shù)據(jù)分析領(lǐng)域提出了相當(dāng)大的挑戰(zhàn)。
本文研究主要針對領(lǐng)域級零樣本認(rèn)知診斷(DZCD),該問題源于新啟動領(lǐng)域中缺乏學(xué)生練習(xí)日志。近期的跨領(lǐng)域診斷模型被證明是解決DZCD的一種策略,但這些方法主要關(guān)注如何在領(lǐng)域之間轉(zhuǎn)移學(xué)生狀態(tài)。然而,它們可能會無意中將不可轉(zhuǎn)移的信息納入學(xué)生表示中,從而限制知識轉(zhuǎn)移的效果。
本文研究主要針對動態(tài)網(wǎng)絡(luò)方法在處理時間上連續(xù)變化的網(wǎng)絡(luò)時存在的局限性。本文提出了一種基于生存函數(shù)的新型隨機過程,用于建模鏈接在時間上的持續(xù)和缺失。這形成了一種通用的新似然規(guī)范,明確考慮了間歇性的邊持續(xù)網(wǎng)絡(luò),即GRASP:Graph Representation with Sequential Survival Process。
本文將該框架應(yīng)用于最近的連續(xù)時間動態(tài)潛在距離模型,以節(jié)點在潛在空間中的分段線性移動序列來刻畫網(wǎng)絡(luò)動態(tài)。本文在諸如鏈接預(yù)測和網(wǎng)絡(luò)完成等各種下游任務(wù)中進(jìn)行了定量評估,結(jié)果表明本文的建模框架能夠有效跟蹤潛在空間中節(jié)點的內(nèi)在軌跡,捕捉不斷演變的網(wǎng)絡(luò)結(jié)構(gòu)的基本特征。
本文研究主要針對知識圖譜(KGs)中存在的各種錯誤問題。本文提出了一種KG錯誤檢測模型CCA,通過三元組重建整合文本和圖結(jié)構(gòu)信息,更好地區(qū)分語義。
本文研究主要針對思維圖生成中存在的問題,即現(xiàn)有方法雖然能夠并行生成思維圖,但主要側(cè)重于順序特征,難以捕捉結(jié)構(gòu)信息,尤其在建模長程語義關(guān)系方面存在困難。
為了排除噪聲并更好地利用指代圖的信息,本文采用對比學(xué)習(xí)方式中的圖增強模塊。實驗結(jié)果表明,本文模型優(yōu)于所有現(xiàn)有方法。案例研究進(jìn)一步證明,本文模型能夠更準(zhǔn)確、簡潔地揭示文檔的結(jié)構(gòu)和語義。
本文研究主要針對多任務(wù)學(xué)習(xí)中解碼器隨任務(wù)增加而復(fù)雜的問題。本文提出了一種集成無解碼器的視覺-語言模型CLIP的方法,該模型表現(xiàn)出強大的零樣本泛化能力。
在兩個大型多任務(wù)學(xué)習(xí)數(shù)據(jù)集上的綜合實驗證明,本文方法相較于完全微調(diào)實現(xiàn)了顯著的性能提升,同時僅利用約0.09%的可訓(xùn)練參數(shù)。
本文研究主要針對在視覺-語言(VL)領(lǐng)域中,將預(yù)訓(xùn)練模型成功遷移到下游任務(wù)的問題。先前的方法主要集中于構(gòu)建文本和視覺輸入的提示模板,忽略了VL模型和下游任務(wù)之間類別標(biāo)簽表示的差距。