南大周志華帶隊斬獲AAAI 2025杰出論文獎!吳恩達親臨現場,3篇上榜
AAAI 2025杰出論文出爐了!
今年共有3篇論文摘下杰出論文桂冠,其中一篇是南京大學周志華團隊出品,另外兩篇分別頒給了多倫多大學和波爾多大學等機構的學者。
作為AI領域A類頂會之一,AAAI從1979年起每年舉辦一次,今年是第39屆年會,于2月25日-3月4日在美國費城舉辦。
今年,共收到12957篇有效投稿,接收3032篇,錄用率為23.4%,其中Oral論文占比4.6%。和去年相較,并沒有太大差異(錄用率23.75%)。
同在今天,AAAI還公布了一份「AI研究未來」91頁報告,覆蓋了AI領域17大議題,包含了機器人、智能體等,成為全球AI研究的另一個風向標。
還有吳恩達親臨現場,發表了「人工智能、智能體和應用」最前沿的演講。
接下來,一起看看今天獲獎的三篇論文。
三篇杰出論文
題目:Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection
作者:Wen-Chao Hu(胡文超), Wang-Zhou Dai(戴望州), Yuan Jiang(姜遠), Zhi-Hua Zhou(周志華)
機構:南京大學
論文地址:https://arxiv.org/abs/2412.08457
在南大周志華團隊帶領這篇研究中,在神經-符號(NeSy)AI上取得了新的突破,即讓AI像人類一樣「反思」自己的錯誤。
神經-符號AI就像是人類雙系統的認知過程,這個雙系統也就是我們熟知的「思考,快與慢」一書中提出的原型。
一個是用神經網絡模擬直覺型的系統1,另一個是用符號推理模擬分析型的系統2。
然而,對于復雜的學習目標,NeSy系統常常生成與領域知識不一致的輸出,且這些錯誤很難被糾正。
人類厲害的一個地方在于,能夠迅速發現直覺反應中的錯誤,并通過啟動系統2的推理過程進行糾正。
受到人類認知反思能力的啟發,南大團隊提出了基于溯因學習(Abductive Learning,ABL)框架引入溯因式反思(ABL-Refl)來改進NeSy系統。
ABL-Refl利用領域知識在訓練過程中構建反思向量,該向量能夠在推理階段標記神經網絡輸出中的潛在錯誤,并觸發溯因推理機制來糾正這些錯誤,從而生成與領域知識一致的輸出。
與之前的ABL實現相比,ABL-Refl效率顯著提高。
實驗結果表明,ABL-Refl在性能上超越了目前最先進的NeSy方法,不僅達到了出色的準確率,還減少了訓練資源需求,提升了整體效率。
題目:Every Bit Helps: Achieving the Optimal Distortion with a Few Queries
作者:Soroush Ebadian, Nisarg Shah
機構:多倫多大學
論文地址:https://www.cs.toronto.edu/~nisarg/papers/value-queries.pdf
在多智能體系統中,有一項基本任務:如何將n個智能體合理地匹配到n個選項,比如資源或任務?
通常,這是通過獲取智能體對選項的序數排序(而非其確切數值效用)來實現的。
雖然這簡化了信息獲取過程,但不完整的信息會導致效率低下,這可以通過一種稱為「失真」的最壞情況度量來衡量。
最近的一系列研究表明,如果稍微多問智能體一些問題,獲取少量關于基數效用(cardinal utility)的查詢,可以顯著改善失真程度。
其中來自英國埃塞克斯大學等機構的研究通過對每個智能體進行兩次查詢,實現了的失真。
多倫多大學的研究人員,將如上實驗的結果進行了推廣,證明對于任何常數λ,通過對每個智能體進行λ次查詢,可以實現的失真,這在Peeking Behind the Ordinal Curtain: Improving Distortion via Cardinal Qeries給出的先前下界基礎上是最優的。
此外,他們還將研究擴展到一般社會選擇問題,即必須根據n個智能體的偏好從m個選項中選擇一個。
結果表明,對于任何常數λ,通過每個智能體進行λ次查詢,可以實現的失真,這在先前結果的基礎上也是最優的。
因此,對于這兩個問題,最新研究解決了關于使用固定數量基數值查詢可實現的最優失真的開放問題。
題目:Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives
作者:Marius Belly, Nathana?l Fijalkow, Hugo Gimbert, Florian Horn, Guillermo Perez, Pierre Vandenhove
機構:波爾多大學,巴黎大學等
論文地址:https://arxiv.org/abs/2412.12063
部分可觀察馬爾可夫決策過程(POMDPs),是序列決策制定中處理不確定性的一個重要模型。
波爾多大學等機構在最新研究中,通過構建具有理論保證的算法,以確定智能體是否擁有能以概率1滿足給定規范的策略。
這個被廣泛研究的問題已被證明,即使對于非常簡單的ω-正則目標也是不可判定的,主要原因在于對不確定事件進行推理的固有困難。
針對這一問題,作者引入了一種信息揭示機制,通過要求智能體幾乎必然地最終能獲得關于當前狀態的完整信息,從而限制信息損失。
最新主要技術成果是為兩類POMDP(稱為弱揭示型和強揭示型)構建了精確算法。
重要的是,這些可判定的情況可以簡化為對有限信念支撐馬爾可夫決策過程的分析。這為大類POMDP提供了一個概念上簡單且精確的算法解決方案。
AI社會影響專題
題目:DivShift: Exploring Domain-Specific Distribution Shifts in Large-Scale, Volunteer-Collected Biodiversity Datasets
作者:Elena Sierra, Teja Katterborn, Salim Soltani, Lauren Gillespie, Moisés Expósito-Alonso
機構:斯坦福大學,弗萊堡大學,米納斯聯邦大學,加州大學伯克利分校等
論文地址:https://arxiv.org/abs/2410.19816
大規模、由志愿者收集的社區識別自然世界圖像數據集(如iNaturalist),已經使深度學習模型在植物物種的「細粒度視覺分類」方面取得了顯著的性能提升。
然而,此類數據集往往是機會性采集的,缺乏結構化的采樣策略。
這種依賴志愿者參與的數據收集過程固有的地理、時間、觀察質量和社會經濟偏差,正在阻礙這些模型被廣泛應用于下游的生物多樣性監測任務,尤其是在發展中國家和地區(全球南方)。
雖然這些偏差在生物多樣性建模文獻中已被廣泛記錄,但它們對深度學習模型造成的分布偏移影響尚未被嚴格量化。
在此,斯坦福大學等機構提出了多樣性偏移(DivShift)框架,用于量化生物多樣性領域特定分布偏移對深度學習模型性能的影響。
他們還創建了DivShift–西海岸植物(DivShift-WCP)數據集,這是一個精心策劃的新數據集,包含北美西海岸近800萬個iNaturalist植物觀察記錄,用于在受控的案例研究中診斷這些偏差的影響。
使用這個新數據集,通過對比計算機視覺模型在各種偏移條件下的性能,他們觀察到這些偏差確實會影響模型在觀察質量、空間位置和政治邊界方面的表現。
有趣的是,作者還發現對于所有數據分區,模型的準確率都低于根據數據集自身偏移估計所預期的隨機水平,這表明自然世界圖像內部的結構特征提供了顯著的泛化能力改進。
基于這些觀察結果,研究人員為在自然世界圖像生物多樣性集合上訓練計算機視覺模型提出了一系列建議。