ICLR 2024接收率31%,清華LCM論文作者:講個笑話,被拒了
ICLR 2024 國際學習表征會議已經來到了第十二屆,將于今年 5 月 7 日 - 11 日在奧地利維也納會展中心舉行。
在機器學習社區中,ICLR 是較為「年輕」的學術頂會,它由深度學習巨頭、圖靈獎獲得者 Yoshua Bengio 和 Yann LeCun 牽頭舉辦,2013 年才舉辦了第一屆。不過 ICLR 很快獲得學術研究者們的廣泛認可,被認為是深度學習頂會。在 Google Scholar 的學術會議 / 雜志排名中,ICLR 目前排名第十位,要高于 NeurIPS。
今日,ICLR 2024 將錄用結果陸續通知了論文提交者。本屆會議共收到了 7262 篇提交論文,整體接收率約為 31%,與去年持平(31.8%)。此外 Spotlights 論文比例為 5%,Oral 論文比例為 1.2%。
研究分析網站 Paper Copilot 對 ICLR 2024 的接收論文做了非常詳細的統計,并提供了與往年直觀的比較。
網站地址:https://papercopilot.com/statistics/iclr-statistics/iclr-2024-statistics/
結果出來后,依然是幾家歡喜幾家愁,論文被接收的學者紛紛「曬出」自己的喜悅。
機器之心報道過的蘋果文生圖大模型收到了被接收的喜訊。在這篇論文中,研究者提出了俄羅斯套娃式擴散模型(Matryoshka Diffusion Models,MDM),用于端到端高分辨率圖像生成。
推特 @thoma_gu
知名 AI 學者、Meta AI 研究科學家田淵棟團隊有 4 篇論文被接收,其中包括了一篇 Spotlight 論文。
推特 @tydsh
新加坡國立大學校長青年教授尤洋團隊的論文《InfoBatch: Lossless Training Speed Up by Unbiased Dynamic Data Pruning》被接收為了 Oral。
推特 @YangYou1991
不過,有些論文似乎成了 ICLR 2024 的遺珠,比如清華大學交叉信息研究院的研究者推出的 LCM(Latent Consistency Models),它將主流文生圖模型的效率提高了 5 到 10 倍,甚至做到了實時連續生圖。該模型發布僅僅一個月后便瀏覽超百萬,在 Hugging Face 平臺的模型下載量超 20 萬。
論文共同一作 Simian Luo 感嘆這是「這輩子最好笑的笑話」。
我們找到了一位審稿人的意見,他指出論文的缺點有這些:沒說清楚哪些貢獻對效率和質量影響最大、沒給出求解增強 PF-ODE 的計算復雜度、沒說明與其他方法相比推理時間到底快了多少、 沒給到 LCM 除用于 Stable Diffusion 以外其他 LDMs 的性能如何?
圖源:https://openreview.net/forum?id=duBCwjb68o