ICML 2024 | 脫離LoRA架構,訓練參數大幅減少,新型傅立葉微調來了
本文介紹了香港科技大學(廣州)的一篇關于大模型高效微調(LLMPEFTFinetuning)的文章「ParameterEfficientFineTuningwithDiscreteFourierTransform」,本文被ICML2024接收,代碼已開源。論文地址:https:arxiv.orgabs2405.03003項目地址:https:github.comChaos96fourierft背景大型基座模型在自然語言處理(NLP)和計算機視覺(CV)領域都獲得了矚目的成就。微調(Finetuning)大型基座模型,使其更加適應特殊的下游任務,成...