電子工程學院3篇成果被CVPR 2023錄用
(通訊員 趙彤璐)近日,計算機視覺與模式識別大會(The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2023,簡稱CVPR 2023)公布了論文錄用結果。電子工程學院共計3篇論文被錄用,分別是鄧成教授團隊武阿明博士的《Discriminating Known from Unknown Objects via Structure-Enhanced Recurrent Variational AutoEncoder》和楊木李博士的《Bootstrap Your Own Prior: Towards Distribution-Agnostic Novel Class Discovery》、陳渤教授團隊曾澤群博士和張昊副教授合作完成的《ConZIC: Controllable Zero-shot Image Captioning by Sampling-Based Polishing》。
作為國際公認的計算機視覺和機器學習領域頂級會議,CVPR大會每年都會吸引學術界和工業界的廣泛關注,其收錄的論文代表了該領域最前沿的研究成果。本屆CVPR共收到9155篇有效投稿,錄用2360篇,錄用率25.78%。
武阿明博士的論文 “Discriminating Known from Unknown Objects via Structure-Enhanced Recurrent Variational AutoEncoder” 提出了循環變分自編碼網絡用于合成虛擬的分布外特征,同時利用 LoG 算子來增強物體的結構信息,有效緩解了訓練過程中缺乏分布外數據的問題。實驗結果證明所提方法能夠有效地合成分布外特征,顯著提升了分布外目標檢測的性能。
楊木李博士的論文“Bootstrap Your Own Prior: Towards Distribution-Agnostic Novel Class Discovery”提出類分布無關的新類發現任務,設計了動態溫度調整策略來提升模型預測的置信度,從而促進更為精準的類別分布先驗估計。基于估計得到的類分布先驗,BYOP可為新類樣本提供更準確的偽標簽,并促進下一次的訓練迭代。實驗結果表明BYOP在各種類別分布情況下均展現出一致的有效性。
曾澤群博士和張昊副教授合作完成的成果結合團隊以往在概率模型建模上的相關經驗知識,提出了一種基于吉布斯采樣的非自回歸零樣本圖像字幕生成方法。此方案相較于傳統自回歸條件文本生成方案,生成結果具有更強的多樣性和隨機性。此外,借助先進的大規模預訓練模型中包含的先驗知識以及額外的知識庫,本文可以實現無需訓練樣本和訓練過程,即在零樣本的條件下,靈活應用于下游條件文本生成任務。同時,該工作還將此框架進一步擴展到各個可控文本生成任務上來,將基于圖像內容的可控文本生成,分解為獨立的文本生成、圖像文本匹配、約束文本匹配三個模塊,并在多個可控任務,如情感控制、詞性控制、長度控制等任務上取得了較好的結果。
此次3篇成果的錄用體現了國際學術領域對電院師生科研成果的認可,既擴大了學院的學術影響力,又促進了師生與領域內頂尖學者的交流及對該領域最新研究進展的了解。
(文字來源:MIRACLE Lab;雷達信號處理國家級重點實驗室)