由中國計算機學會主辦、CCF語音對話與聽覺專委會承辦、語音之家協辦、華為終端有限公司贊助的CCF先進音頻技術大賽正式啟動。大賽旨在推動國內高等院校及科研院所在音頻技術領域的專業人才培養,支持學生科技創新,選拔優秀人才。
賽事官網:https://ccf-aatc.org.cn/
賽題一:語音修復
賽題描述
本賽題旨在鼓勵參賽者探索和實現面向真實世界復雜鏈路的下一代語音修復算法,以顯著提升語音信號的質量、可懂度和聽感自然度。本任務要求參賽隊伍針對給定的、經歷了多重損傷的語音,設計并實現一個統一的修復模型,輸出最大程度接近原始質量的純凈語音。
本次挑戰賽關注的核心問題與挑戰如下:
-
復合型失真的建模與消除;
-
語音保真度與失真抑制的平衡
-
低時延處理需求。
數據集與基線系統
競賽方將提供優質數據資源:
-
純凈語音庫 (Clean Speech):包含數千小時、多語種、多說話人的高質量無損語音數據。
-
噪聲庫 (Noise):包含數百種從真實場景錄制的非平穩、多樣化的噪聲數據。
-
房間沖激響應庫 (RIR):包含不同房間大小、不同混響時長的房間脈沖響應(Room Impulse Response)數據。
對于數據生成,將提供一個可復現的數據合成腳本,同時提供一部分專業降噪算法處理后的音頻輸出作為失真音頻數據。
為幫助參賽者快速驗證,競賽組織方將提供一個官方的開發驗證集。該數據集包含經過上述復合型失真(噪聲、混響、處理后失真、削波、低碼率編碼)處理的帶標簽語音片段。最終用于模型性能排行榜的最終盲測集將對參賽者保持不可見,但其數據分布、失真類型和復雜度與開發驗證集保持一致。
競賽組織方將提供一個基于掩碼生成模型的基線模型(類似MaskSR)及其完整的訓練和推理代碼,鼓勵復現我們公布的baseline的結果。
賽題二:通用音頻分離
賽題描述
通用音頻分離是指從混雜聲音信號中分離出不同聲源的獨立信號。傳統音頻包括單通道分離方法和多通道分離方法,典型算法包括ICA、NMF、Sparse Coding等。近年來,隨著深度學習技術的進步,主流方法利用深度神經網絡學習音頻內在特征和混合規律,實現了更好的分離效果。本任務是對2通道錄制的4聲源的混合音頻進行分離,具體設定如下:
-
聲學場景:辦公室環境,目標聲源為人聲和樂器,共4個聲源,聲源與麥克風位置在4米以內,聲源位置不固定,但同一段錄音中聲源位置不變。錄音中可能包含多人發音,每人發音視為一個獨立聲源。錄音中可能包含背景噪音,背景噪聲的強度明顯低于主聲源。
-
錄音設備:錄音設備為一個4麥線性陣列,選擇其中2路作為開發和測試數據。2路麥克風之間的距離為2.8厘米。
數據集與基線系統
訓練集:參賽隊伍可使用任何開源數據集進行訓練,但需在提交系統時明確所使用的數據集。
參考數據集如下:
-
人聲:AISHELL-1:https://www.openslr.org/33/
-
樂器:MUSIC:https://github.com/roudimit/MUSIC_dataset
競賽組織方提供10小時的錄音數據作為開發集,最終測試用數據與開發數據特性相同。
競賽組織方將提供一個基線模型及其完整的訓練和推理代碼,鼓勵復現我們公布的baseline的結果。
賽程安排
2025.6.20 | 賽題發布,開啟報名 |
2025.6.27 | 開發集,基線系統發布 |
2025.8.15 | 測試集發布 |
2025.8.20 | 結果提交截止 |
2025.8.25 | 初賽結果公布 |
2025.8.30 | 決賽答辯、頒獎儀式 |
2025.10.16~17 | 賽事專場報告會 |
參賽對象
-
大賽面向國內高等院校及科研院所在讀學生?(含全日制本科生、碩士研究生、博士研究生)
-
每支隊伍參賽隊員人數為1-3人,可1位老師指導完成。
獎項設置
📜?獲獎證書;
💰?獎金:一等獎3萬(共2名),二等獎2萬(共4名),三等獎1萬(共6名);
📑?針對賽題一、二表現優異的學生成果,可優先推薦至第二十屆全國人機語音通訊學術會議(NCMMSC 2025)展示交流;
👜?華為面試綠色通道。