音訊課程文件
動手練習
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
動手練習
現在是時候親自體驗一些音訊模型,並應用您目前所學到的知識了。本練習是獲得課程結業證書所需的四項動手練習之一。
以下是說明。在本單元中,我們演示瞭如何對 marsyas/gtzan
資料集上的 Hubert 模型進行微調,以用於音樂分類。我們的示例達到了 83% 的準確率。您的任務是提高此準確率指標。
您可以隨意選擇 🤗 Hub 上您認為適合音訊分類的任何模型,並使用完全相同的資料集 marsyas/gtzan
來構建您自己的分類器。
您的目標是使用您的分類器在此資料集上達到 87% 的準確率。您可以選擇完全相同的模型,並調整訓練超引數,或者選擇一個完全不同的模型——這由您決定!
為了使您的結果計入證書,請不要忘記在訓練結束時按照本單元所示,使用以下 **kwargs
將您的模型推送到 Hub:
kwargs = {
"dataset_tags": "marsyas/gtzan",
"dataset": "GTZAN",
"model_name": f"{model_name}-finetuned-gtzan",
"finetuned_from": model_id,
"tasks": "audio-classification",
}
trainer.push_to_hub(**kwargs)
以下是您在進行此練習時可能會覺得有幫助的一些額外資源:
歡迎構建您的模型演示,並在 Discord 上分享!如果您有問題,請在 #audio-study-group 頻道中提出。
< > 在 GitHub 上更新