音訊課程文件

用 Gradio 構建一個演示

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

用 Gradio 構建一個演示

在音訊分類的最後一部分中,我們將構建一個 Gradio 演示,以展示我們剛剛在 GTZAN 資料集上訓練的音樂分類模型。首先要做的是使用 pipeline() 類載入微調後的檢查點——這在預訓練模型部分已經很熟悉了。你可以將 model_id 更改為你在 Hugging Face Hub 上微調模型的名稱空間

from transformers import pipeline

model_id = "sanchit-gandhi/distilhubert-finetuned-gtzan"
pipe = pipeline("audio-classification", model=model_id)

其次,我們將定義一個函式,該函式接受音訊輸入的 filepath 並將其傳遞給管道。在這裡,管道會自動處理音訊檔案的載入、將其重新取樣到正確的取樣率,並使用模型進行推理。我們將模型的預測 preds 格式化為一個字典物件,以便在輸出中顯示

def classify_audio(filepath):
    preds = pipe(filepath)
    outputs = {}
    for p in preds:
        outputs[p["label"]] = p["score"]
    return outputs

最後,我們使用剛剛定義的函式啟動 Gradio 演示

import gradio as gr

demo = gr.Interface(
    fn=classify_audio, inputs=gr.Audio(type="filepath"), outputs=gr.outputs.Label()
)
demo.launch(debug=True)

這將啟動一個 Gradio 演示,類似於 Hugging Face Space 上執行的那個。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.