音訊課程文件
用 Gradio 構建一個演示
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
用 Gradio 構建一個演示
在音訊分類的最後一部分中,我們將構建一個 Gradio 演示,以展示我們剛剛在 GTZAN 資料集上訓練的音樂分類模型。首先要做的是使用 pipeline()
類載入微調後的檢查點——這在預訓練模型部分已經很熟悉了。你可以將 model_id
更改為你在 Hugging Face Hub 上微調模型的名稱空間
from transformers import pipeline
model_id = "sanchit-gandhi/distilhubert-finetuned-gtzan"
pipe = pipeline("audio-classification", model=model_id)
其次,我們將定義一個函式,該函式接受音訊輸入的 filepath 並將其傳遞給管道。在這裡,管道會自動處理音訊檔案的載入、將其重新取樣到正確的取樣率,並使用模型進行推理。我們將模型的預測 preds
格式化為一個字典物件,以便在輸出中顯示
def classify_audio(filepath):
preds = pipe(filepath)
outputs = {}
for p in preds:
outputs[p["label"]] = p["score"]
return outputs
最後,我們使用剛剛定義的函式啟動 Gradio 演示
import gradio as gr
demo = gr.Interface(
fn=classify_audio, inputs=gr.Audio(type="filepath"), outputs=gr.outputs.Label()
)
demo.launch(debug=True)
這將啟動一個 Gradio 演示,類似於 Hugging Face Space 上執行的那個。
< > 在 GitHub 上更新