Transformers 文件
🤗 Transformers 筆記本
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
🤗 Transformers 筆記本
您可以在這裡找到 Hugging Face 提供的官方筆記本列表。
此外,我們還希望在這裡列出社群建立的有趣內容。如果您編寫了一些利用 🤗 Transformers 的筆記本,並希望在這裡列出,請提交一個 Pull Request,以便將其包含在社群筆記本中。
Hugging Face 的筆記本 🤗
文件筆記本
您可以將文件的任何頁面作為 Colab 中的筆記本開啟(這些頁面上直接有一個按鈕),但如果需要,它們也在這裡列出
筆記本 | 描述 | ||
---|---|---|---|
庫快速入門 | Transformers 中各種 API 的介紹 | ||
任務摘要 | 如何逐個任務執行 Transformers 庫中的模型 | ||
資料預處理 | 如何使用分詞器預處理資料 | ||
微調預訓練模型 | 如何使用 Trainer 微調預訓練模型 | ||
分詞器摘要 | 分詞器演算法之間的差異 | ||
多語言模型 | 如何使用庫中的多語言模型 |
PyTorch 示例
自然語言處理
筆記本 | 描述 | ||
---|---|---|---|
訓練您的分詞器 | 如何訓練和使用您自己的分詞器 | ||
訓練您的語言模型 | 如何輕鬆開始使用 transformers | ||
如何微調文字分類模型 | 演示如何預處理資料並在任何 GLUE 任務上微調預訓練模型。 | ||
如何微調語言模型 | 演示如何預處理資料並在因果或掩碼 LM 任務上微調預訓練模型。 | ||
如何微調標記分類模型 | 演示如何預處理資料並在標記分類任務(NER、PoS)上微調預訓練模型。 | ||
如何微調問答模型 | 演示如何預處理資料並在 SQUAD 上微調預訓練模型。 | ||
如何微調多項選擇模型 | 演示如何預處理資料並在 SWAG 上微調預訓練模型。 | ||
如何微調翻譯模型 | 演示如何預處理資料並在 WMT 上微調預訓練模型。 | ||
如何微調摘要模型 | 演示如何預處理資料並在 XSUM 上微調預訓練模型。 | ||
如何從頭開始訓練語言模型 | 突出顯示有效訓練 Transformer 模型自定義資料的所有步驟 | ||
如何生成文字 | 如何使用不同的解碼方法透過 transformers 生成語言 | ||
如何生成文字(帶約束) | 如何透過使用者提供的約束引導語言生成 | ||
Reformer | Reformer 如何突破語言建模的極限 |
計算機視覺
筆記本 | 描述 | ||
---|---|---|---|
如何微調影像分類模型 (Torchvision) | 演示如何使用 Torchvision 預處理資料,並微調任何預訓練的視覺模型進行影像分類 | ||
如何微調影像分類模型 (Albumentations) | 演示如何使用 Albumentations 預處理資料,並微調任何預訓練的視覺模型進行影像分類 | ||
如何微調影像分類模型 (Kornia) | 演示如何使用 Kornia 預處理資料,並微調任何預訓練的視覺模型進行影像分類 | ||
如何使用 OWL-ViT 執行零樣本目標檢測 | 演示如何對帶有文字查詢的影像執行零樣本目標檢測 | ||
如何微調影像字幕模型 | 演示如何使用自定義資料集微調 BLIP 進行影像字幕 | ||
如何使用 Transformers 構建影像相似性系統 | 演示如何構建影像相似性系統 | ||
如何微調 SegFormer 模型進行語義分割 | 演示如何預處理資料並微調預訓練的 SegFormer 模型進行語義分割 | ||
如何微調 VideoMAE 模型進行影片分類 | 演示如何預處理資料並微調預訓練的 VideoMAE 模型進行影片分類 |
音訊
筆記本 | 描述 | ||
---|---|---|---|
如何微調英語語音識別模型 | 演示如何預處理資料並在 TIMIT 上微調預訓練的語音模型 | ||
如何微調任何語言的語音識別模型 | 演示如何預處理資料並在 Common Voice 上微調多語言預訓練語音模型 | ||
如何微調音訊分類模型 | 演示如何預處理資料並在關鍵字識別上微調預訓練的語音模型 |
生物序列
筆記本 | 描述 | ||
---|---|---|---|
如何微調預訓練蛋白質模型 | 瞭解如何對蛋白質進行分詞並微調大型預訓練蛋白質“語言”模型 | ||
如何生成蛋白質摺疊 | 瞭解如何從蛋白質序列生成完整的蛋白質模型和 PDB 檔案 | ||
如何微調核苷酸 Transformer 模型 | 瞭解如何對 DNA 進行分詞並微調大型預訓練 DNA“語言”模型 | ||
使用 LoRA 微調核苷酸 Transformer 模型 | 以記憶體高效的方式訓練更大的 DNA 模型 |
其他模態
筆記本 | 描述 | ||
---|---|---|---|
機率時間序列預測 | 瞭解如何使用自定義資料集訓練時間序列 Transformer |
實用筆記本
筆記本 | 描述 | ||
---|---|---|---|
如何將模型匯出到 ONNX | 突出顯示如何透過 ONNX 匯出和執行推理工作負載 |
TensorFlow 示例
自然語言處理
筆記本 | 描述 | ||
---|---|---|---|
訓練您的分詞器 | 如何訓練和使用您自己的分詞器 | ||
訓練您的語言模型 | 如何輕鬆開始使用 transformers | ||
如何微調文字分類模型 | 演示如何預處理資料並在任何 GLUE 任務上微調預訓練模型。 | ||
如何微調語言模型 | 演示如何預處理資料並在因果或掩碼 LM 任務上微調預訓練模型。 | ||
如何微調標記分類模型 | 演示如何預處理資料並在標記分類任務(NER、PoS)上微調預訓練模型。 | ||
如何微調問答模型 | 演示如何預處理資料並在 SQUAD 上微調預訓練模型。 | ||
如何微調多項選擇模型 | 演示如何預處理資料並在 SWAG 上微調預訓練模型。 | ||
如何微調翻譯模型 | 演示如何預處理資料並在 WMT 上微調預訓練模型。 | ||
如何微調摘要模型 | 演示如何預處理資料並在 XSUM 上微調預訓練模型。 |
計算機視覺
筆記本 | 描述 | ||
---|---|---|---|
如何微調影像分類模型 | 演示如何預處理資料並微調任何預訓練的視覺模型進行影像分類 | ||
如何微調 SegFormer 模型進行語義分割 | 演示如何預處理資料並微調預訓練的 SegFormer 模型進行語義分割 |
生物序列
筆記本 | 描述 | ||
---|---|---|---|
如何微調預訓練蛋白質模型 | 瞭解如何對蛋白質進行分詞並微調大型預訓練蛋白質“語言”模型 |
實用筆記本
筆記本 | 描述 | ||
---|---|---|---|
如何在 TPU 上訓練 TF/Keras 模型 | 瞭解如何在 Google 的 TPU 硬體上高速訓練 |
Optimum 筆記本
🤗 Optimum 是 🤗 Transformers 的擴充套件,提供了一套效能最佳化工具,可最大限度地提高在目標硬體上訓練和執行模型的效率。
筆記本 | 描述 | ||
---|---|---|---|
如何使用 ONNX Runtime 對文字分類模型進行量化 | 演示如何使用 ONNX Runtime 對任何 GLUE 任務的模型應用靜態和動態量化。 | ||
如何使用 ONNX Runtime 對文字分類模型進行微調 | 演示如何使用 ONNX Runtime 預處理資料並在任何 GLUE 任務上微調模型。 | ||
如何使用 ONNX Runtime 對摘要模型進行微調 | 演示如何使用 ONNX Runtime 預處理資料並在 XSUM 上微調模型。 |
社群筆記本:
更多社群開發的筆記本可在此處獲取。
< > 在 GitHub 上更新