Transformers 文件
社群
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
社群
本頁面彙總了由社群開發的 🤗 Transformers 相關資源。
社群資源:
資源 | 描述 | 作者 |
---|---|---|
Hugging Face Transformers 詞彙表抽認卡 | 一套基於 Transformers 文件詞彙表 的抽認卡,它被整理成可以使用 Anki (一個開源、跨平臺的應用程式,專門用於長期知識記憶)輕鬆學習/複習的形式。請觀看此 關於如何使用抽認卡的介紹影片。 | Darigov 研究 |
社群 Notebook:
筆記本 | 描述 | 作者 | |
---|---|---|---|
微調預訓練 Transformer 以生成歌詞 | 如何透過微調 GPT-2 模型來生成您喜愛的藝術家的風格歌詞 | Aleksey Korshuk | |
在 Tensorflow 2 中訓練 T5 | 如何使用 Tensorflow 2 訓練 T5 進行任何任務。此 Notebook 演示了使用 SQUAD 在 Tensorflow 2 中實現的問答任務 | Muhammad Harris | |
在 TPU 上訓練 T5 | 如何使用 Transformers 和 Nlp 在 SQUAD 上訓練 T5 | Suraj Patil | |
微調 T5 進行分類和多項選擇 | 如何使用 PyTorch Lightning 以文字到文字格式微調 T5 進行分類和多項選擇任務 | Suraj Patil | |
在新資料集和語言上微調 DialoGPT | 如何在新的資料集上微調 DialoGPT 模型以用於開放式對話聊天機器人 | Nathan Cooper | |
使用 Reformer 進行長序列建模 | 如何使用 Reformer 訓練長達 500,000 個標記的序列 | Patrick von Platen | |
微調 BART 進行摘要 | 如何使用 blurr 和 fastai 微調 BART 進行摘要 | Wayde Gilliam | |
微調預訓練 Transformer 以生成任何人的推文 | 如何透過微調 GPT-2 模型來生成您喜愛的 Twitter 帳戶風格的推文 | Boris Dayma | |
使用 Weights & Biases 最佳化 🤗 Hugging Face 模型 | 展示 W&B 與 Hugging Face 整合的完整教程 | Boris Dayma | |
預訓練 Longformer | 如何構建現有預訓練模型的“長”版本 | Iz Beltagy | |
微調 Longformer 進行問答 | 如何微調 Longformer 模型以用於問答任務 | Suraj Patil | |
使用 🤗nlp 評估模型 | 如何使用 nlp 在 TriviaQA 上評估 Longformer | Patrick von Platen | |
微調 T5 進行情感跨度提取 | 如何使用 PyTorch Lightning 以文字到文字格式微調 T5 進行情感跨度提取 | Lorenzo Ampil | |
微調 DistilBert 進行多分類 | 如何使用 PyTorch 微調 DistilBert 進行多分類 | Abhishek Kumar Mishra | |
微調 BERT 進行多標籤分類 | 如何使用 PyTorch 微調 BERT 進行多標籤分類 | Abhishek Kumar Mishra | |
微調 T5 進行摘要 | 如何在 PyTorch 中微調 T5 進行摘要並使用 WandB 跟蹤實驗 | Abhishek Kumar Mishra | |
使用動態填充/分桶加速 Transformer 中的微調 | 如何透過使用動態填充/分桶將微調速度提高 2 倍 | Michael Benesty | |
預訓練 Reformer 進行掩碼語言建模 | 如何訓練一個帶有雙向自注意力層的 Reformer 模型 | Patrick von Platen | |
擴充套件和微調 Sci-BERT | 如何增加 AllenAI 預訓練的 SciBERT 模型在 CORD 資料集上的詞彙量並將其流水線化。 | Tanmay Thakur | |
使用 Trainer API 微調 BlenderBotSmall 進行摘要 | 如何使用 Trainer API 在自定義資料集上微調 BlenderBotSmall 進行摘要。 | Tanmay Thakur | |
微調 Electra 並使用 Integrated Gradients 進行解釋 | 如何微調 Electra 進行情感分析並使用 Captum Integrated Gradients 解釋預測 | Eliza Szczechla | |
使用 Trainer 類微調非英語 GPT-2 模型 | 如何使用 Trainer 類微調非英語 GPT-2 模型 | Philipp Schmid | |
微調 DistilBERT 模型進行多標籤分類任務 | 如何微調 DistilBERT 模型進行多標籤分類任務 | Dhaval Taunk | |
微調 ALBERT 進行句子對分類 | 如何微調 ALBERT 模型或另一個基於 BERT 的模型以進行句子對分類任務 | Nadir El Manouzi | |
微調 Roberta 進行情感分析 | 如何微調 Roberta 模型進行情感分析 | Dhaval Taunk | |
評估問題生成模型 | 您的 seq2seq Transformer 模型生成的問題答案有多準確? | Pascal Zoleko | |
使用 DistilBERT 和 Tensorflow 對文字進行分類 | 如何在 TensorFlow 中微調 DistilBERT 進行文字分類 | Peter Bayerle | |
利用 BERT 在 CNN/Dailymail 上進行編碼器-解碼器摘要 | 如何使用 google-bert/bert-base-uncased 檢查點預熱 EncoderDecoderModel,以在 CNN/Dailymail 上進行摘要 | Patrick von Platen | |
利用 RoBERTa 在 BBC XSum 上進行編碼器-解碼器摘要 | 如何使用 FacebookAI/roberta-base 檢查點預熱共享的 EncoderDecoderModel,以在 BBC/XSum 上進行摘要 | Patrick von Platen | |
在順序問答 (SQA) 上微調 TAPAS | 如何在順序問答 (SQA) 資料集上使用 tapas-base 檢查點微調 TapasForQuestionAnswering | Niels Rogge | |
在表格事實核查 (TabFact) 上評估 TAPAS | 如何結合使用 🤗 資料集和 🤗 Transformer 庫,評估使用 tapas-base-finetuned-tabfact 檢查點微調的 TapasForSequenceClassification | Niels Rogge | |
微調 mBART 進行翻譯 | 如何使用 Seq2SeqTrainer 微調 mBART 進行印地語到英語的翻譯 | Vasudev Gupta | |
在 FUNSD(表單理解資料集)上微調 LayoutLM | 如何在 FUNSD 資料集上微調 LayoutLMForTokenClassification,以從掃描文件中提取資訊 | Niels Rogge | |
微調 DistilGPT2 並生成文字 | 如何微調 DistilGPT2 並生成文字 | Aakash Tripathi | |
微調 LED,最多可處理 8K 標記 | 如何在 pubmed 上微調 LED 以進行長距離摘要 | Patrick von Platen | |
在 Arxiv 上評估 LED | 如何有效評估 LED 在長距離摘要方面的表現 | Patrick von Platen | |
在 RVL-CDIP(文件影像分類資料集)上微調 LayoutLM | 如何在 RVL-CDIP 資料集上微調 LayoutLMForSequenceClassification,以進行掃描文件分類 | Niels Rogge | |
Wav2Vec2 CTC 解碼與 GPT2 調整 | 如何使用語言模型調整解碼 CTC 序列 | Eric Lam | |
使用 Trainer 類微調 BART 以兩種語言進行摘要 | 如何使用 Trainer 類微調 BART 以兩種語言進行摘要 | Eliza Szczechla | |
在 Trivia QA 上評估 Big Bird | 如何在 Trivia QA 上評估 BigBird 在長文件問答方面的表現 | Patrick von Platen | |
使用 Wav2Vec2 建立影片字幕 | 如何透過 Wav2Vec 聽寫音訊從任何影片建立 YouTube 字幕 | Niklas Muennighoff | |
使用 PyTorch Lightning 在 CIFAR-10 上微調 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 在 CIFAR-10 上微調 Vision Transformer (ViT) | Niels Rogge | |
使用 🤗 Trainer 在 CIFAR-10 上微調 Vision Transformer | 如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 在 CIFAR-10 上微調 Vision Transformer (ViT) | Niels Rogge | |
在 Open Entity(一個實體型別資料集)上評估 LUKE | 如何在 Open Entity 資料集上評估 LukeForEntityClassification | Ikuya Yamada | |
在 TACRED(一個關係提取資料集)上評估 LUKE | 如何在 TACRED 資料集上評估 LukeForEntityPairClassification | Ikuya Yamada | |
在 CoNLL-2003(一個重要的 NER 基準測試)上評估 LUKE | 如何在 CoNLL-2003 資料集上評估 LukeForEntitySpanClassification | Ikuya Yamada | |
在 PubMed 資料集上評估 BigBird-Pegasus | 如何在 PubMed 資料集上評估 BigBirdPegasusForConditionalGeneration | Vasudev Gupta | |
使用 Wav2Vec2 進行語音情感分類 | 如何利用預訓練的 Wav2Vec2 模型在 MEGA 資料集上進行情感分類 | Mehrdad Farahani | |
使用 DETR 檢測影像中的物體 | 如何使用訓練好的 DetrForObjectDetection 模型檢測影像中的物體並可視化注意力 | Niels Rogge | |
在自定義物體檢測資料集上微調 DETR | 如何在自定義物體檢測資料集上微調 DetrForObjectDetection | Niels Rogge | |
微調 T5 進行命名實體識別 | 如何微調 T5 以進行命名實體識別任務 | Ogundepo Odunayo | |
使用 QLoRA 與 MLflow 和 PEFT 微調開源 LLM | 如何使用 QLoRA 和 PEFT 以記憶體高效的方式微調 LLM,同時使用 MLflow 管理實驗跟蹤 | Yuki Watanabe |