Transformers 文件

社群

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

社群

本頁面彙總了由社群開發的 🤗 Transformers 相關資源。

社群資源:

資源 描述 作者
Hugging Face Transformers 詞彙表抽認卡 一套基於 Transformers 文件詞彙表 的抽認卡,它被整理成可以使用 Anki (一個開源、跨平臺的應用程式,專門用於長期知識記憶)輕鬆學習/複習的形式。請觀看此 關於如何使用抽認卡的介紹影片 Darigov 研究

社群 Notebook:

筆記本 描述 作者
微調預訓練 Transformer 以生成歌詞 如何透過微調 GPT-2 模型來生成您喜愛的藝術家的風格歌詞 Aleksey Korshuk Open In Colab
在 Tensorflow 2 中訓練 T5 如何使用 Tensorflow 2 訓練 T5 進行任何任務。此 Notebook 演示了使用 SQUAD 在 Tensorflow 2 中實現的問答任務 Muhammad Harris Open In Colab
在 TPU 上訓練 T5 如何使用 Transformers 和 Nlp 在 SQUAD 上訓練 T5 Suraj Patil Open In Colab
微調 T5 進行分類和多項選擇 如何使用 PyTorch Lightning 以文字到文字格式微調 T5 進行分類和多項選擇任務 Suraj Patil Open In Colab
在新資料集和語言上微調 DialoGPT 如何在新的資料集上微調 DialoGPT 模型以用於開放式對話聊天機器人 Nathan Cooper Open In Colab
使用 Reformer 進行長序列建模 如何使用 Reformer 訓練長達 500,000 個標記的序列 Patrick von Platen Open In Colab
微調 BART 進行摘要 如何使用 blurr 和 fastai 微調 BART 進行摘要 Wayde Gilliam Open In Colab
微調預訓練 Transformer 以生成任何人的推文 如何透過微調 GPT-2 模型來生成您喜愛的 Twitter 帳戶風格的推文 Boris Dayma Open In Colab
使用 Weights & Biases 最佳化 🤗 Hugging Face 模型 展示 W&B 與 Hugging Face 整合的完整教程 Boris Dayma Open In Colab
預訓練 Longformer 如何構建現有預訓練模型的“長”版本 Iz Beltagy Open In Colab
微調 Longformer 進行問答 如何微調 Longformer 模型以用於問答任務 Suraj Patil Open In Colab
使用 🤗nlp 評估模型 如何使用 nlp 在 TriviaQA 上評估 Longformer Patrick von Platen Open In Colab
微調 T5 進行情感跨度提取 如何使用 PyTorch Lightning 以文字到文字格式微調 T5 進行情感跨度提取 Lorenzo Ampil Open In Colab
微調 DistilBert 進行多分類 如何使用 PyTorch 微調 DistilBert 進行多分類 Abhishek Kumar Mishra Open In Colab
微調 BERT 進行多標籤分類 如何使用 PyTorch 微調 BERT 進行多標籤分類 Abhishek Kumar Mishra Open In Colab
微調 T5 進行摘要 如何在 PyTorch 中微調 T5 進行摘要並使用 WandB 跟蹤實驗 Abhishek Kumar Mishra Open In Colab
使用動態填充/分桶加速 Transformer 中的微調 如何透過使用動態填充/分桶將微調速度提高 2 倍 Michael Benesty Open In Colab
預訓練 Reformer 進行掩碼語言建模 如何訓練一個帶有雙向自注意力層的 Reformer 模型 Patrick von Platen Open In Colab
擴充套件和微調 Sci-BERT 如何增加 AllenAI 預訓練的 SciBERT 模型在 CORD 資料集上的詞彙量並將其流水線化。 Tanmay Thakur Open In Colab
使用 Trainer API 微調 BlenderBotSmall 進行摘要 如何使用 Trainer API 在自定義資料集上微調 BlenderBotSmall 進行摘要。 Tanmay Thakur Open In Colab
微調 Electra 並使用 Integrated Gradients 進行解釋 如何微調 Electra 進行情感分析並使用 Captum Integrated Gradients 解釋預測 Eliza Szczechla Open In Colab
使用 Trainer 類微調非英語 GPT-2 模型 如何使用 Trainer 類微調非英語 GPT-2 模型 Philipp Schmid Open In Colab
微調 DistilBERT 模型進行多標籤分類任務 如何微調 DistilBERT 模型進行多標籤分類任務 Dhaval Taunk Open In Colab
微調 ALBERT 進行句子對分類 如何微調 ALBERT 模型或另一個基於 BERT 的模型以進行句子對分類任務 Nadir El Manouzi Open In Colab
微調 Roberta 進行情感分析 如何微調 Roberta 模型進行情感分析 Dhaval Taunk Open In Colab
評估問題生成模型 您的 seq2seq Transformer 模型生成的問題答案有多準確? Pascal Zoleko Open In Colab
使用 DistilBERT 和 Tensorflow 對文字進行分類 如何在 TensorFlow 中微調 DistilBERT 進行文字分類 Peter Bayerle Open In Colab
利用 BERT 在 CNN/Dailymail 上進行編碼器-解碼器摘要 如何使用 google-bert/bert-base-uncased 檢查點預熱 EncoderDecoderModel,以在 CNN/Dailymail 上進行摘要 Patrick von Platen Open In Colab
利用 RoBERTa 在 BBC XSum 上進行編碼器-解碼器摘要 如何使用 FacebookAI/roberta-base 檢查點預熱共享的 EncoderDecoderModel,以在 BBC/XSum 上進行摘要 Patrick von Platen Open In Colab
在順序問答 (SQA) 上微調 TAPAS 如何在順序問答 (SQA) 資料集上使用 tapas-base 檢查點微調 TapasForQuestionAnswering Niels Rogge Open In Colab
在表格事實核查 (TabFact) 上評估 TAPAS 如何結合使用 🤗 資料集和 🤗 Transformer 庫,評估使用 tapas-base-finetuned-tabfact 檢查點微調的 TapasForSequenceClassification Niels Rogge Open In Colab
微調 mBART 進行翻譯 如何使用 Seq2SeqTrainer 微調 mBART 進行印地語到英語的翻譯 Vasudev Gupta Open In Colab
在 FUNSD(表單理解資料集)上微調 LayoutLM 如何在 FUNSD 資料集上微調 LayoutLMForTokenClassification,以從掃描文件中提取資訊 Niels Rogge Open In Colab
微調 DistilGPT2 並生成文字 如何微調 DistilGPT2 並生成文字 Aakash Tripathi Open In Colab
微調 LED,最多可處理 8K 標記 如何在 pubmed 上微調 LED 以進行長距離摘要 Patrick von Platen Open In Colab
在 Arxiv 上評估 LED 如何有效評估 LED 在長距離摘要方面的表現 Patrick von Platen Open In Colab
在 RVL-CDIP(文件影像分類資料集)上微調 LayoutLM 如何在 RVL-CDIP 資料集上微調 LayoutLMForSequenceClassification,以進行掃描文件分類 Niels Rogge Open In Colab
Wav2Vec2 CTC 解碼與 GPT2 調整 如何使用語言模型調整解碼 CTC 序列 Eric Lam Open In Colab
使用 Trainer 類微調 BART 以兩種語言進行摘要 如何使用 Trainer 類微調 BART 以兩種語言進行摘要 Eliza Szczechla Open In Colab
在 Trivia QA 上評估 Big Bird 如何在 Trivia QA 上評估 BigBird 在長文件問答方面的表現 Patrick von Platen Open In Colab
使用 Wav2Vec2 建立影片字幕 如何透過 Wav2Vec 聽寫音訊從任何影片建立 YouTube 字幕 Niklas Muennighoff Open In Colab
使用 PyTorch Lightning 在 CIFAR-10 上微調 Vision Transformer 如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 在 CIFAR-10 上微調 Vision Transformer (ViT) Niels Rogge Open In Colab
使用 🤗 Trainer 在 CIFAR-10 上微調 Vision Transformer 如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 在 CIFAR-10 上微調 Vision Transformer (ViT) Niels Rogge Open In Colab
在 Open Entity(一個實體型別資料集)上評估 LUKE 如何在 Open Entity 資料集上評估 LukeForEntityClassification Ikuya Yamada Open In Colab
在 TACRED(一個關係提取資料集)上評估 LUKE 如何在 TACRED 資料集上評估 LukeForEntityPairClassification Ikuya Yamada Open In Colab
在 CoNLL-2003(一個重要的 NER 基準測試)上評估 LUKE 如何在 CoNLL-2003 資料集上評估 LukeForEntitySpanClassification Ikuya Yamada Open In Colab
在 PubMed 資料集上評估 BigBird-Pegasus 如何在 PubMed 資料集上評估 BigBirdPegasusForConditionalGeneration Vasudev Gupta Open In Colab
使用 Wav2Vec2 進行語音情感分類 如何利用預訓練的 Wav2Vec2 模型在 MEGA 資料集上進行情感分類 Mehrdad Farahani Open In Colab
使用 DETR 檢測影像中的物體 如何使用訓練好的 DetrForObjectDetection 模型檢測影像中的物體並可視化注意力 Niels Rogge Open In Colab
在自定義物體檢測資料集上微調 DETR 如何在自定義物體檢測資料集上微調 DetrForObjectDetection Niels Rogge Open In Colab
微調 T5 進行命名實體識別 如何微調 T5 以進行命名實體識別任務 Ogundepo Odunayo Open In Colab
使用 QLoRA 與 MLflow 和 PEFT 微調開源 LLM 如何使用 QLoRAPEFT 以記憶體高效的方式微調 LLM,同時使用 MLflow 管理實驗跟蹤 Yuki Watanabe Open In Colab
< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.