Transformers 文件

FLAN-T5

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

FLAN-T5

PyTorch TensorFlow Flax

概述

FLAN-T5 在論文 Scaling Instruction-Finetuned Language Models 中釋出 - 它是 T5 的增強版本,已在多種任務的混合資料上進行了微調。

使用者可以直接使用 FLAN-T5 的權重,無需對模型進行微調。

>>> from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

>>> model = AutoModelForSeq2SeqLM.from_pretrained("google/flan-t5-small")
>>> tokenizer = AutoTokenizer.from_pretrained("google/flan-t5-small")

>>> inputs = tokenizer("A step by step recipe to make bolognese pasta:", return_tensors="pt")
>>> outputs = model.generate(**inputs)
>>> print(tokenizer.batch_decode(outputs, skip_special_tokens=True))
['Pour a cup of bolognese into a large bowl and add the pasta']

FLAN-T5 包含了與 T5 1.1 版本相同的改進(關於模型改進的完整細節,請參見此處)。

Google 釋出了以下變體:

原始的檢查點可以在這裡找到。

請參閱 T5 的文件頁面,獲取所有 API 參考、程式碼示例和筆記本。有關 FLAN-T5 訓練和評估的更多詳情,請參閱模型卡。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.