Optimum 文件
使用 Optimum 預訓練適用於 Intel Gaudi 的 Transformers 模型
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
使用 Optimum 預訓練適用於 Intel Gaudi 的 Transformers 模型
預訓練 Transformers 模型(如 BERT)與微調它一樣簡單。模型應該從配置中例項化,使用 .from_config
而不是從預訓練檢查點例項化,使用 .from_pretrained
。例如,GPT2 應該如下所示:
from transformers import AutoConfig, AutoModelForXXX
config = AutoConfig.from_pretrained("gpt2")
model = AutoModelForXXX.from_config(config)
其中 XXX 是要執行的任務,例如 ImageClassification
。
以下是一個工作示例,其中 BERT 用於掩碼語言建模的預訓練:
from datasets import load_dataset
from optimum.habana import GaudiTrainer, GaudiTrainingArguments
from transformers import AutoConfig, AutoModelForMaskedLM, AutoTokenizer, DataCollatorForLanguageModeling
# Load the training set (this one has already been preprocessed)
training_set = load_dataset("philschmid/processed_bert_dataset", split="train")
# Load the tokenizer
tokenizer = AutoTokenizer.from_pretrained("philschmid/bert-base-uncased-2022-habana")
# Instantiate an untrained model
config = AutoConfig.from_pretrained("bert-base-uncased")
model = AutoModelForMaskedLM.from_config(config)
model.resize_token_embeddings(len(tokenizer))
# The data collator will take care of randomly masking the tokens
data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer)
training_args = GaudiTrainingArguments(
output_dir="/tmp/bert-base-uncased-mlm",
num_train_epochs=1,
per_device_train_batch_size=8,
use_habana=True,
use_lazy_mode=True,
gaudi_config_name="Habana/bert-base-uncased",
)
# Initialize our Trainer
trainer = GaudiTrainer(
model=model,
args=training_args,
train_dataset=training_set,
tokenizer=tokenizer,
data_collator=data_collator,
)
trainer.train()
您可以在此部落格文章中檢視另一個預訓練示例。
< > 在 GitHub 上更新