AWS Trainium & Inferentia 文件
用於 Neuron 匯出的配置類
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
用於 Neuron 匯出的配置類
將 PyTorch 模型匯出為 Neuron 編譯模型需要指定
- 輸入名稱。
- 輸出名稱。
- 用於追蹤模型的虛擬輸入。Neuron 編譯器需要它來記錄計算圖並將其轉換為 TorchScript 模組。
- 用於控制硬體效率(延遲、吞吐量)和準確性之間權衡的編譯引數。
根據模型和任務的選擇,我們使用配置類來表示上述資料。每個配置類都與特定的模型架構相關聯,並遵循命名約定 ArchitectureNameNeuronConfig
。例如,指定 BERT 模型 Neuron 匯出的配置是 BertNeuronConfig
。
由於許多架構的 Neuron 配置具有相似的屬性,🤗 Optimum 採用了三級類層次結構
- 抽象和通用的基類。這些類處理所有基本功能,同時與模態(文字、影像、音訊等)無關。
- 中端類。這些類瞭解模態,但根據它們支援的輸入,同一模態可以存在多箇中端類。它們指定應為虛擬輸入使用哪個輸入生成器,但仍然與模型無關。
- 特定於模型的類,如上面提到的
BertNeuronConfig
。這些是實際用於匯出模型的類。
支援的架構
架構 | 任務 |
---|---|
ALBERT | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
BERT | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
CamemBERT | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
ConvBERT | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
DeBERTa (僅限 INF2) | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
DeBERTa-v2 (僅限 INF2) | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
DistilBERT | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
ELECTRA | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
FlauBERT | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
GPT2 | 文字生成 |
MobileBERT | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
MPNet | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
RoBERTa | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
RoFormer | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
XLM | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
XLM-RoBERTa | 特徵提取、掩碼填充、多項選擇、問答、文字分類、詞元分類 |
更多關於檢查支援任務的詳細資訊,請點選此處。
更多架構即將推出,敬請期待!🚀