推理提供商文件
問答
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
問答
問答模型可以從給定文字中檢索問題的答案,這對於在文件中搜索答案很有用。
有關問答
任務的更多詳細資訊,請檢視其專用頁面!您將找到示例和相關材料。
推薦模型
- deepset/roberta-base-squad2:大多數問答領域的強大基線模型。
- distilbert/distilbert-base-cased-distilled-squad:一個小型但強大的問答模型。
- google/tapas-base-finetuned-wtq:一個可以從表格中回答問題的特殊模型。
在此處探索所有可用模型,找到最適合您的模型。
使用API
提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="hf-inference",
api_key=os.environ["HF_TOKEN"],
)
answer = client.question_answering(
question="What is my name?",
context="My name is Clara and I live in Berkeley.",
model="deepset/roberta-base-squad2",
)
API規範
請求
標頭 | ||
---|---|---|
授權 | 字串 | 認證頭格式為'Bearer: hf_****' ,其中hf_**** 是具有“推理提供商”許可權的個人使用者訪問令牌。您可以從您的設定頁面生成一個。 |
有效負載 | ||
---|---|---|
輸入* | 物件 | 一個(上下文,問題)對用於回答 |
上下文* | 字串 | 用於回答問題的上下文 |
問題* | 字串 | 要回答的問題 |
引數 | 物件 | |
top_k | 整數 | 返回的答案數量(將按可能性順序選擇)。請注意,如果上下文中沒有足夠的選項可用,我們返回的答案將少於topk。 |
doc_stride | 整數 | 如果上下文太長,無法與模型問題適配,它將分成幾個有重疊的塊。此引數控制重疊的大小。 |
max_answer_len | 整數 | 預測答案的最大長度(例如,只考慮長度更短的答案)。 |
max_seq_len | 整數 | 傳遞給模型的每個塊中,總句子(上下文+問題)的最大令牌長度。如果需要,上下文將分成幾個塊(使用docStride作為重疊)。 |
max_question_len | 整數 | 分詞後問題的最大長度。如果需要,它將被截斷。 |
handle_impossible_answer | 布林值 | 是否接受“不可能”作為答案。 |
align_to_words | 布林值 | 嘗試將答案與實際單詞對齊。提高以空格分隔的語言的質量。可能會損害非空格分隔語言(如日語或中文)的質量 |
響應
正文 | ||
---|---|---|
(陣列) | 物件陣列 | 輸出是一個物件陣列。 |
answer | 字串 | 問題的答案。 |
score | 數字 | 與答案相關的機率。 |
start | 整數 | 答案在輸入中的起始字元位置。 |
end | 整數 | 答案在輸入中的結束字元位置。 |