智慧體課程文件
LlamaHub 介紹
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
LlamaHub 介紹
LlamaHub 是一個整合、代理和工具的註冊中心,您可以在 LlamaIndex 中使用它們。
我們將在本課程中使用各種整合,因此讓我們首先了解 LlamaHub 以及它如何幫助我們。
讓我們看看如何找到並安裝我們所需元件的依賴項。
安裝
LlamaIndex 的安裝說明可在 LlamaHub 上找到一個結構良好的概述。這可能一開始有點令人不知所措,但大多數安裝命令通常遵循易於記憶的格式
pip install llama-index-{component-type}-{framework-name}
讓我們嘗試使用 Hugging Face 推理 API 整合,為 LLM 和嵌入元件安裝依賴項。
pip install llama-index-llms-huggingface-api llama-index-embeddings-huggingface
使用
安裝後,我們可以看到使用模式。您會注意到匯入路徑與安裝命令一致!在下方,我們可以看到Hugging Face 推理 API 用於 LLM 元件的用法示例。
from llama_index.llms.huggingface_api import HuggingFaceInferenceAPI
import os
from dotenv import load_dotenv
# Load the .env file
load_dotenv()
# Retrieve HF_TOKEN from the environment variables
hf_token = os.getenv("HF_TOKEN")
llm = HuggingFaceInferenceAPI(
model_name="Qwen/Qwen2.5-Coder-32B-Instruct",
temperature=0.7,
max_tokens=100,
token=hf_token,
provider="auto"
)
response = llm.complete("Hello, how are you?")
print(response)
# I am good, how can I help you today?
太棒了,我們現在知道如何查詢、安裝和使用所需元件的整合。讓我們深入瞭解這些元件,看看如何使用它們來構建我們自己的代理。
< > 在 GitHub 上更新