智慧體課程文件

LlamaHub 介紹

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

LlamaHub 介紹

LlamaHub 是一個整合、代理和工具的註冊中心,您可以在 LlamaIndex 中使用它們。

LlamaHub

我們將在本課程中使用各種整合,因此讓我們首先了解 LlamaHub 以及它如何幫助我們。

讓我們看看如何找到並安裝我們所需元件的依賴項。

安裝

LlamaIndex 的安裝說明可在 LlamaHub 上找到一個結構良好的概述。這可能一開始有點令人不知所措,但大多數安裝命令通常遵循易於記憶的格式

pip install llama-index-{component-type}-{framework-name}

讓我們嘗試使用 Hugging Face 推理 API 整合,為 LLM 和嵌入元件安裝依賴項。

pip install llama-index-llms-huggingface-api llama-index-embeddings-huggingface

使用

安裝後,我們可以看到使用模式。您會注意到匯入路徑與安裝命令一致!在下方,我們可以看到Hugging Face 推理 API 用於 LLM 元件的用法示例。

from llama_index.llms.huggingface_api import HuggingFaceInferenceAPI
import os
from dotenv import load_dotenv

# Load the .env file
load_dotenv()

# Retrieve HF_TOKEN from the environment variables
hf_token = os.getenv("HF_TOKEN")

llm = HuggingFaceInferenceAPI(
    model_name="Qwen/Qwen2.5-Coder-32B-Instruct",
    temperature=0.7,
    max_tokens=100,
    token=hf_token,
    provider="auto"
)

response = llm.complete("Hello, how are you?")
print(response)
# I am good, how can I help you today?

太棒了,我們現在知道如何查詢、安裝和使用所需元件的整合。讓我們深入瞭解這些元件,看看如何使用它們來構建我們自己的代理。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.