Diffusers 文件

PNDMScheduler

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

PNDMScheduler

PNDMScheduler,也稱為擴散模型的偽數值方法,採用了更先進的 ODE 積分技術,如龍格-庫塔法和線性多步法。原始實現可在 crowsonkb/k-diffusion 找到。

PNDMScheduler

diffusers.PNDMScheduler

< >

( num_train_timesteps: int = 1000 beta_start: float = 0.0001 beta_end: float = 0.02 beta_schedule: str = 'linear' trained_betas: typing.Union[numpy.ndarray, typing.List[float], NoneType] = None skip_prk_steps: bool = False set_alpha_to_one: bool = False prediction_type: str = 'epsilon' timestep_spacing: str = 'leading' steps_offset: int = 0 )

引數

  • num_train_timesteps (int, 預設為 1000) — 用於訓練模型的擴散步數。
  • beta_start (float, 預設為 0.0001) — 推理的起始 beta 值。
  • beta_end (float, 預設為 0.02) — 最終 beta 值。
  • beta_schedule (str, 預設為 "linear") — beta 排程,將 beta 範圍對映到用於模型步進的 beta 序列。可選擇 linearscaled_linearsquaredcos_cap_v2
  • trained_betas (np.ndarray, 可選) — 直接向建構函式傳遞 beta 陣列,以繞過 beta_startbeta_end
  • skip_prk_steps (bool, 預設為 False) — 允許排程器跳過原始論文中定義為在 PLMS 步驟之前所需的龍格-庫塔步驟。
  • set_alpha_to_one (bool, 預設為 False) — 每個擴散步驟都使用該步驟和前一個步驟的 alpha 乘積值。對於最後一步,沒有前一個 alpha。當此選項為 True 時,前一個 alpha 乘積固定為 1,否則使用第 0 步的 alpha 值。
  • prediction_type (str, 預設為 epsilon, 可選) — 排程器函式的預測型別;可以是 epsilon (預測擴散過程的噪聲) 或 v_prediction (參見 Imagen Video 論文的第 2.4 節)。
  • timestep_spacing (str, 預設為 "leading") — 時間步的縮放方式。更多資訊請參考 Common Diffusion Noise Schedules and Sample Steps are Flawed 的表 2。
  • steps_offset (int, 預設為 0) — 新增到推理步數的偏移量,某些模型系列需要此引數。

PNDMScheduler 使用擴散模型的偽數值方法,例如龍格-庫塔法和線性多步法。

該模型繼承自 SchedulerMixinConfigMixin。有關庫為所有排程器(如載入和儲存)實現的通用方法,請參閱超類文件。

scale_model_input

< >

( sample: Tensor *args **kwargs ) torch.Tensor

引數

  • sample (torch.Tensor) — 輸入樣本。

返回

torch.Tensor

一個縮放後的輸入樣本。

確保與需要根據當前時間步縮放去噪模型輸入的排程器互換使用。

set_timesteps

< >

( num_inference_steps: int device: typing.Union[str, torch.device] = None )

引數

  • num_inference_steps (int) — 使用預訓練模型生成樣本時使用的擴散步數。
  • device (strtorch.device, 可選) — 時間步應移動到的裝置。如果為 None,則時間步不移動。

設定用於擴散鏈的離散時間步(在推理之前執行)。

步驟

< >

( model_output: Tensor timestep: int sample: Tensor return_dict: bool = True ) SchedulerOutputtuple

引數

  • model_output (torch.Tensor) — 來自學習擴散模型的直接輸出。
  • timestep (int) — 擴散鏈中的當前離散時間步。
  • sample (torch.Tensor) — 由擴散過程建立的當前樣本例項。
  • return_dict (bool) — 是否返回 SchedulerOutputtuple

返回

排程器輸出tuple

如果 `return_dict` 為 `True`,則返回 SchedulerOutput,否則返回一個元組,其中第一個元素是樣本張量。

透過反轉 SDE 預測上一個時間步的樣本。此函式根據內部變數 `counter` 傳播來自學習模型輸出(通常是預測噪聲)的擴散過程,並呼叫 step_prk()step_plms()

step_plms

< >

( model_output: Tensor timestep: int sample: Tensor return_dict: bool = True ) SchedulerOutputtuple

引數

  • model_output (torch.Tensor) — 來自學習擴散模型的直接輸出。
  • timestep (int) — 擴散鏈中的當前離散時間步。
  • sample (torch.Tensor) — 由擴散過程建立的當前樣本例項。
  • return_dict (bool) — 是否返回 SchedulerOutput 或元組。

返回

排程器輸出tuple

如果 `return_dict` 為 `True`,則返回 SchedulerOutput,否則返回一個元組,其中第一個元素是樣本張量。

透過反轉 SDE 預測上一個時間步的樣本。此函式使用線性多步法傳播樣本。它執行一次前向傳播多次以近似解。

step_prk

< >

( model_output: Tensor timestep: int sample: Tensor return_dict: bool = True ) SchedulerOutputtuple

引數

  • model_output (torch.Tensor) — 來自學習擴散模型的直接輸出。
  • timestep (int) — 擴散鏈中的當前離散時間步。
  • sample (torch.Tensor) — 由擴散過程建立的當前樣本例項。
  • return_dict (bool) — 是否返回 SchedulerOutput 或元組。

返回

排程器輸出tuple

如果 `return_dict` 為 `True`,則返回 SchedulerOutput,否則返回一個元組,其中第一個元素是樣本張量。

透過反轉SDE從上一個時間步預測樣本。此函式使用Runge-Kutta方法傳播樣本。它執行四次正向傳遞以逼近微分方程的解。

SchedulerOutput

class diffusers.schedulers.scheduling_utils.SchedulerOutput

< >

( prev_sample: Tensor )

引數

  • prev_sample (torch.Tensor,形狀為圖片(batch_size, num_channels, height, width)) — 計算出的前一個時間步的樣本(x_{t-1})prev_sample應作為去噪迴圈中的下一個模型輸入。

排程器 step 函式輸出的基類。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.