Diffusers 文件

CogVideoXDPMScheduler

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

CogVideoXDPMScheduler

CogVideoXDPMScheduler 基於 DPM-Solver: A Fast ODE Solver for Diffusion Probabilistic Model Sampling in Around 10 StepsDPM-Solver++: Fast Solver for Guided Sampling of Diffusion Probabilistic Models,專門用於 CogVideoX 模型。

CogVideoXDPMScheduler

class diffusers.CogVideoXDPMScheduler

< >

( num_train_timesteps: int = 1000 beta_start: float = 0.00085 beta_end: float = 0.012 beta_schedule: str = 'scaled_linear' trained_betas: typing.Union[numpy.ndarray, typing.List[float], NoneType] = None clip_sample: bool = True set_alpha_to_one: bool = True steps_offset: int = 0 prediction_type: str = 'epsilon' clip_sample_range: float = 1.0 sample_max_value: float = 1.0 timestep_spacing: str = 'leading' rescale_betas_zero_snr: bool = False snr_shift_scale: float = 3.0 )

引數

  • num_train_timesteps (int, 預設為 1000) — 訓練模型的擴散步數。
  • beta_start (float, 預設為 0.0001) — 推理的起始 beta 值。
  • beta_end (float, 預設為 0.02) — 最終 beta 值。
  • beta_schedule (str, 預設為 "linear") — Beta 排程器,將 beta 範圍對映到模型步進的一系列 beta 值。可選:linearscaled_linearsquaredcos_cap_v2
  • trained_betas (np.ndarray, 可選) — 直接向建構函式傳遞 beta 陣列,以繞過 beta_startbeta_end
  • clip_sample (bool, 預設為 True) — 裁剪預測樣本以提高數值穩定性。
  • clip_sample_range (float, 預設為 1.0) — 樣本裁剪的最大幅度。僅在 clip_sample=True 時有效。
  • set_alpha_to_one (bool, 預設為 True) — 每個擴散步驟使用該步驟和前一步的 alpha 乘積值。最後一步沒有前一個 alpha。當此選項為 True 時,前一個 alpha 乘積固定為 1,否則它使用步驟 0 的 alpha 值。
  • steps_offset (int, 預設為 0) — 新增到推理步驟的偏移量,某些模型系列需要。
  • prediction_type (str, 預設為 epsilon, 可選) — 排程器函式的預測型別;可以是 epsilon(預測擴散過程的噪聲)、sample(直接預測噪聲樣本)或 v_prediction(參見 Imagen Video 論文的 2.4 節)。
  • thresholding (bool, 預設為 False) — 是否使用“動態閾值”方法。這不適用於潛在空間擴散模型,如 Stable Diffusion。
  • dynamic_thresholding_ratio (float, 預設為 0.995) — 動態閾值方法的比率。僅在 thresholding=True 時有效。
  • sample_max_value (float, 預設為 1.0) — 動態閾值的閾值。僅在 thresholding=True 時有效。
  • timestep_spacing (str, 預設為 "leading") — 時間步長的縮放方式。更多資訊請參閱 Common Diffusion Noise Schedules and Sample Steps are Flawed 的表 2。
  • rescale_betas_zero_snr (bool, 預設為 False) — 是否重新縮放 beta 以使終端信噪比為零。這使得模型能夠生成非常亮和非常暗的樣本,而不是將其限制在中等亮度的樣本。與 --offset_noise 有鬆散關係。

DDIMScheduler 擴充套件了去噪擴散機率模型(DDPM)中引入的去噪過程,並加入了非馬爾可夫引導。

此模型繼承自 SchedulerMixinConfigMixin。有關庫為所有排程器實現的通用方法(例如載入和儲存)的詳細資訊,請查閱超類文件。

scale_model_input

< >

( sample: Tensor timestep: typing.Optional[int] = None ) torch.Tensor

引數

  • sample (torch.Tensor) — 輸入樣本。
  • timestep (int, 可選) — 擴散鏈中的當前時間步。

返回

torch.Tensor

一個縮放後的輸入樣本。

確保與需要根據當前時間步縮放去噪模型輸入的排程器互換使用。

set_timesteps

< >

( num_inference_steps: int device: typing.Union[str, torch.device] = None )

引數

  • num_inference_steps (int) — 使用預訓練模型生成樣本時使用的擴散步數。

設定用於擴散鏈的離散時間步(在推理之前執行)。

步驟

< >

( model_output: Tensor old_pred_original_sample: Tensor timestep: int timestep_back: int sample: Tensor eta: float = 0.0 use_clipped_model_output: bool = False generator = None variance_noise: typing.Optional[torch.Tensor] = None return_dict: bool = False ) DDIMSchedulerOutputtuple

引數

  • model_output (torch.Tensor) — 從學習擴散模型直接輸出。
  • timestep (float) — 擴散鏈中的當前離散時間步。
  • sample (torch.Tensor) — 擴散過程建立的當前樣本例項。
  • eta (float) — 擴散步驟中新增噪聲的權重。
  • use_clipped_model_output (bool, 預設為 False) — 如果為 True,則從裁剪後的預測原始樣本計算“校正”後的 model_output。這是必需的,因為當 self.config.clip_sampleTrue 時,預測的原始樣本會被裁剪到 [-1, 1]。如果沒有發生裁剪,“校正”後的 model_output 將與作為輸入提供的模型輸出一致,並且 use_clipped_model_output 不會產生任何影響。
  • generator (torch.Generator, 可選) — 隨機數生成器。
  • variance_noise (torch.Tensor) — 透過直接提供方差本身的噪聲來替代使用 generator 生成噪聲。適用於 CycleDiffusion 等方法。
  • return_dict (bool, 可選, 預設為 True) — 是否返回 DDIMSchedulerOutputtuple

返回

DDIMSchedulerOutputtuple

如果 return_dict 為 True,則返回 DDIMSchedulerOutput,否則返回一個元組,其中第一個元素是樣本張量。

透過逆轉 SDE 預測前一個時間步的樣本。此函式從學習到的模型輸出(通常是預測的噪聲)傳播擴散過程。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.