Hugging Face
模型
資料集
空間
社群
文件
企業版
定價
登入
註冊
Learn
深度強化學習課程文件
延伸閱讀
深度強化學習課程
🏡 檢視所有資源
Agents 課程
音訊課程
社群計算機視覺課程
深度強化學習課程
擴散模型課程
LLM 課程
MCP 課程
機器學習 3D 課程
遊戲機器學習課程
開源 AI 食譜
搜尋文件
英
第 0 單元:課程歡迎辭
單元1. 深度強化學習導論
獎勵單元1. Huggy深度強化學習導論
直播1. 課程如何運作,問答環節,以及與Huggy玩耍
單元2. Q-Learning導論
單元3. 雅達利遊戲深度Q-Learning
獎勵單元2. 使用Optuna進行自動超引數調優
單元4. PyTorch策略梯度
單元5. Unity ML-Agents導論
單元6. 機器人環境Actor-Critic方法
簡介
Reinforce 中的方差問題
優勢行動者-評論家 (A2C)
使用 Panda-Gym 進行機器人模擬的優勢行動者-評論家 (A2C) 🤖
測驗
總結
延伸閱讀
單元7. 多智慧體和AI對AI導論
單元8. 第1部分 近端策略最佳化 (PPO)
單元8. 第2部分 使用Doom的近端策略最佳化 (PPO)
獎勵單元3. 強化學習高階主題
獎勵單元5. 使用Godot RL Agents進行模仿學習
結業證書和祝賀
加入 Hugging Face 社群
並獲得增強的文件體驗
在模型、資料集和 Spaces 上進行協作
透過加速推理獲得更快的示例
切換文件主題
註冊
開始使用
延伸閱讀
強化學習中的偏差-方差權衡
如果您想深入探討深度強化學習中的方差和偏差權衡問題,可以查閱以下兩篇文章:
理解(深度)強化學習中的偏差/方差權衡
強化學習中的偏差-方差權衡
優勢函式
優勢函式,SpinningUp RL
行動者-評論家
Pieter Abbeel 的深度強化學習系列基礎,L3 策略梯度和優勢估計
A2C 論文:深度強化學習的非同步方法
<
>
在 GitHub 上更新
←
總結
簡介
→
延伸
閱讀
強化
學習中的
偏差-
方差
權衡
優勢
函式
行動者-
評論家
©
. This site is unofficial and not affiliated with Hugging Face, Inc.