深度強化學習課程文件

RLHF

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

RLHF

基於人類反饋的強化學習 (RLHF) 是一種將人類資料標籤整合到基於強化學習的最佳化過程中的方法。它的動機在於對人類偏好進行建模的挑戰

對於許多問題,即使你可以嘗試為某個理想寫出方程式,人類的偏好也各不相同。

根據測量資料更新模型是嘗試緩解這些固有人類機器學習問題的一種途徑

開始學習 RLHF

要開始學習 RLHF

  1. 閱讀這篇介紹文章:《圖解基於人類反饋的強化學習 (RLHF)》。

  2. 觀看我們幾周前錄製的直播,Nathan 在其中介紹了基於人類反饋的強化學習 (RLHF) 的基礎知識,以及這項技術如何用於實現 ChatGPT 等最先進的機器學習工具。大部分內容是對相互關聯的機器學習模型的概述。它涵蓋了自然語言處理和強化學習的基礎知識,以及 RLHF 如何用於大型語言模型。最後,我們討論了 RLHF 中的開放問題。

  1. 閱讀關於此主題的其他部落格,例如《封閉 API 與開源之爭仍在繼續:RLHF、ChatGPT、資料護城河》。如果您有更多喜歡的,請告訴我們!

延伸閱讀

注意:這部分內容複製自上面的《圖解 RLHF》部落格文章。以下是迄今為止關於 RLHF 最普遍的論文列表。該領域隨著深度強化學習(約2017年)的興起而普及,並已發展成為許多大型科技公司對大型語言模型應用進行更廣泛研究的領域。以下是一些早於專注於語言模型的 RLHF 論文:

以下是關於 RLHF 在語言模型中表現不斷增長的論文集合的概覽:

作者

本節由Nathan Lambert撰寫。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.