Fetch 整合人工智慧工具並使用 Hugging Face on AWS 節省 30% 開發時間

釋出於 2023 年 2 月 23 日
在 GitHub 上更新

如果您在使用 Hugging Face 和 AWS 方面需要支援,請點選此處聯絡我們——我們的團隊將與您聯絡討論您的需求!

執行摘要

消費者獎勵公司 Fetch 開發了約 15 種不同的人工智慧工具,以幫助其接收、路由、讀取、處理、分析和儲存使用者上傳的收據。該公司擁有超過 1800 萬的活躍月使用者,使用其購物獎勵應用程式。Fetch 希望重建其 AI 驅動的平臺,並在 Amazon Web Services (AWS) 和 AWS 合作伙伴 Hugging Face 的支援下,從使用第三方應用程式轉向開發自己的工具,以更好地洞察客戶。消費者掃描收據——或轉發電子收據——以獲得購買獎勵積分。商家可以向用戶提供特殊獎勵,例如購買特定產品可獲得額外積分。該公司現在每天可以更快地處理超過 1100 萬張收據,並獲得更好的資料。

Fetch 需要一種可擴充套件的方式來更快地訓練 AI

Fetch——前身為 Fetch Rewards——自成立以來,已發展到每月服務 1800 萬活躍使用者,他們每天掃描 1100 萬張收據以賺取獎勵積分。使用者只需拍攝收據照片,然後使用該公司的應用程式上傳即可。使用者還可以上傳電子收據。收據可獲得積分;如果收據來自 Fetch 的品牌合作伙伴,則可能符合獲得額外積分的促銷資格。這些積分可以兌換眾多合作伙伴的禮品卡。但掃描只是開始。一旦 Fetch 收到收據,它必須對其進行處理,提取資料和分析,並歸檔資料和收據。它一直在使用執行在 AWS 上的人工智慧 (AI) 工具來完成這項工作。

該公司曾使用第三方 AI 解決方案來處理收據,但發現未能獲得所需的資料洞察。Fetch 的業務合作伙伴希望瞭解客戶如何參與其促銷活動,而 Fetch 沒有所需的粒度來每天從數百萬張收據中提取和處理資料。“Fetch 曾使用第三方供應商作為其處理收據的‘大腦’,但僅靠掃描是不夠的,”Fetch 的計算機視覺科學家 Boris Kogan 說。“那個解決方案是一個黑箱,我們無法控制或洞察它的運作方式。我們只能接受結果。我們無法向我們的業務合作伙伴提供他們想要的資訊。”

Kogan 加入 Fetch 的任務是為公司構建全面的機器學習 (ML) 和 AI 專業知識,並使其能夠完全訪問其接收到的資料的所有方面。為此,他僱傭了一個工程師團隊來實現他的願景。“我們的所有基礎設施都執行在 AWS 上,我們也依賴 AWS 產品來訓練我們的模型,”Kogan 說。“當團隊開始著手建立自己的‘大腦’時,我們當然首先需要訓練我們的模型,我們就是在 AWS 上完成的。我們為該專案分配了 12 個月的時間,並提前 8 個月完成了,因為我們總是擁有所需的資源。”

Hugging Face 揭開黑箱

Fetch 團隊透過 AWS Marketplace 上的 Hugging Face 專家加速計劃,與 AWS 合作伙伴 Hugging Face 合作,幫助 Fetch 釋放新工具,以支援掃描上傳後的處理流程。Hugging Face 是開源人工智慧領域的領導者,併為企業使用人工智慧提供指導。包括 Fetch 在內的許多企業都使用 Hugging Face 的 Transformer 模型,這使得使用者可以在幾分鐘內訓練和部署開源 ML 模型。“Transformer 模型的便捷訪問始於 Hugging Face,他們在這方面做得非常出色,”Kogan 說。Fetch 和 Hugging Face 團隊合作識別和訓練最先進的文件 AI 模型,改進實體解析和語義搜尋。

在這種合作關係中,Hugging Face 扮演了顧問角色,向 Fetch 工程師傳授知識,幫助他們更有效地利用其資源。“Fetch 擁有一支優秀的團隊,”Hugging Face 的機器學習工程師 Yifeng Yin 說。“他們不需要我們來執行或構建專案。他們想學習如何使用 Hugging Face 來訓練他們正在構建的模型。我們向他們展示瞭如何使用這些資源,然後他們就付諸實踐了。” 在 Yifeng 的指導下,Fetch 成功將開發時間縮短了 30%。

由於它正在構建自己的 AI 和 ML 模型來取代第三方“大腦”,因此在切換之前需要確保一個能夠產生良好結果的穩健系統。Fetch 需要在不中斷每天數百萬張收據流的情況下完成這項工作。“在推出任何東西之前,我們構建了一個影子管道,”Fetch 的首席機器學習工程師 Sam Corzine 說。“我們獲取了所有資料,並在我們的新 ML 管道中重新處理它們。我們可以對所有內容進行審計。它以全量執行,重新處理所有 1100 萬張收據,並對它們進行分析,持續了一段時間,然後才將任何資料納入主資料欄位。黑箱仍然在執行,我們正在對照它檢查我們的結果。”該解決方案使用 Amazon SageMaker——它允許企業使用完全託管的基礎設施、工具和工作流來構建、訓練和部署適用於任何用例的 ML 模型。它還使用 AWS Inferentia 加速器,以最低成本為深度學習 (DL) 推理應用程式提供高效能。


Fetch 提升 AI 專業能力,將延遲降低 50%,並節省成本

Fetch 致力於發展內部機器學習和人工智慧能力,帶來了多項益處,包括一些成本節約,但更重要的是開發了一項更好地滿足客戶需求的服務。“對於任何應用程式,你都必須給客戶一個不斷回來的理由,”Corzine 說。“我們透過更快地處理上傳,提高了客戶響應速度,將處理延遲降低了 50%。如果你讓客戶等待太久,他們就會脫離。客戶使用 Fetch 的次數越多,我們和我們的合作伙伴就越能更好地瞭解什麼對他們來說是重要的。透過構建我們自己的模型,我們獲得了以前從未有過的詳細資訊。”

該公司現在可以在幾小時內訓練一個模型,而不是過去需要幾天或幾周。開發時間也減少了約 30%。雖然可能無法量化,但另一個主要好處是為 Fetch 奠定了更穩定的基礎。“依賴第三方黑箱給我們帶來了相當大的業務風險,”Corzine 說。“由於 Hugging Face 及其社群的存在,我們能夠利用這些工具並與該社群合作。歸根結底,我們現在掌握了自己的命運。”

現在 Fetch 已成為一家 AI 優先的公司,而不是一家使用第三方 AI“大腦”的公司,它正繼續改進對客戶的服務,並更好地瞭解客戶行為。“Hugging Face 和 AWS 為我們提供了所需的設施和資源,”Kogan 說。“Hugging Face 已經將 Transformer 模型普及化,這些模型以前幾乎不可能訓練,現在任何人都可以使用它們。沒有它們,我們不可能做到這一點。”

本文轉載自 2024 年 2 月 AWS 網站上釋出的原始帖子。

社群

註冊登入發表評論

© . This site is unofficial and not affiliated with Hugging Face, Inc.