左右互搏:GAN 在愛奇藝短視頻推薦冷啓動中的實踐

導語:

由於推薦系統冷啓動問題的存在,在視頻推薦中爲用戶推薦新視頻是一個極具挑戰的問題,新視頻推薦的效果直接影響推薦系統 “新陳代謝” 的穩定性和內容生態的健康發展。爲了解決該問題,本文主要介紹了愛奇藝隨刻推薦團隊在短視頻推薦業務上基於對抗神經網絡 (GAN) 的新視頻冷啓動的落地實踐方案。

背景

推薦系統的冷啓動問題是指當新物品或新用戶進入推薦系統後,由於沒有該用戶或該物品的歷史信息,推薦很難取得較好的效果的問題,這一問題很容易影響新用戶的使用體驗和用戶留存,是短視頻個性化推薦領域一個重要的問題。

要解決這個問題,我們首先要了解下,推薦系統的冷啓動由哪些部分組成。

推薦系統的冷啓動主要可以分爲用戶冷啓動、物品冷啓動和系統冷啓動三類。

以用戶 - 物品評分矩陣爲例,如下圖所示,在用戶 - 物品評分二維矩陣中,用戶和物品分別有冷熱之分,進而形成四象限,第一象限即爲物品冷啓動問題。

新視頻推薦在視頻推薦系統中是一種典型的物品冷啓動問題,對於愛奇藝在線視頻服務平臺,每時每刻會有大量新視頻生產和上線,尤其是以 UGC、PUGC 爲代表的短視頻,同時短視頻又具有快速消費和一次性消費的特徵,使得新視頻如何快速地準確地高效地分發給感興趣的用戶成爲一個持續的研究問題。

從新視頻的內容屬性看,新視頻相較於老視頻,視頻歷史信息缺失,沒有用戶視頻交互行爲數據,同時視頻 meta 屬性可能有缺失或者不準確,如何準確地描述和表達新視頻是第一性問題。

從新視頻分發路徑和週期看,新視頻分發會經歷少量試探性或驗證性分發,通過系統驗證後進入大量的自由分發階段,如何優化新視頻分發路徑、如何使新視頻高效觸達目標靶用戶是視頻和用戶如何建立連接的問題。

從視頻推薦系統整體看,新視頻推薦是推薦系統物料正常的 “新陳代謝”,由於短視頻具有快速消費的特徵,視頻推薦系統整體的物料更新速度較快,如何穩定地進行“推陳出新” 是推薦系統的“開源問題”;同時新視頻 meta 屬性缺失或者不準確、推薦分發試探和驗證會給推薦系統整體帶來一定的開銷和引入一些噪聲,如何準確高效進行新視頻推薦是推薦系統的效率問題。

從新視頻生產供給側看,新視頻推薦分發的效果,會對視頻生產創作進行前期直接的反饋,對視頻生產創作者的研判決策有一定的影響,對於內容生態的健康發展具有引導和指標性作用。

因此,新視頻推薦對推薦系統至關重要,如何有效地構建新視頻推薦,根據第一性原則分析,需要解決兩個基本問題,第一是如何表示新視頻,第二是如何對新視頻和用戶建立連接。

首先,如何表達新視頻成爲解決問題的出發點。傳統的解決方案,多數是基於新視頻屬性的內容表達,如新視頻的類別、標籤、創作者等;內容表達直觀,但是表達的特徵離散和稀疏,同時受噪聲影響波動較大。第二,如何使新視頻直接與用戶建立連接成爲解決問題的關鍵。傳統的基於屬性內容的表達,通過視頻屬性與用戶畫像屬性,進一步利用相似性或相關性計算建立新視頻和用戶之間的聯繫。以上基於分離的兩部框架,結構簡單表達能力不足,且分離框架信息傳遞會有熵減,存在信息損失和誤差疊加的問題。

因此,我們設計了基於對抗神經網絡的新視頻推薦的解決方案,基於對抗神經網絡生成器產生的 embedding 向量化的表達所蘊含的信息更加豐富,同時神經網絡擬合真實用戶特徵,完成新視頻和用戶間複雜的映射關係;對抗神經網絡生成的新視頻特徵不僅與給定的新視頻相關,而且和真實的用戶特徵相似,從而完成了新視頻表達、新視頻和用戶建立映射關係二者的聯合統一。

模型框架結構設計

在視頻推薦中爲用戶推薦新視頻是一個極具挑戰的問題,爲了解決該問題,本文提出了基於對抗神經網絡 (GAN) 的新視頻冷啓動方案,它通過獲取用戶和物品之間隱含的屬性級的交互信息,利用了視頻屬性的多個角度產生可能對該新視頻感興趣的用戶特徵,並基於屬性級的相似度將新視頻推薦給目標用戶。

GAN 模型的整體框架結構如下圖所示:

GAN 模型的網絡結構由生成器和判別器兩部分組成,生成器可以根據輸入的視頻的屬性生成一個可能喜歡該物品的用戶特徵向量;判別器可以根據輸入的用戶特徵 - 視頻特徵樣本對,判斷輸入的用戶特徵是真實的還是生成的,篩選出與真實用戶相似且與視頻相關的生成的用戶特徵。最後從用戶集中選出若干個與生成的用戶特徵向量最相似的用戶,並將該視頻推薦給這些用戶,完成新視頻冷啓動召回。

GAN 模型總的目標函數爲 min-max 優化表達式,其期望生成器最小化目標函數,同時判別器最大化相同的目標函數,具體計算公式爲:

其中 D * 表示判別器 D, ϕ表示判別器的參數_,P___ture___(u+|In)_ 表示判別器 D 的函數;G * 表示生成器 G,θ表示生成器的參數,_P__θ__(uc|In)_ 表示生成器 G 的函數,N 是訓練集中視頻的個數。

2.1 生成器

生成器採用了多個子生成器的結構,即生成器可以分爲兩個部分:

第一部分**:**

對於視頻 Item 候選集 I={I1,I2,I3,…,In},其中每個視頻 Ii 有 k 維屬性 A={ai1,ai2,…,aik},視頻的 k 維屬性中每個屬性分別被送到特定的生成器中,然後生成潛在用戶的特徵;

第二部分**:**

神經網絡 G 合併所有的生成的用戶特徵向量,通過多層全連接神經網絡,輸出一個最終的用戶特徵向量,該過程可以表示爲:

生成器通過最小化目標函數訓練得到最優的生成器,當在訓練生成器的時候判別器的參數是固定的,只需要優化跟生成器相關的項,通過以下公式計算:

一般來說,生成器比判別器要完成的任務更難,因爲生成器要進行概率密度的擬合,導致的影響 GAN 性能的一個問題就是模式坍塌,即生成高度相似的樣本。採用多個生成器單個判別器可以有效地緩解這個問題。

2.2 判別器

判別器採用單判別器的結構,對於判別器有兩種訓練樣本對:

一種是 (uc,Ic),即給定的視頻和生成的用戶特徵形成的樣本,其中 uc 是生成器 G 生成的用戶特徵,Ic 是視頻屬性的特徵;另一種是 (u+,Ic),即給定的視頻和真實用戶特徵形成的樣本,其中 u+ 是在真實行爲數據中對給定視頻感興趣的用戶,對於真實用戶的特徵由真實用戶畫像生成。

判別器的目的就是將 (uc,Ic)(u+,Ic) 這兩種樣本區分開來,其中 (u+,Ic) 是正例,其標籤是 1;(uc,Ic) 是負例,標籤是 0,通過以下公式計算:

判別器輸出的是用戶和視頻相關的概率,通過以下公式計算:

其中 ϕ是判別器的參數。

在判別器網絡訓練時通過最大化目標函數來得到最優的判別器,通過以下公式計算:

通過以上兩種樣本的進行訓練,可以使判別器篩選出生成器生成的用戶特徵不僅與真實的用戶特徵相似,而且和給定的視頻相關。

2.3 推薦生成

生成器生成了可能喜歡當前物品的用戶特徵之後,就可以把當前的新視頻推薦給與生成的用戶最相似的真實用戶了。本文用餘弦相似度計算的生成的用戶和用戶集中用戶之間的相似度,採用 ANN 優化了相似解求解性能。

線上效果

該方案已於愛奇藝主 APP 短視頻推薦系統中上線,在新視頻的分發和消費方面都有顯著正向的結果,對高熱產生效率以及系統曝光新鮮度等方面都有極大提升:

  1. 新視頻分發效果方面,曝光佔比明顯提升,視頻新鮮度相對提升 12.4%。

  2. 新視頻消費效果方面,CTR 相對提升 11.9%,人均播放時長相對提升 56.5%。

總結展望

以上是我們近期在愛奇藝短視頻推薦業務中新視頻推薦冷啓動召回的方案落地,實踐證明基於對抗神經網絡實現的新視頻冷啓動解決方案,對線上新視頻推薦的效果是有很大收益的。後續我們會從以下幾個方面持續優化:

  1. 優化多個生成器生成的屬性特徵融合,引入 attention 機制等方法,使得特徵表達更加合理。

  2. 採用多個判別器結構,進行不同粒度的 boosting 判別篩選,使得生成特徵更加多樣性,避免模型病態和蛻化。

參考文獻

[1] Sun,Changfeng, et al. "LARA: Attribute-to-feature-adversarial learningfornew-item recommendation." Proceedings of the 13th International Conferenceon Web Search and Data Mining. 2020.

[2] Goodfellow,Ian, et al. "Generative adversarial networks." Communications of theACM 63.11 (2020): 139-144.

[3] Arjovsky,Martin, Soumith Chintala, and Léon Bottou. "Wasserstein generativeadversarial networks." International conference on machine learning. PMLR,2017.

[4] Ebesu, Travis,and Yi Fang. "Neural semantic personalized ranking for item cold-startrecommendation." Information Retrieval Journal 20.2 (2017): 109-131.

[5] Gantner,Zeno, et al. "Learning attribute-to-feature mappings for cold-startrecommendations." 2010 IEEE International Conference on Data Mining. IEEE,2010.

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/Thdf6hAwktCfd7LJc_9Tmw