萬字長文:AIGC 技術與應用全解析(上)

從簡單的文本、圖像生成到複雜的多模態生成,從基礎的變分自編碼(VAE)模型、生成對抗網絡(GAN)模型,到令 AIGC 發生質變的預訓練大模型,人人喊打的 “人工智障” 成功進化爲廣受追捧的“辦公神器”,屬於 AIGC 的時代已經降臨。

身處 AIGC 的浪潮之中,作爲雲原生創新基礎設施供應商,「DaoCloud 道客」結合自身技術實力和行業需求,打造 “整合異構算力,優化 GPU 性能,最大化算力效用並降低算力開銷” DaoCloud AI 算力平臺,爲時代 “弄潮兒” 們提供動力強勁的 AICG 的“發動機”。 同時,還推出了內置「DaoCloud AIGC Knowledge 知識庫平臺」的 DaoCloud 知識庫一體機,採用軟硬一體化設計,開箱即用,能夠提供高效、準確的知識檢索和問答服務,大幅降低企業落地大模型的門檻,適用於企業知識管理、在線教育、智能客服等多種場景。

AIGC 正在爲各行各業帶來前所未有的創新生產力,引領着劃時代的變革,那麼你真的瞭解 AIGC 嗎?它到底是什麼,在各行業的應用場景,以及產品形態有哪些?下面讓我們通過上、下兩篇一起詳細地瞭解一下吧!

01 簡介

近期,短視頻平臺上火爆的 “AI 繪畫”,在各大科技平臺上刷屏的智能聊天軟件 ChatGPT,引起了人們廣泛關注。人工智能潛力再次被證明,而這兩個概念均來自同一個領域:AIGC。AIGC 到底是什麼?爲什麼如此引人關注?AIGC 能產生什麼樣的應用價值?

本文將重點關注三個方面:

1、AIGC 核心技術與原理

2、AIGC 典型應用場景

3、AIGC 落地產品形態

02 AIGC 是什麼?

AIGC 全稱爲 AI-Generated Content,直譯:人工智能內容生成。即採用人工智能技術來自動生產內容。那麼,AIGC 採用了什麼人工智能技術?可生成什麼內容?

對以上兩個問題進行回答,首先,從技術層面 AIGC 可分爲三個層次,分別爲:

1、智能數字內容孿生:

簡單的說,將數字內容從一個維度映射到另一個維度。與生成有什麼關係呢?因爲另一個維度內容不存在所以需要生成。內容孿生主要分爲內容的增強與轉譯。增強即對數字內容修復、去噪、細節增強等。轉譯即對數字內容轉換如翻譯等。

該技術旨在將現實世界中的內容進行智能增強與智能轉譯,更好的完成現實世界到數字世界映射。例如,我們拍攝了一張低分辨率的圖片,通過智能增強中的圖像超分可對低分辨率進行放大,同時增強圖像的細節信息,生成高清圖。再比如,對於老照片中的像素缺失部分,可通過智能增強技術進行內容復原。而智能轉譯則更關注不同模態之間的相互轉換。比如,我們錄製了一段音頻,可通過智能轉譯技術自動生成字幕;再比如,我們輸入了一段文字,可以自動生成語音,兩個例子均爲模態間智能轉譯應用。

【應用】:圖像超分、語音轉字幕、文字轉語音等。

2、智能數字內容編輯:

智能數字內容編輯通過對內容的理解以及屬性控制,進而實現對內容的修改。如在計算機視覺領域,通過對視頻內容的理解實現不同場景視頻片段的剪輯。通過人體部位檢測以及目標衣服的變形控制與截斷處理,將目標衣服覆蓋至人體部位,實現虛擬試衣。在語音信號處理領域,通過對音頻信號分析,實現人聲與背景聲分離。以上三個例子均在理解數字內容的基礎上對內容的編輯與控制。

【應用】:視頻場景剪輯、虛擬試衣、人聲分離等。

3、智能數字內容生成:

智能數字內容生成通過從海量數據中學習抽象概念,並通過概念的組合生成全新的內容。如 AI 繪畫,從海量繪畫中學習作品不同筆法、內容、藝術風格,並基於學習內容重新生成特定風格的繪畫。採用此方式,人工智能在文本創作、音樂創作和詩詞創作中取得了不錯表現。再比如,在跨模態領域,通過輸入文本輸出特定風格與屬性的圖像,不僅能夠描述圖像中主體的數量、形狀、顏色等屬性信息,而且能夠描述主體的行爲、動作以及主體之間的關係。

【應用】:圖像生成(AI 繪畫)、文本生成(AI 寫作、ChatBot)、視頻生成、多模態生成等。

生成內容層面 AIGC 可分爲五個方面:

1、文本生成

基於 NLP 的文本內容生成根據使用場景可分爲非交互式與交互式文本生成。非交互式文本生成包括摘要 / 標題生成、文本風格遷移、文章生成、圖像生成文本等。交互式文本生成主要包括聊天機器人、文本交互遊戲等。

【代表性產品或模型】:JasperAI、copy.AI、ChatGPT、Bard、AI dungeon 等。

2、圖像生成

圖像生成根據使用場可分爲圖像編輯修改與圖像自主生成。圖像編輯修改可應用於圖像超分、圖像修復、人臉替換、圖像去水印、圖像背景去除等。圖像自主生成包括端到端的生成,如真實圖像生成卡通圖像、參照圖像生成繪畫圖像、真實圖像生成素描圖像、文本生成圖像等。

【代表性產品或模型】:EditGAN,Deepfake,DALL-E、MidJourney、Stable Diffusion,文心一格等。

3、音頻生成

音頻生成技術較爲成熟,在 C 端產品中也較爲常見,如語音克隆,將人聲 1 替換爲人聲 2。還可應用於文本生成特定場景語音,如數字人播報、語音客服等。此外,可基於文本描述、圖片內容理解生成場景化音頻、樂曲等。

【代表性產品或模型】:DeepMusic、WaveNet、Deep Voice、MusicAutoBot 等。

4、視頻生成

視頻生成與圖像生成在原理上相似,主要分爲視頻編輯與視頻自主生成。視頻編輯可應用於視頻超分(視頻畫質增強)、視頻修復(老電影上色、畫質修復)、視頻畫面剪輯(識別畫面內容,自動場景剪輯)。視頻自主生成可應用於圖像生成視頻(給定參照圖像,生成一段運動視頻)、文本生成視頻(給定一段描述性文字,生成內容相符視頻)。

【代表性產品或模型】:Deepfake,videoGPT,Gliacloud、Make-A-Video、Imagen video 等。

5、多模態生成

以上四種模態可以進行組合搭配,進行模態間轉換生成。如文本生成圖像(AI 繪畫、根據 prompt 提示語生成特定風格圖像)、文本生成音頻(AI  作曲、根據 prompt 提示語生成特定場景音頻)、文本生成視頻(AI 視頻製作、根據一段描述性文本生成語義內容相符視頻片段)、圖像生成文本(根據圖像生成標題、根據圖像生成故事)、圖像生成視頻。

【代表性產品或模型】:DALL-E、MidJourney、Stable Diffusion 等。

03 AIGC 的核心技術有哪些

基礎模型

1、變分自編碼(Variational Autoencoder,VAE)

變分自編碼器是深度生成模型中的一種,由 Kingma 等人在 2014 年提出,與傳統的自編碼器通過數值方式描述潛空間不同,它以概率方式對潛在空間進行觀察,在數據生成方面應用價值較高。

VAE 分爲兩部分,編碼器與解碼器。編碼器將原始高維輸入數據轉換爲潛在空間的概率分佈描述;解碼器從採樣的數據進行重建生成新數據。

VAE 模型

如上圖所示,假設有一張人臉圖片,通過解碼器生成了多種特徵,這些特徵可以有 “微笑”,“膚色”,“性別”,“鬍鬚”,“眼鏡”,“頭髮顏色”。傳統的自編碼器對輸入圖像編碼後生成的潛在特徵爲具體的數值,比如,微笑 = 0.5,膚色 = 0.8 等,得到這些數值後通過解碼器解碼得到與輸入接近的圖像。也就是說該張人臉的信息已經被存儲至網絡中,我們輸入此人臉,就會輸出一張固定的與該人臉相似的圖像。

我們的目標是生成更多新的與輸入近似的圖像。因此,我們將每個特徵都由概率分佈來表示,假設 “微笑” 的取值範圍爲 0-5,“膚色”的取值範圍爲 0-10,我們在此範圍內進行數值採樣可得到生成圖像的潛在特徵表示,同時,通過解碼器生成的潛在特徵解碼得到生成圖像。

2、生成對抗網絡(Generative Adversarial Networks,GAN)

2014 年 Ian GoodFellow 提出了生成對抗網絡,成爲早期最著名的生成模型。GAN 使用零和博弈策略學習,在圖像生成中應用廣泛。以 GAN 爲基礎產生了多種變體,如 DCGAN,StytleGAN,CycleGAN 等。

GAN 模型

GAN 包含兩個部分:

生成器: 學習生成合理的數據。對於圖像生成來說是給定一個向量,生成一張圖片。其生成的數據作爲判別器的負樣本。

判別器: 判別輸入是生成數據還是真實數據。網絡輸出越接近於 0,生成數據可能性越大;反之,真實數據可能性越大。

如上圖,我們希望通過 GAN 生成一些手寫體來以假亂真。我們定義生成器與判別器:

生成器: 圖中藍色部分網絡結構,其輸入爲一組向量,可以表徵數字編號、字體、粗細、潦草程度等。在這裏使用特定分佈隨機生成。

判別器: 在訓練階段,利用真實數據與生成數據訓練二分類模型,輸出爲 0-1 之間概率,越接近 1,輸入爲真實數據可能性越大。

生成器與判別器相互對立。在不斷迭代訓練中,雙方能力不斷加強,最終的理想結果是生成器生成的數據,判別器無法判別是真是假。

以生成對抗網絡爲基礎產生的應用:圖像超分、人臉替換、卡通頭像生成等。

3、擴散模型(Diffusion Model,里程碑式模型)

擴散是受到非平衡熱力學的啓發,定義一個擴散步驟的馬爾科夫鏈,並逐漸向數據中添加噪聲,然後學習逆擴散過程,從噪聲中構建出所需的樣本。擴散模型的最初設計是用於去除圖像中的噪聲。隨着降噪系統的訓練時間越來越長且越來越好,可以從純噪聲作爲唯一輸入,生成逼真的圖片。

一個標準的擴散模型分爲兩個過程:前向過程與反向過程。在前向擴散階段,圖像被逐漸引入的噪聲污染,直到圖像成爲完全隨機噪聲。在反向過程中,利用一系列馬爾可夫鏈在每個時間步逐步去除預測噪聲,從而從高斯噪聲中恢復數據。

前向擴散過程,向原圖中逐步加入噪聲,直到圖像成爲完全隨機噪聲。

前向擴散

反向降噪過程,在每個時間步逐步去除噪聲,從而從高斯噪聲中恢復源數據。

反向擴散

擴散模型的工作原理是通過添加噪聲來破壞訓練數據,然後通過逆轉這個噪聲過程來學習恢復數據。換句話說,擴散模型可以從噪聲中生成連貫的圖像。

擴散模型通過向圖像添加噪聲進行訓練,然後模型學習如何去除噪聲。然後,該模型將此去噪過程應用於隨機種子以生成逼真的圖像。

下圖爲向原始圖像中添加噪聲,使原始圖像成爲隨機噪聲。

添加噪聲

下圖爲從噪聲中恢復的原始圖像的變種圖像。

生成圖像

應用: 在擴散模型(diffusion model)的基礎上產生了多種令人印象深刻的應用,比如:

圖像超分、圖像上色、文本生成圖片、全景圖像生成等。

如下圖,中間圖像作爲輸入,基於擴散模型,生成左右視角兩張圖,輸入圖像與生成圖像共同拼接程一張全景圖像。

生成全景圖像

產品與模型: 在擴散模型的基礎上,各公司與研究機構開發出的代表產品如下:

DALL-E 2 由美國 OpenAI 公司在 2022 年 4 月發佈,並在 2022 年 9 月 28 日,在 OpenAI 網站向公衆開放,提供數量有限的免費圖像和額外的購買圖像服務。

如下圖,左圖像爲原始圖像,右圖像爲 DALL-E 2 所生成的油畫風格的變種圖像。

DALL-E 2 生成的變種圖像

Imagen 是 2022 年 5 月谷歌發佈的文本到圖像的擴散模型,該模型目前不對外開放。用戶可通過輸入描述性文本,生成圖文匹配的圖像。如下圖,通過 prompt 提示語 “一隻可愛的手工編織考拉,穿着寫着“CVPR” 的毛衣”模型生成了考拉圖像,考拉採用手工編織,毛衣上寫着 CVPR,可以看出模型理解了提示語,並通過擴散模型生成了提示語描述圖像。

“一隻可愛的手工編織考拉,穿着寫着 “CVPR” 的毛衣”

2022 年 8 月,Stability AI 發佈了 Stable Diffusion,這是一種類似於 DALL-E 2 與 Imagen 的開源 Diffusion 模型,代碼與模型權重均向公衆開放。

通過 prompt 提示語 “郊區街區一棟房子的照片,燈光明亮的超現實主義藝術,高度細緻 8K”,生成圖像如下,整體風格與內容鍥合度高,AI 作畫質量較高。

“郊區街區一棟房子的照片,燈光明亮的超現實主義藝術,高度細緻 8K”

4、Transformer

2017 年由谷歌提出,採用注意力機制(attention)對輸入數據重要性的不同而分配不同權重,其並行化處理的優勢能夠使其在更大的數據集訓練,加速了 GPT 等預訓練大模型的發展。最初用來完成不同語言之間的翻譯。主體包括 Encoder 與 Decoder 分別對源語言進行編碼,並將編碼信息轉換爲目標語言文本。

採用 Transformer 作爲基礎模型,發展出了 BERT,LaMDA、PaLM 以及  GPT 系列。人工智能開始進入大模型參數的預訓練模型時代。

Transformer 模型

5、Vision Transformer (ViT)

2020 年由谷歌團隊提出,將 Transformer 應用至圖像分類任務,此後  Transformer 開始在 CV 領域大放異彩。ViT 將圖片分爲 14*14 的 patch,並對每 patch 進行線性變換得到固定長度的向量送入 Transformer,後續與標準的 Transformer 處理方式相同。

以 ViT 爲基礎衍生出了多重優秀模型,如 SwinTransformer,ViTAE Transformer 等。ViT 通過將人類先驗經驗知識引入網絡結構設計,獲得了更快的收斂速度、更低的計算代價、更多的特徵尺度、更強的泛化能力,能夠更好地學習和編碼數據中蘊含的知識,正在成爲視覺領域的基礎網絡架構。以 ViT 爲代表的視覺大模型賦予了 AI 感知、理解視覺數據的能力,助力 AIGC 發展。

Vision Transformer(ViT)

預訓練大模型

雖然過去各種模型層出不窮,但是生成的內容偏簡單且質量不高,遠不能夠滿足現實場景中靈活多變以高質量內容生成的要求。預訓練大模型的出現使 AIGC 發生質變,諸多問題得以解決。大模型在 CV/NLP / 多模態領域成果頗豐,並如下表的經典模型。諸如我們熟知的聊天對話模型 ChatGPT,基於 GPT-3.5 大模型發展而來。

1、計算機視覺(CV)預訓練大模型

Florence 是微軟在 2021 年 11 月提出的視覺基礎模型。Florence 採用雙塔 Transformer 結構。文本採用 12 層 Transformer,視覺採用 SwinTransformer。通過來自互聯網的 9 億圖文對,採用 Unified Contrasive Learning 機制將圖文映射到相同空間中。其可處理的下游任務包括:圖文檢索、圖像分類、目標檢測、視覺問答以及動作識別。

Florence overview

2、自然語言處理(NLP)預訓練大模型

LaMDA 是谷歌在 2021 年發佈的大規模自然語言對話模型。LaMDA 的訓練過程分爲預訓練與微調兩步。在預訓練階段,谷歌從公共數據數據中收集了 1.56T 數據集,feed 給 LaMDA,讓其對自然語言有初步認識。

到這一步通過輸入 prompt 能夠預測上下文,但是這種回答往往不夠準確,需要二次調優。谷歌的做法是讓模型根據提問輸出多個回答,將這些回答輸入到分類器中,輸出回答結果的安全性 Safety,敏感性 Sensible,專業性 Specific 以及有趣性 Interesting。根據這些指標進行綜合評價,將評價從高分到低分進行排列,從中挑選出得分最高的回答作爲本次提問的答案。

LaMDA 對話系統原理圖

ChatGPT 是美國 OpenAI 公司在 2022 年 11 月發佈的智能對話模型。截止目前 ChatGPT 未公開論文等技術資料。大多數的技術原理分析是基於   InstructGPT 分析。ChatGPT 與 GPT-3 等對話模型不同的是,ChatGPT  引入了人類反饋強化學習(HFRL:Human Feedback Reinforcement Learning)。

ChatGPT 與強化學習: 強化學習策略在 AlphaGo 中已經展現出其強大學習能力。簡單的說,ChatGPT 通過 HFRL 來學習什麼是好的回答,而不是通過有監督的問題 - 答案式的訓練直接給出結果。通過 HFRL,ChatGPT 能夠模仿人類的思維方式,回答的問題更符合人類對話。

ChatGPT 原理: 舉個簡單的例子進行說明,公司員工收到領導安排任務,需完成一項工作彙報的 PPT。當員工完成工作 PPT 製作時,去找領導彙報,領導在看後認爲不合格,但是沒有清楚的指出問題在哪。員工在收到反饋後,不斷思考,從領導的思維方式出發,重新修改 PPT,提交領導查看。通過以上多輪反饋 - 修改後,員工在 PPT 製作上會更符合領導思維方式。而如果領導在第一次查看時,直接告訴員工哪裏有問題,該怎樣修改。那麼,下一次員工所做的 PPT 很大概率還是不符合要求,因爲,沒有反饋思考,沒有 HFRL,自然不會做出符合要求的工作。ChatGPT 亦是如此。

ChatGPT 訓練過程圖

ChatGPT 能夠回答出好的問題與它的 “領導” 所秉持的價值觀有很大關係。因此,你的 “點踩” 可能會影響 ChatGPT 的回答。

ChatGPT 的顯著特點如下:

ChatGPT 特點

1)主動承認錯誤: 若用戶指出其錯誤,模型會聽取,並優化答案。

2)敢於質疑: 對用戶提出的問題,如存在常識性錯誤,ChatGPT 會指出提問中的錯誤。如提出 “哥倫布 2015 年來到美國時的情景”,ChatGPT 會指出,哥倫布不屬於這一時代,並調整輸出,給出準確答案。

3)承認無知: 對於非常專業的問題或超出安全性範圍,如果 ChatGPT 不清楚答案,會主動承認無知,而不會一本正經的 “胡說八道”。

4)支持連續多輪對話: ChatGPT 能夠記住先前對話內容,並展開多輪自然流暢對話。

3、多模態預訓練大模型

2021 年美國 OpenAI 公司發佈了跨模態預訓練大模型 CLIP,該模型採用從互聯網收集的 4 億對圖文對。採用雙塔模型比對學習訓練方式進行訓練。CLIP 的英文全稱是 Contrastive Language-Image Pre-training,即一種基於對比文本 - 圖像對的預訓練方法或者模型。

簡單說,CLIP 將圖片與圖片描述一起訓練,達到的目的:給定一句文本,匹配到與文本內容相符的圖片;給定一張圖片,匹配到與圖片相符的文本。

怎樣進行訓練?

首先,採用 Text-Encoder 與 Image-Encoder 對文本與圖像進行特徵提取。Text-Encoder 採用 Text Transformer 模型,Image-Encoder 採用  CNN 或 Vision Transformer(ViT)。

其次,這裏對提取的文本特徵和圖像特徵進行對比學習。對於一個包含 N  個文本 - 圖像對的訓練 batch,將 N 個文本特徵和 N 個圖像特徵兩兩組合,CLIP 模型會預測出 N² 個可能的文本 - 圖像對的相似度,這裏的相似度直接計算文本特徵和圖像特徵的餘弦相似性(cosine similarity),即下圖所示的矩陣。這裏共有 N 個正樣本,即真正屬於一對的文本和圖像(矩陣中的對角線元素),而剩餘的 N² 個文本 - 圖像對爲負樣本,那麼 CLIP 的訓練目標就是最大 N 個正樣本的相似度,同時最小化 N² 個負樣本的相似度。

最後,訓練模型,優化目標函數。完成訓練,輸入文本經模型預測輸出匹配圖片;輸入圖片經模型預測輸出匹配文本。

有什麼應用?

1)跨模態檢索: 如搜索中文本搜索圖片、文本搜索視頻,圖片搜索文本等。

2)跨模態內容生成: 文本生成圖片(DALL-E 2,Stable Diffusion 等)、圖片生成標題、圖片生成描述等。

CLIP 模型結構

Stable Diffusion 是英國倫敦 Stability AI 公司開源的圖像生成擴散模型。Stable Diffusion 的發佈是 AI 圖像生成發展過程中的一個里程碑,相當於給大衆提供了一個可用的高性能模型,不僅生成的圖像質量非常高,運行速度快,並且有資源和內存的要求也較低。

Stable Diffusion 從功能上來說主要包括兩個方面:

1)利用文本輸入來生成圖像(Text-to-Image)

2)對圖像根據文字描述進行修改(輸入爲文本 + 圖像)

具體原理是怎樣實現?下面以文本生成圖片進行分析。

如下圖:Stable diffusion=Text Encoder+Image Generator

1) Text Encoder(文本特徵提取)

我們知道,文本與圖片爲兩個不同模態。要建立文本與圖片之間的匹配需要多模態模型,因此,需利用多模態預訓練模型中的 Text Encoder 提取文本特徵(與 CLIP 中的 Text Encoder 功能一致。)

之後,文本特徵向量與隨機噪聲一併輸入 Image Generator。

輸入:文本;

輸出:77*768 向量(77 個 token,每個 token 768 維)。

Stable diffusion 原理圖

2)Image Generator(圖像生成)

Image Generator=Image Information Creator+Image Decoder

Stable diffusion 原理圖

A:Image Information Creator(獨家祕方,領先的關鍵)

Image Information Creator=UNet+Scheduler

相比之前的模型,它的很多性能增益都是在這裏實現的。該組件運行多個   steps 來生成圖像信息,通常默認爲 50 或 100。

Stable diffusion 原理圖

整個運行過程是 step by step 的,每一步都會增加更多的相關信息。

Stable diffusion 原理圖

整個 diffusion 過程包含多個 steps,其中每個 step 都是基於輸入的 latents 矩陣進行操作,並生成另一個 latents 矩陣以更好地貼合「輸入的文本」和從模型圖像集中獲取的「視覺信息」。將這些 latents 可視化可以看到這些信息是如何在每個 step 中相加的。

Stable diffusion 原理圖

由上圖可以看到,圖像從噪聲中生成的全過程,從無到有,到每一步的變化,生成細微差異的圖像。

B:Image Decoder

Image Decoder 對處理過的信息矩陣進行解碼,輸出生成圖像。

輸入:處理過的信息矩陣,維度爲(4, 64, 64)

輸出:結果圖像,各維度爲(3,512,512)

Stable Diffusion 是一款功能強大、免費且開源的文本到圖像生成器。不僅完全開放了圖片版權,甚至開放了源代碼,並允許用戶免費使用該工具,允許後繼的創業者們使用開源框架構建起更加開放而強大的內容生成大生態。

“Stable Diffusion 最初採用 4000 臺 A100 的顯卡訓練,這些顯卡價值不菲(每臺價格一至兩萬美元),很難想象他們有着怎樣的財力,抱着怎樣的理念,或者說爲人們做貢獻的精神去把這個東西放出來的。它的價值之高,對業界的影響之大,說是 AI 革命都不過分。”

通過上面的內容我們詳細瞭解了 AIGC 的原理和核心技術,下篇將對 AIGC 在各行業的應用場景以及產品形態,進行詳細解析。

參考文獻

  1. 人工智能內容生成(AIGC)白皮書(中國信息通訊研究院 & 京東探索研究院)

  2. AIGC 發展趨勢報告 2023(騰訊研究院)

  3. Denoising Diffusion-based Generative Modeling: Foundations and Applications(Google Brain& NV)

  4. 從 CHAT-GPT 到生成式 AI(Generative AI):人工智能新範式,重新定義生產力(中信建投證券)

  5. https://jalammar.github.io/illustrated-stable-diffusion/

   Edited by Lucas Shan

原文出處:https://zhuanlan.zhihu.com/p/607822576

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s?__biz=MzA5NTUxNzE4MQ==&mid=2659285397&idx=1&sn=570b0687790726bf56784b225225e871&chksm=8bcbf907bcbc7011022e7e2b78856e95f3f85146f1766b90d77e9fafe53f93d5516a65e6de17&scene=21#wechat_redirect