有哪些你看了之後大呼過癮的數據分析方法論 -萬字長文-?
01
對比細分
在互聯網的數據分析中, 經常我們去分析比如今天的活躍人數降低了, 我們經常要從多個維度去分析爲什麼降低。
同時我們還要跟上週, 昨天, 去年同期等做對比, 分析雖然是降低了, 但對比去年是否有變化。
那麼我們如何做一個有效的細分呢。
首先我們有很多可以細分的維度, 比如 從時間上拆分, 一個月的活躍人數我們可以拆分到每一天的人數, 活躍人數可以拆分新的活躍人數, 老的活躍人數。
同樣都是活躍人數, 我們可以拆分不同活躍等級的人數, 這裏的活躍人數指的就是比如 一個月活躍 1 天 活躍 3 天 活躍 7 天等不同活躍天數, 又可以拆分成一天活躍 1 小時, 3 小時, 7 小時等不同時長的用戶。
我們還可以對地區進行細分, 比如活躍人數降低了, 我們可以細分到是哪個地方降低比較多, 是廣東還是廣西, 是湖南還是湖北。
除了以上拆分的維度, 我們還可以有很多拆分的維度, 比如另外一個例子, 我們發送的表情總數量跌了, 我們就可以拆分成發送的小黃臉小表情, 還有很騷氣的大表情。
這些拆分是跟特地業務相關的。
對於電商類的業務比如總的訂單量 我們可以拆分來自不同的店鋪, 不同的品類, 不同的商品類型, 不同的價格類型等等。
對於遊戲類型的業務比如總的賣的遊戲皮膚 我們可以拆分不同角色的皮膚, 武器也是類似的。
對於視頻類 app 比如抖音的關注數, 我們可以拆分不同用大 v 的粉絲數量。
單單細分, 沒有對比, 就沒有洞察, 那麼我們細分好了分析維度之後, 怎麼對比呢.
對比就是在細分的基礎上選擇合適的指標進行對比。比如我們要分析現在朋友圈在某一天的情況如何。
我們會想一些指標去評估, 比如朋友圈活躍人數, 活躍次數, 活躍時長, 活躍到發表的轉化率等, 然後我們就會把這些指標去跟去年同期做對比看漲跌如何, 也就是自己跟自己比。
除了自己跟自己比, 我們會拿到一個具體的漲跌的數字, 但我們不知道一個數字是有沒有明顯的異常, 這時候就可以藉助其他的業務。
比如我們會看錶情活躍今年跟去年同期對比的漲跌, 然後看朋友圈的漲跌跟表情的漲跌, 就可以科學評估這個漲跌是否是非常異常的
02
RFM 用戶分羣
RFM 模型是利用 R, F, M 三個特徵去對用戶進行劃分的。
其中 R 是表示最後一次付費的日期距離現在的時間, 比如你在 12 月 20 號給一個主播打賞過, 那麼到現在的距離的天數是 5 那麼 R 就是 5, R 是用來刻畫用戶的忠誠度, 一般來說 R 越小, 代表用戶上一次剛剛纔付費的, 這種用戶的忠誠度比較高。
F 是表示一段時間的付費頻次, 也就是比如一個月付費了多少次, 這個是用來刻畫用戶付費行爲的活躍度, 我們認爲用戶的付費行爲頻次越高, 一定程度上代表他的價值度
M 是表示一段時間的付費金額, 比如一個月付費了 10000 元, M=10000, M 主要是用來刻畫用戶的土豪程度。
以上我們就從用戶的忠誠度, 活躍度, 土豪度三個方面去刻畫一個用戶的價值度。
根據 RFM 的值, 我們就可以把用戶劃分爲以下不同的類別:
重要價值用戶: R 低, F 高, M 高, 這種用戶價值度非常高, 因爲忠誠度高, 付費頻次高, 又很土豪
重要召回用戶: R 低, F 低 M 高, 因爲付費頻次低, 但金額高, 所以是重點召回用戶
重要發展用戶: R 高, F 低, M 高 因爲忠誠度不夠, 所以需要大力發展
重要挽留用戶: R 高 F 低 M 高 因爲 忠誠度和活躍度都不夠 很容易流失 所以需要重點挽留
還有四種其他用戶就不一一列舉
RFM 如何分羣:
- 首先是利用 sql 計算 每一個用戶的 R, F, M, 最終得到的數據格式如下
2. 讀取數據和查看數據
pay_data= pd.read_csv('d:/My Documents/Desktop/train_pay.csv')
# 路徑名 'd:/My Documents/Desktop/train_pay.csv' 填寫你自己的即可
pay_data.head() # 查看數據前面幾行
- 選取我們要聚類的特徵
pay_RFM = pay_data[['r_c','f_c','m_c']]
- 開始聚類, 因爲我們用戶分羣分的是八個類別, 所以 k =8
# 創建模型
model_k = KMeans(n_clusters=8,random_state=1)
# 模型訓練
model_k.fit(pay_RFM)
# 聚類出來的類別賦值給新的變量 cluster_labels
cluster_labels = model_k.labels_
- 對聚類的結果中每一個類別計算 每個類別的數量 最小值 最大值 平均值等指標
rfm_kmeans = pay_RFM.assign(class1=cluster_labels)
num_agg = {'r_c':['mean', 'count','min','max'], 'f_c':['mean', 'count','min','max'],'m_c':['mean','sum','count','min','max']}
rfm_kmeans.groupby('class1').agg(num_agg).round(2)
6. 把聚類出來的類別和用戶 id 拼接在一起
pay_data.assign(class1=cluster_labels).to_csv('d:/My Documents/Desktop/result.csv',header=True, sep=',')
下面就是最終結果, label 表示用戶是屬於哪一個細分的類別
03
生命週期模型
互聯網的用戶是存在一定的生命週期的, 每一個產品都會經歷去獲取用戶, 用戶成長, 用戶不斷成熟, 然後用戶衰退的過程。
產品經理和運營都希望能夠在用戶流失之前, 通過一些福利體系去幹預用戶, 福利體系包括 比如天貓的滿減券, 遊戲中的遊戲禮包, 遊戲道具, 遊戲金幣等等, 都是爲了去喚醒流失的用戶。
但因爲我們的福利對應的禮物是有成本的, 我們希望的是可以去幹預即將流失的用戶, 以及喚回剛流失不久的用戶, 所以我們需要用科學的方法去找到這部分用戶。
所以我們要定一個合理的週期, 這個週期就是流失週期, 流失週期指的就是如果用戶在這個時期內沒有進行活躍, 在這個流失週期左右的時間是我們最好去幹預用戶的時間。
流失週期的確定一共有兩種方法, 一種是分位數法, 一種是拐點法。
-
分位數法:
首先先計算用戶活躍的時間間隔, 比如用戶 a 活躍的時間日期分別是 2020-12-01 和 2020-12-14 那麼間隔就是 13 天, 我們把所有用戶的活躍的時間間隔都計算好, 然後找出間隔的 90% 分位數.
爲什麼是 90% 分位數呢?這是因爲如果有 90% 的活躍時間間隔都在某個週期以內的話, 那麼這個週期內不活躍的話, 之後活躍的可能性也不高。
如上圖所示, 橫軸是 所有用戶的活躍的時間間隔, 從小到大排列, 縱軸是不同時間間隔的人數佔比, 從藍線我們可以發現大多數的用戶充值時間間隔都在前面, 從紅線我們可以發現充值時間間隔在 72 天以內的佔比數達 90% , 所以我們把 72 天作爲用戶的流失週期
- 拐點法
拐點法要依賴留存率 (留存的人數 / 之前活躍的人數) 指標, 整體的思路是取一段時間內(一般取一週或者一個月) 活躍過的用戶, 判斷在未來每一天的 留存人數, 或者每一週的留存人數, 或者每個月的留存人數。
這裏我們要計算以後的每天還是每週還是每個月依賴於用戶在這個產品的活躍情況, 一般來說對於比較活躍的產品, 流失週期就是比較短這時候我們可以看天, 對於不那麼活躍的產品, 我們就看周或者月。
這裏以取周 爲例, 我們取 1 月 1 號到 1 月 31 號這一個月所有活躍人數, 看他在第 1 周, 第二週, 第三週, 第四周, 第五週, 第六週.... 每一週的留存人數, 因爲隨着時間的遞增, 留存的人數一般來說會越來越少, 也就是流失的人數越來越多, 但用戶的留存率不在發生變化
如上圖所示, 橫軸的數字代表每一週, 縱軸代表留存率, 我們發現隨着時間的推移, 留存人數越來越少, 大概是到了第十週以後, 留存人數處於比較穩定的水平。
這個 10 周就是一個明顯的拐點, 我們把 10 周叫做流失的分界點也就是流失週期
在數據分析的問題中, 經常會遇見的一種問題就是相關的問題, 比如抖音短視頻的產品經理經常要來問留存(是否留下來)和觀看時長, 收藏的次數, 轉發的次數, 關注的抖音博主數等等是否有相關性, 相關性有多大。
因爲只有知道了哪些因素和留存比較相關, 才知道怎麼去優化從產品的方向去提升留存率, 比如 如果留存和收藏的相關性比較大 那麼我們就要引導用戶去收藏視頻, 從而提升相關的指標,
除了留存的相關性計算的問題, 還有類似的需要去計算相關性的問題, 比如淘寶的用戶 他們的付費行爲和哪些行爲相關, 相關性有多大, 這樣我們就可以挖掘出用戶付費的關鍵行爲
這種問題就是相關性量化, 我們要找到一種科學的方法去計算這些因素和留存的相關性的大小,
這種方法就是相關性分析
04
相關性分析
相關性分析是指對兩個或多個具備相關性的變量元素進行分析,從而衡量兩個變量因素的相關密切程度。相關性的元素之間需要存在一定的聯繫或者概率纔可以進行相關性分析 (官方定義)
簡單來說, 相關性的方法主要用來分析兩個東西他們之間的相關性大小
相關性大小用相關係數 r 來描述,關於 r 的解讀:(從知乎摘錄的)
(1)正相關:如果 x,y 變化的方向一致,如身高與體重的關係,r>0;一般地,
·|r|>0.95 存在顯著性相關;
·|r|≥0.8 高度相關;
·0.5≤|r|<0.8 中度相關;
·0.3≤|r|<0.5 低度相關;
·|r|<0.3 關係極弱,認爲不相關
(2)負相關:如果 x,y 變化的方向相反,如吸菸與肺功能的關係,r<0;
(3)無線性相關:r=0, 這裏注意, r=0 不代表他們之間沒有關係, 可能只是不存在線性關係。
下面用幾個圖來描述一下 不同的相關性的情況
第一張圖 r=-0.92 <0 是說明橫軸和縱軸的數據呈現負相關, 意思就是隨着橫軸的數據值越來越大縱軸的數據的值呈現下降的趨勢, 從 r 的絕對值爲 0.92>0.8 來看, 說明兩組數據的相關性高度相關
同樣的, 第二張圖 r=0.88 >0 說明縱軸和橫軸的數據呈現正向的關係, 隨着橫軸數據的值越來越大, 縱軸的值也隨之變大, 並且兩組數據也是呈現高度相關
如何實現相關性分析:
前面已經講了什麼是相關性分析方法, 那麼我們怎麼去實現這種分析方法呢, 以下先用 python 實現
1. 首先是導入數據集, 這裏以 tips 爲例
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
%matplotlib inline
## 定義主題風格
sns.set(style="darkgrid")
## 加載tips
tips = sns.load_dataset("tips")
- 查看導入的數據集情況,
字段分別代表
total_bill: 總賬單數
tip: 消費數目
sex: 性別
smoker: 是否是吸菸的羣衆
day: 天氣
time: 晚餐 dinner, 午餐 lunch
size: 顧客數
tips.head() # 查看數據的前幾行
- 最簡單的相關性計算
tips.corr()
4. 任意看兩個數據之間相關性可視化, 比如看 total_bill 和 tip 之間的相關性, 就可以如下操作進行可視化
## 繪製圖形,根據不同種類的三點設定圖注
sns.relplot(x="total_bill", y="tip", data=tips);
plt.show()
從散點圖可以看出賬單的數目和消費的數目基本是呈正相關, 賬單的總的數目越高, 給得消費也會越多
- 如果要看全部任意兩兩數據的相關性的可視化
sns.pairplot(tips)
- 如果要分不同的人羣, 吸菸和非吸菸看總的賬單數目 total_bill 和小費 tip 的關係。
sns.relplot(x="total_bill", y="tip", hue="smoker", data=tips)# 利用hue 進行區分
plt.show()
- 同樣的 區分抽菸和非抽菸羣體看所有數據之間的相關性,我們可以看到
對於男性和女性羣體, 在小費和總賬單金額的關係上, 可以同樣都是賬單金額越高的時候, 小費越高的例子上, 男性要比女性給得小費更大方
在顧客數量和小費的數目關係上, 我們可以發現, 同樣的顧客數量, 男性要比女性給得小費更多
在顧客數量和總賬單數目關係上, 也是同樣的顧客數量, 男性要比女性消費更多
sns.pairplot(tips ,hue ='sex')
實戰案例:
問題:
影響 B 站留存的相關的關鍵行爲有哪些?
這些行爲和留存哪一個相關性是最大的?
分析思路:
-
找全與留存相關的行爲
-
計算這些行爲和留存的相關性大小
首先規劃好完整的思路, 哪些行爲和留存相關, 然後利用這些行爲 + 時間維度 組成指標, 因爲不同的時間跨度組合出來的指標, 意義是不一樣的, 比如登錄行爲就有 7 天登錄天數, 30 天登錄天數
第二步計算這些行爲和留存的相關性, 我們用 1 表示會留存 0 表示不會留存
那麼就得到 用戶 id + 行爲數據 + 是否留存 這幾個指標組成的數據
然後就是相關性大小的計算
import matplotlib.pyplot as plt
import seaborn as sns
retain2 = pd.read_csv("d:/My Documents/Desktop/train2.csv") # 讀取數據
retain2 = retain2.drop(columns=['click_share_ayyuid_ucnt_days7']) # 去掉不參與計算相關性的列
plt.figure(figsize=(16,10), dpi= 80)
# 相關性大小計算
sns.heatmap(retain2.corr(), xticklabels=retain2.corr().columns, yticklabels=retain2.corr().columns, cmap='RdYlGn', center=0, annot=True)
# 可視化
plt.title('Correlogram of retain', fontsize=22)
plt.xticks(fontsize=12)
plt.yticks(fontsize=12)
plt.show()
圖中的數字值就是代表相關性大小 r 值 所以從圖中我們可以發現
留存相關最大的四大因素:
•30 天或者 7 天登錄天數(cor: 0.66)
•30 天觀看品類個數 (cor: 0.44)
•30 天觀看主播數 (cor: 0.37)
•30 天日均觀看時長 (cor: 0.26)
05
用戶畫像分析
我們經常在淘寶上購物, 作爲淘寶方, 他們肯定想知道他的使用用戶是什麼樣的, 是什麼樣的年齡性別, 城市, 收入, 他的購物品牌偏好, 購物類型, 平時的活躍程度是什麼樣的, 這樣的一個用戶描述就是用戶畫像分析
無論是產品策劃還是產品運營, 前者是如何去策劃一個好的功能, 去獲得用戶最大的可見的價值以及隱形的價值, 必須的價值以及增值的價值, 那麼瞭解用戶, 去做用戶畫像分析, 會成爲數據分析去幫助產品做做更好的產品設計重要的一個環節。
那麼作爲產品運營, 比如要針用戶的拉新, 挽留, 付費, 裂變等等的運營, 用戶畫像分析可以幫助產品運營去找到他們的潛在的用戶, 從而用各種運營的手段去觸達。
因爲當我們知道我們的羣體的是什麼樣的一羣人的時候, 潛在的用戶也是這樣的類似的一羣人, 這樣纔可以做最精準的拉新, 提高我們的 ROI
在真正的工作中, 用戶畫像分析是一個重要的數據分析手段去幫助產品功能迭代, 幫助產品運營做用戶增長。
總的來說, 用戶畫像分析就是基於大量的數據, 建立用戶的屬性標籤體系, 同時利用這種屬性標籤體系去描述用戶
用戶畫像的作用:
像上面描述的那樣, 用戶畫像的作用主要有以下幾個方面
- 廣告投放
在做用戶增長的例子中, 我們需要在外部的一些渠道上進行廣告投放, 對可能的潛在用戶進行拉新, 比如 B 站在抖音上投廣告
我們在選擇平臺進行投放的時候, 有了用戶畫像分析, 我們就可以精準的進行廣告投放, 比如抖音的用戶羣體是 18-24 歲的羣體, 那麼廣告投放的時候就可以針對這部分用戶羣體進行投放, 提高投放的 ROI
假如我們沒有畫像分析, 那麼可能會出現投了很多次廣告, 結果沒有人點擊
- 精準營銷
假如某個電商平臺需要做個活動給不同的層次的用戶發放不同的券, 那麼我們就要利用用戶畫像對用戶進行劃分, 比如劃分成不同的付費的活躍度的用戶, 然後根據不同的活躍度的用戶發放不用的優惠券。
比如針對付費次數在 [1-10] 的情況下發 10 元優惠券刺激, 依次類推
3. 個性化推薦
精確的內容分發, 比如我們在音樂 app 上看到的每日推薦, 網易雲之所以推薦這麼準, 就是他們在做點擊率預估模型 (預測給你推薦的歌曲你會不會點擊) 的時候, 考慮了你的用戶畫像屬性。
比如根據你是 90 後, 喜歡傷感的, 又喜歡杰倫, 就會推薦類似的歌曲給你, 這些就是基於用戶畫像推薦
- 風控檢測
這個主要是金融或者銀行業設計的比較多, 因爲經常遇到的一個問題就是銀行怎麼決定要不要給一個申請貸款的人給他去放貸
經常的解決方法就是搭建一個風控預測模型, 去預約這個人是否會不還貸款,同樣的, 模型的背後很依賴用戶畫像。
用戶的收入水平, 教育水平, 職業, 是否有家庭, 是否有房子, 以及過去的誠信記錄, 這些的畫像數據都是模型預測是否準確的重要數據
- 產品設計
互聯網的產品價值 離不開 用戶 需求 場景 這三大元素, 所以我們在做產品設計的時候, 我們得知道我們的用戶到底是怎麼樣的一羣人, 他們的具體情況是什麼, 他們有什麼特別的需求, 這樣我們纔可以設計出對應解決他們需求痛點的產品功能
在產品功能迭代的時候, 我們需要分析用戶畫像行爲數據, 去發現用戶的操作流失情況, 最典型的一種場景就是漏斗轉化情況, 就是基於用戶的行爲數據去發現流失嚴重的頁面, 從而相對應的去優化對應的頁面,
比如我們發現從下載到點擊付款轉化率特別低,那麼有可能就是我們付款的按鈕的做的有問題, 就可以針對性的優化按鈕的位置等等
同時也可以分析這部分轉化率主要是在那部分用戶羣體中低, 假如發現高齡的用戶的轉化率要比中青年的轉化率低很多, 那有可能是因爲我們字體的設置以及按鈕本身位置不顯眼等等, 還有操作起來不方便等等因素
- 數據分析
在做描述性的數據分析的時候, 經常需要畫像的數據, 比如描述抖音的美食博主是怎麼樣的一羣人, 他們的觀看的情況, 他們的關注其他博主的情況等等
簡單來說就是去做用戶刻畫的時候, 用戶畫像可以幫助數據分析刻畫用戶更加清晰。
如何構建用戶畫像:
用戶畫像搭建的架構如下:
**數據層: **
首先 是數據層, 用戶畫像的基礎是首先要去獲取完整的數據, 互聯網的數據主要是 利用打點, 也就是大家說的數據埋點上報上來的, 整個過程就是 數據分析師會根據業務需要提數據上報的需求, 然後由開發完成, 這樣就有了上報的數據。
除了上報的數據, 還有其他數據庫同步的數據, 一般會把數據庫的數據同步到 hive 表中, 按照數據倉庫的規範, 按照一個個主題來放置
還有一些其他的數據比如外部的一些調研的數據, 以 excel 格式存在, 就需要把 excel 數據導入到 hive 表中
挖掘層:
有了基礎的數據以後, 就進入到挖掘層, 這個層次主要是兩件事情, 一個是數據倉庫的構建, 一個是標籤的預測, 前者是後者的基礎。
一般來說我們會根據數據層的數據表, 對這些數據表的數據進行數據清洗,數據計算彙總, 然後按照數據倉庫的分層思想, 比如按照 數據原始層, 數據清洗層, 數據彙總層, 數據應用層等等進行表的設計
數據原始層的表的數據就是上報上來的數據入庫的數據, 這一層的數據沒有經過數據清洗處理, 是最外層的用戶明細數據
數據清洗層主要是數據原始層的數據經過簡單數據清洗之後的數據層, 主要是去除明顯是髒數據, 比如年齡大於 200 歲, 地域來自 FFFF 的 等明顯異常數據
數據彙總層的數據主要是根據數據分析的需求, 針對想要的業務指標, 比如用戶一天的聽歌時長, 聽歌歌曲數, 聽的歌手數目等等, 就可以按照用戶的維度, 把他的行爲進行聚合, 得到用戶的輕量指標的聚合的表。
這個層的用處主要是可以快速求出比如一天的聽歌總數, 聽歌總時長, 聽歌時長高於 1 小時的用戶數, 收藏歌曲數高於 100 的用戶數是多少等等的計算就可以從這個層的表出來
數據應用層主要是面向業務方的需求進行加工, 可能是在數據彙總的基礎上加工成對應的報表的指標需求, 比如每天聽歌的人數, 次數, 時長, 搜索的人數, 次數, 歌曲數等等
按照規範的數據倉庫把表都設計完成後, 我們就得到一部分的用戶的年齡性別地域的基礎屬性的數據以及用戶觀看 付費 活躍等等行爲的數據
但是有一些用戶的數據是拿不到的比如音樂 app 爲例, 我們一般是拿不到用戶的聽歌偏好這個屬性的數據, 我們就要通過機器學習的模型對用戶的偏好進行預測
機器學習的模型預測都是基於前面我們構建的數據倉庫的數據的, 因爲只有完整的數據倉庫的數據, 是模型特徵構建的基礎
服務層:
有了數據層和挖掘層以後, 我們基本對用戶畫像體系構建的差不多, 那麼就到了用戶畫像賦能的階段。
最基礎的應用就是利用用戶畫像寬表的數據, 對用戶的行爲進行洞察歸因 挖掘行爲和屬性特徵上的規律
另外比較大型的應用就是搭建用戶畫像的平臺, 背後就是用戶畫像表的集成。
用戶提取: 我們可以利用用戶畫像平臺, 進行快速的用戶選取, 比如抽取 18-24 歲的女性羣體 聽過杰倫歌曲的用戶, 我們就可以快速的抽取。
**分羣對比: **我們可以利用畫像平臺進行分羣對比。比如我們想要比較音樂 vip 的用戶和非 vip 的用戶他們在行爲活躍和年齡性別地域 註冊時間, 聽歌偏好上的差異, 我們就可以利用這個平臺來完成
功能畫像分析: 我們還可以利用用戶畫像平臺進行快速進行某個功能的用戶畫像描述分析, 比如音樂 app 的每日推薦功能, 我們想要知道使用每日推薦的用戶是怎麼樣的用戶羣體, 以及使用每日推薦不同時長的用戶他們的用戶特徵分別都是怎麼樣的,就可以快速的進行分析
06
5w2h
在數據分析的面試中, 你是否不止一次遇到以下的問題:
DAU 降低了, 怎麼分析,
用戶留存率下降了怎麼分析
訂單數量下降了怎麼分析
像這樣的問題, 如果沒有科學的思維框架去梳理你的思路的話, 去回答這個問題我們就會有一種想要說很多個點, 但不知道先說哪一個點, 只會造成回答很亂, 沒有條理性, 同時有可能會漏斗很多點
回答這種分析的類似的問題的時候, 大多數情況下都可以利用 5w2h 的方法幫助我們去組織思路, 這樣可以在回答這種類似的問題的時候, 可以做到邏輯清晰, 答得點縝密完善
比如 DAU 下降了, 5w2h 分析法會教你如何拆解 DAU 下降以及歸因以及給出建議
比如用戶留存率下降了, 5w2h 方法會教你去拆解用戶, 歸納不同羣體的留存率下跌原因
比如訂單數量下跌了, 5w2h 方法助力漏斗分析, 快速挖掘流失的關鍵步驟, 關鍵節點
什麼是 5w2h:
5w2h 分析法主要是 以五個 W 開頭的英語單詞和兩個以 H 開頭的英語單詞組成的, 這五個單詞爲我們提供了問題的分析框架
5W 的內容
1.What - 發生了什麼?一般用來值得是問題是什麼, what 的精髓在於告訴我們第一步要認清問題的本質是什麼
2.When - 何時?在什麼時候發生的? 問題發生的時間, 比如 dau 下降了就是下降的具體時間分析, 這個時間是不是節假日等等
3.Where - 何地?在哪裏發生的? 問題發生的拆解其中一個環節, 還是 dau 下降了, 是哪一個的地區的下降了, 是哪一個功能的使用的人下降了等等
4.Who - 是誰? 比如 dau 下降了, 就是是哪一部分的用戶羣體在降, 是哪一個的年齡, 性別, 使用 app 時長等等
5.Why - 爲什麼會這樣?dau 可能降低的原因猜想, 比如某個地區的 dau 降低了, 其他地方的沒有降低, 那可能是這個地區的 app 在使用的過程中有什麼問題
2H 的內容
1.How - 怎樣做?知道了問題是什麼以後, 就到了策略層了, 就是我們要採取什麼樣的方法和策略去解決這個 dau 下降的問題
2.How Much - 多少?做到什麼程度?這個主要是比如 dau 下降了以後, 我們採取對應的策略是可能花費的成本是多少, 以及我們要解決這個降低的問題解決到什麼程度纔可以
案例實戰:
1. 背景:
某 APP 的付費人數一直在流失, 如何通過數據分析去幫助產品和業務去挖掘對應的付費的流失原因並給出對應的解決策略
**2. 分析思路: **
嘗試用 5w2h 分析法去拆解這個問題
what: 我們的問題是付費人數開始流失了, 這種流失應該就是表現出來同比和環比可能都是下降的
when: 整體的流失很難看出問題, 所以我們需要去分析不同的流失週期的用戶的佔比大概都是多大, 從而分析出現在付費用戶的流失週期主要集中在哪裏。
where: 付費的入口和不同付費點的分析, 主要是分析哪一個入口的付費人數流失嚴重或者哪個功能的付費人數流失嚴重, 挖掘關鍵位置
who: 對用戶的屬性和行爲進行分析, 分析流失的這部分用戶羣體是否具有典型的特徵, 比如集中在老年羣體, 集中在某個地區等等, 行爲的特徵分析表現在流失的用戶的行爲活躍表現是怎麼樣的, 比如是否還在 app 上活躍, 活躍的時長和天數等等的分析
why: 通過上面的分析, 就可能大致得出用戶的流失的原因, 需要把數據結論和猜想對應起來去看, 並做好歸納總結
how: 當我們挖掘和分析出付費用戶流失的原因了以後, 需要採取對應的策略去減少流失的速度, 同時針對流失的用戶進行挽留和召回
how much: 在通過數據分析給出對應的策略的時候, 也需要幫助業務方去評估我們的策略大概需要的成本, 讓業務方知道這個策略的可行性以及價值
**3. 分析過程: **
(1) 不同用戶的流失週期比例分析, 大部分的羣體的流失週期還不是很長, 說明整體來說用戶的流失是最近剛發生的, 同時流失的週期不長, 說明我們有能力可以針對這部分的流失用戶利用策略進行挽留
(2)不同付費入口的拆解分析
對比付費的四個主要的入口, 分析每天的付費人數的走勢, 發現付費人數的減少主要集中在我的 tab 入口, 我的 tab 入口的付費降低的可能原因是什麼呢
這就需要拉上業務方一起去分析對應的原因, 比如是可能是這個位置的付費功能的具體流失的每一個環節的流失情況 (結合漏斗分析一起去看)
分析出我的 tab 頁面中 付費功能具體的流失環節, 然後再針對性的進行調整迭代
(3) 用戶特徵分析
這裏以年齡爲例, 分析流失的付費用戶的年齡特徵, 發現主要集中在 18 歲以下的未成年羣體, 這部分的用戶羣體爲什麼流失呢? 就需要結合用戶反饋等一起去看
除了年齡的角度, 我們還可以分析流失的用戶的性別特徵, 城市級別特徵, 活躍時長和活躍天數, 經常使用的功能等特徵
(4) 原因總結歸納
通過分析, 付費的用戶羣體主要原因是我的 tab 的付費功能引起的, 可能是具體的某個付費轉化環節出現問題
流失的用戶羣體主要是 18 歲以下, 男性, 三線城市爲主 (假設)
流失的用戶羣體活躍時長, 活躍次數, 活躍天數等沒有明顯下降
(5) 策略落地
這個環節需要和業務方反饋我們的數據分析結論, 然後結合產品的經驗以及用戶反饋以及調查問卷等方法進一步確定原因
如果確定好是我的 tab 中付費功能的某個環節出現問題, 就需要針對的進行改進, 同時上線小流量的 ab test 去驗證我們的策略是否有效
07
麥肯錫邏輯樹
邏輯樹又稱爲問題數,演繹樹或者分解樹,是麥肯錫公司提出的分析問題,解決問題的重要方法
首先它的形態像一顆樹,把已知的問題比作樹幹,然後考慮哪些問題或者任務與已知問題有關,將這些問題或子任務比作邏輯樹的樹枝,一個大的樹枝還可以繼續延續伸出更小的樹枝,逐步列出所有與已知問題相關聯的問題
總的來說, 邏輯樹滿足三個要素
要素化:把相同問題總結歸納成要素
框架化:將各個要素組織成框架,遵守不重不漏的原則
關聯化:框架內的各要素保持必要的相互關係,簡單而不孤立
邏輯樹的作用:
- 數據體系的搭建
數據體系的搭建中, 需要藉助邏輯樹的思路將業務的整體的目標結構化的進行拆解, 然後轉化成可以量化的數據指標, 再轉變爲指標體系。
舉個例子, 比如下面的 OSM 模型搭建數據體系的思路就是藉助了邏輯樹的思路
首先業務的整體目標是 提升表情的分發, 讓表情的溝通更有趣更簡單
通過邏輯樹分析法, 我們可以進行第一步的拆解, 就是把整體表情進行拆解爲提升表情發送數, 提升表情下載, 增加表情傳播
提高表情發送數主要是提升用戶的發送, 那麼就變成去提升用戶的發送, 那麼怎麼提升用戶的發送呢, 我們可以通過內容和功能維度去解答
在內容方面, 我們要做到我們的表情豐富度和有趣度和新穎度和表達度等等, 要讓用戶有發這個表情的慾望
除了表情本身, 在發表情功能上我們也要針對性的進行優化, 比如提高用戶查找表情的效率, 我們要去縮短查找表情的時間。
提升表情的下載, 也是同樣的內容和功能本身, 在功能方面, 我們涉及到怎麼把每個用戶喜歡的表情排在最前面, 因爲這樣用戶可以快速找到他們想要下載的表情.
另外, 也要通過功能的優化, 提升用戶進入到表情商店的比例, 從源頭上保證有足夠的用戶數都能夠進入到表情商店
在內容方面, 我們要保證表情商店的表情在豐富度和吸引用戶方面進行優化等等
提升表情的傳播, 也是需要在內容和功能上優化, 這就涉及到社交關係的傳播和表情的關係, 涉及除了要去引導用戶下載自己喜歡的, 還要去下載他和朋友共同喜歡的表情
這樣當 a 用戶發送了 a 和 a 的朋友 b 共同喜歡的表情 就可以得到更多的轉發
- 數據問題的分析
針對用戶訂單減少的問題的分析, 可以利用邏輯樹分析法, 定位到可能的流失原因, 再用數據驗證
比如某個電商平臺的訂單降低, 我們利用邏輯樹的拆解從地區, 用戶, 商品類型等多個維度去思考。
從地區的角度, 整體的訂單減少, 可以看一下是否是某個地區降低了, 可以細分到省, 市
從用戶的角度, 是否是哪一類的用戶的訂單在減少, 同時還可以區分不同活躍度的用戶在訂單上的表現, 看具體的原因猜想
從商品的角度, 可以區分一下不同品類的商品看是否是特定品類的商品訂單量跌了
邏輯樹分析法在 dau 中的應用:
**背景: **
某電商 app DAU 跌了, 需要分析爲什麼 dau 會跌, 這也是數據分析面試經典的問題, 在回答這個問題的時候, 爲了使得我們的答案具有結構化和條理化, 需要應用邏輯樹分析法
分析思路:
整體的分析思路如上,首先是拆分成外部和內部因素, 從最大的兩個思路去切入, 一般去分析這個問題的時候, 很容易就會忽略外部因素, 外部因素也是很重要的一部分
外部的思考主要是競品分析, 分析是否是競品的崛起導致一部分用戶轉移到他們那邊去了
外部的另外一個就是行業分析, 可以藉助 pest 等分析方法,分析這個行業的外部環境是否變得惡劣, 比如國家限制, 生活, 經濟, 政策, 政治等外部原因
假如外部沒有明顯的問題, 這才進入到內部因素的排查
內部的分析首先應該是時間因素, 因爲真正在工作實際中, 我們發現大多數的 dau 等數據指標有大幅度波動都是因爲節日引起的
所以有兩個判斷的方法, 假如這個 dau 只是環比跌的很厲害, 然而同比沒有明顯變化, 甚至可能比去年這個指標還是漲的, 那麼很大的概率可能就是節假日的影響
然後是用戶維度, 整體的 DAU= 新用戶 + 老用戶, 所以應該看這兩個部分的是哪一部分的用戶數減少
如果是新用戶減少, 因爲新用戶是從渠道通過廣告買量買過來的, 與這個數量相關的涉及到 渠道的質量, 買量的錢, 買完的一些承接運營活動
所以, 可以分開拆解看, 是否是渠道本身的質量問題, 比如騰訊廣點通, 頭條巨量, 看渠道本身在投放上起量是否是有問題的
同時也要看我們投放廣告的錢是否有減少這會直接影響到我們能拉多少的人, 預算直接決定了你的拉新絕對量的上限
拉取過來的用戶要保證活躍, 我們通常會有運營活動或其他策略的承接, 也就是業界說的拉承一體化, 所以我們要去分析是否是運營活動的效果或者其他策略的效果影響我們的承接, 導致這部分用戶的活躍度下降
除了新用戶的分析, 老用戶的分析也是非常重要的, 主要有常用的用戶畫像分析, 這部分可以參照 數據分析思維和方法—用戶畫像分析
主要是分析老用戶是否下降, 如果下降了分析這部分下降的用戶羣體具有什麼樣的畫像特徵, 這樣可以輸出一個下跌用戶的完整行爲和基礎屬性的洞察, 比如下降的用戶羣主要是 18 歲以下的未成年人等等
第三個是產品本身維度, 如果分析出是所有類型的用戶, 所有渠道的用戶都在跌, 那就可能是產品本身的功能引起的
我們需要去排查一下 dau 主要的功能模塊的組成的用戶, 去看一下這些功能的 dau 是否跌的, 一般如果沒有版本上線, 舊的功能的用戶波動是由於功能 bug 引起的
產品本身的排查比較麻煩, 因爲有可能定位某個功能的人數變少了但是不知道原因, 這時候可以藉助用戶反饋, 一般可以從用戶反饋上發現一些問題
08
漏斗分析法
漏斗分析是一種可以直觀地呈現用戶行爲步驟以及各步驟之間的轉化率,分析各個步驟之間的轉化率的分析方法
比如對應我們每一次在淘寶上的購物, 從打開淘寶 app, 到搜索產品, 到查看產品詳情, 到添加購物車, 到下單, 到成功交易, 漏斗分析就是幫助我們去計算每一個環節的轉化率
從打開淘寶 app 到搜索的轉化率, 從搜索產品到查看產品的詳情的轉化率,從查看產品到添加購物車的轉化率, 從添加購物車到下單的轉化率等等
漏斗分析的價值:
漏斗分析的價值主要有: 功能優化, 運營投放, 用戶流失等
**功能優化: **
以視頻製作工具爲例, 從下面我們可以明顯看出, 進入到上傳視頻的轉化率只有 80%, 可能是上傳入口不明顯, 上傳的引導不夠, 上傳功能的吸引程度不夠等原因引起的, 我們就可以去優化上傳功能
**運營投放: **
以運營投放類爲例, 在實際業務中經常會對一些定向的用戶投放一些活動, 讓他們參加活動, 比如針對遊戲的業務, 會定期針對潛在的付費用戶投放一批充值優惠大禮包活動
從下圖的觸達到參與的轉化率只有 62.5%, 說明我們選的定向的用戶可能對於我們的活動不是非常感興趣, 可能是這批用戶本身不是特別喜歡參與活動, 所以我們就可以重新選取其他可能更加可能響應的用戶來做定向推送
那麼怎麼選取最有可能參與活動的用戶呢, 這裏最簡單的就可以用用戶特徵分析的方法來, 我們可以分析出參與活動和不參與活動的特徵差異, 進行對比, 也就是採取對比的分析方法。
分析的結果就可以得到比如參與活動的用戶可能本身在過去的付費頻次上更好, 付費的金額更大, 並且在遊戲的平均時長, 平均的遊戲局數上更多, 年齡集中在 18 歲以下的羣體中
那麼我們就可以用這些特徵去圈定更多的用戶去做投放
另外一種去優化定向用戶提高參與率的方法就是去利用模型去提前預測好哪些用戶可能會參與活動, 可能使用的模型比如決策樹, 邏輯迴歸等分類模型
用戶流失:
以電商 app 淘寶爲例, 假如我們的訂單人數下降了, 這時候就需要梳理用戶購買鏈路, 把用戶從打開 app 到下單的所有的鏈路都梳理一遍, 然後利用漏斗分析, 計算每個環節的轉化率
假如我們梳理鏈路中發現, 從搜索商品到查看商品的轉化率很低, 那麼我們就需要看是否是很多搜索無結果, 或者是搜索中的結果很多用戶不太滿意, 導致用戶不買單
那就可以把電商的付費問題轉化爲搜索的問題, 從而又可以對搜索的整個轉化鏈路再做一次漏斗分析, 一步步的去定位問題
漏斗分析的作用:
在用戶增長的最出名的漏斗模型叫做 AARRR, 即從用戶獲取, 用戶激活, 用戶留存, 用戶付費到用戶傳播
以拼多多爲例, 以 AARRR 漏斗模型解析拼多多的用戶增長之路
- 用戶獲取
拼多多主要的目標羣體是三四線城市,這也屬於現有電商品臺比較空白的區域,對於三四線用戶來說,最好的吸引方案就是優惠。
而且三四線用戶時間充足,時間成本於他們而言是非常低的,而砍價也是一種慣常的方法,在他們的羣體中很少存在對貪小便宜歧視的問題,也沒有太多的社交壓力,甚至砍價可以變成一種聯繫的手段,砍價羣又何嘗不是一種交流。
他們也很樂意用時間和社交成本來換取更大的優惠。所以砍價這種優惠活動紅極一時,也幫助拼多多拉取了很多流量
砍價活動藉助微信朋友圈和微信羣的關係鏈, 成爲爆發式的轉發和增長, 一般親朋友不會拒絕你的要請砍一刀
2. 用戶激活
當拉到新用戶的時候, 就要保證最大程度的去激活他, 拼多多采取的做法也是跟拉新類似, 就是不斷用用戶的傳播去觸達好友
當一個用戶被其他朋友反覆觸達的時候, 自然而然就會去打開曾經下載過的 app,在其他朋友感受到拼多多百億補貼各種補貼各種優惠的真香的時候, 自己也會去嘗試
- 留存
爲了提高用戶的留存, 拼多多提供了一個簽到領取獎品的活動鼓勵用戶每天都打開 app 來簽到打卡, 簽到滿 XX 天就可以送你對應的商品禮物, 大大促進拼多多用戶羣體的薅羊毛的心理, 同時也提升了留存
除了這個活動拼多多里面還設置了不同的各種小活動, 滿足不同的用戶羣體的需要, 在玩小任務的過程中領取對應的獎勵
4. 用戶付費
拼多多以優惠券等的形式刺激用戶下單, 比如下面的下首單並賺 XX 元, 而且還不給你叉掉這個頁面的按鈕
還有就是非常出名的百億補貼, 直接用大額現金給用戶補貼, 這一個打法把一二線的用戶也被轉化了
還有就是 0 元下單的活動, 0 元免費下三單全額返還金額的活動
以及限時優惠限時秒殺, 9 快手特賣等都是促使用戶去下單等活動
頁面上也是各種 “”XX 已經拼單“” 等文字的提醒引導也是促進用戶下單
5. 用戶傳播
傳播主要依賴微信這個流量大平臺以及微信關係鏈, 朋友之間的傳播分爲, 有些東西是要轉發朋友纔可以領取現金以及拼單以及優惠, 在這些優惠面前, 轉發的成本變得很小
另外拼多多上是有一些真的實惠又好用的高性價比的商品, 這種的商品會引發朋友之間互相推薦
以上的一些原因, 拼多多的商品和玩法在朋友之前瘋狂流轉, 在傳播的過程中, 每個用戶都熟知了拼多多可以做到這麼實惠的玩法, 被觸達的用戶又會開始新的轉發, 從而引爆增長
社交網絡的增長是沒有盡頭的, 也是阻止不了的, 一代帝國的誕生
數據是風, 你們是風上閃爍的星羣
風中細數星羣, 一如那餘味纏繞的甘醇
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/dr14xiZdIOOZ8PXznpMsTw