分享一个超详细的数据分析案例【Python】附ABTest详细介绍

2022-08-18 10:15:26 浏览数 (1)

必须看的前言

本文全程干货,建议朋友们收藏后慢慢阅读!

另外,我主页上还有不少与ABTest和数据分析相关的博客,感兴趣的朋友可以再去看看,希望能给你带来收获!

一、ABTest

ABTest类似于以前的对比实验,是让组成成分相同(相似)的群组在同一时间维度下去随机的使用一个方案(方案A、或者B、C…),收集各组用户体验数据和业务数据,最后分析出哪个方案最好。

实现步骤

  1. 现状分析:分析业务数据,确定当前最关键的改进点。1. 假设建立:根据现状分析作出优化改进的假设,提出优化建议。1. 设定目标:设置主要目标,用来衡量各优化版本的优劣;设置辅助目标,用来评估优化版本对其他方面的影响。1. 设计开发:制作若干个优化版本的设计原型。1. 确定分流方案:使用各类ABTest平台分配流量。初始阶段,优化方案的流量设置可以较小,根据情况逐渐增加流量。注意分流时要尽可能做到没有区别。1. 采集数据:通过各大平台自身的数据收集系统自动采集数据。1. 分析ABTest结果:统计显著性达到95%或以上并且维持一段时间,实验可以结束;如果在95%以下,则可能需要延长测试时间;如果很长时间统计显著性不能达到95%甚至90%,则需要决定是否中止试验或重新设计方案。PS: 先说一下,这里的实现步骤并非权威步骤,不是一定要这么划分。

假设检验

要想充分搞懂ABTest,必须理解它的原理——假设检验。在一个设计适当的 ABTest中,处理 A 和处理 B 之间任何可观测到的差异,必定是由下面两个因素之一所导致的。

  • 分配对象中的随机可能性- 处理 A 和处理 B 之间的真实差异 假设检验是对 ABTest(或任何随机实验)的进一步分析,意在评估随机性是否可以合理地解释 A 组和 B 组之间观测到的差异。

这里需要介绍一下几个专业术语:

  • 零假设:完全归咎于偶然性的假设,即各个处理是等同的,并且组间差异完全是由偶然性所导致的。事实上,我们希望能证明零假设是错误的,并证明 A 和 B 结果之间的差异要比偶然性可能导致的差异更大。- 备择假设:与零假设相反,即实验者希望证实的假设。- 单向检验:在假设检验中,只从一个方向上计数偶然性结果。简单来讲就是最终只需判断大于或者只需判断小于。- 双向检验:在假设检验中,从正反两个方向上计数偶然性结果。假设检验的基本思想是“小概率事件”原理,其统计推断方法是带有某种概率性质的反证法。小概率思想是指小概率事件在一次试验中基本上不会发生。反证法思想是先提出检验假设,再用适当的统计方法,利用小概率原理,确定假设是否成立。对于不同的问题,检验的显著性水平α不一定相同,一般认为,事件发生的概率小于0.1、0.05或0.01等,即“小概率事件”。但是,如果说你犯下第一类错误(即拒绝正确的假设: H0)的成本越高,你的α值就要设置得越小。

接下来介绍假设检验的基本步骤

  1. 提出零假设和备择假设;1. 根据备择假设确定检验方向;简单来说含有不等号的是双向检验,反之则是单向检验;1. 选定统计方法。根据资料的类型和特点,可分别选用Z检验、T检验,秩和检验和卡方检验等;1. 选定显著性水平α。但记住判断结论时不能绝对化,应注意无论接受或拒绝检验假设,都有判断错误的可能性。

如何判断一个样本统计量符合什么分布?

如何选定统计方法?那就得判断你的样本统计量符合什么分布了。

上图就是判断一个样本统计量符合什么分布的流程图,非常nice!

下面呢,则是关于Z分布,T分布,卡方分布的简单了解,其中注意考虑多个总体问题时如何计算处理。

接下来再看一下这几种分布的概率密度分布图。

可以看出,T分布与标准正态分布(Z分布)都是以0为对称的分布,T分布的方差大所以分布形态更扁平些。

不同分布的拒绝域

对称型(Z分布、t分布)

双侧检验:

单侧检验:

非对称型(卡方分布、F分布)

卡方分布:

拒绝域:

(卡方分布在左侧的拒绝域特别小,所以拒绝的区间的值也比较少),所以卡方检验的拒绝域一般 放在右侧。F分布同理。

二、项目实战

数据介绍: 从支付宝的两个营销活动中收集的真实数据集。该数据集包含支付宝中的两个商业定位活动日志。由于隐私问题,数据被采样和脱敏。虽然该数据集的统计结果与支付宝的实际规模有偏差,但不影响解决方案的适用性。

主要提供了三个数据集:

  • emb_tb_2.csv: 用户特征数据集。- effect_tb.csv: 广告点击情况数据集。- seed_cand_tb.csv: 用户类型数据集。本分析报告的主要使用广告点击情况数据,涉及字段如下:
  • dmp_id:营销策略编号(这里我们这么设置1为对照组,2为营销策略一,3为营销策略二)。- user_id:支付宝用户ID。- label:用户当天是否点击活动广告(0:未点击,1:点击)。接下来正式开始实战。

1 数据预处理

代码语言:javascript复制
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

%matplotlib inline

data = pd.read_csv('effect_tb.csv',header = None)
data.columns = ['dt','user_id','label','dmp_id']  # 文件中没有字段名
# 日志天数属性用不上,删除该列
data = data.drop(columns='dt')
data

代码语言:javascript复制
data.info(null_counts = True)

查看数据统计情况,主要是看dmp_id。

代码语言:javascript复制
data.describe()

接下来查看数据重复情况。

代码语言:javascript复制
data[data.duplicated(keep = False)]

存在重复项,需要进行去重。

代码语言:javascript复制
data = data.drop_duplicates()

# 检查是否还有重复项
data[data.duplicated(keep = False)]

从先前操作已知数据类型正常,接下来利用透视表来看各属性是否存在不合理情况。

代码语言:javascript复制
data.pivot_table(index = 'dmp_id',columns = 'label',values = 'user_id',aggfunc = 'count') 

从以上看出属性字段无异常取值,无需进行处理。

2 样本容量检验

在进行ABTest前,需检查样本容量是否满足试验所需最小值。

这里需要借助样本量计算工具:

首先需要设定点击率基准线以及最小提升比例,我们将对照组的点击率设为基准线。

代码语言:javascript复制
data[data["dmp_id"] == 1]["label"].mean()

对照组的点击率为1.26%,假设我们希望新的营销策略能够让广告点击率至少提升一个百分点,则算得所需最小样本量为2167。

代码语言:javascript复制
data["dmp_id"].value_counts()

可得411107和316205远大于2167,满足最小样本量需求。

3 假设检验

我们先查看一下这三种营销策略的点击率情况。

代码语言:javascript复制
print("对照组: " ,data[data["dmp_id"] == 1]["label"].describe())
print("策略一: " ,data[data["dmp_id"] == 2]["label"].describe())
print("策略二: " ,data[data["dmp_id"] == 3]["label"].describe())

可以看到策略一和策略二相比对照组在点击率上都有不同程度的提升。

其中策略一提升0.2个百分点,策略二提升1.3个百分点,只有策略二满足了前面我们对点击率提升最小值的要求。

接下来需要进行假设检验,看策略二点击率的提升是否显著。

3.1 提出零假设和备择假设

3.2 确定检验方向

由备择假设可以看出,检验方向为单项检验(左)。

3.3 选定统计方法

3.3.1 方法一:公式计算
代码语言:javascript复制
# 用户数
n1 = len(data[data.dmp_id == 1])  # 对照组
n2 = len(data[data.dmp_id == 3])  # 策略二

# 点击数
c1 = len(data[data.dmp_id ==1][data.label == 1])
c2 = len(data[data.dmp_id ==3][data.label == 1])

# 计算点击率
p1 = c1 / n1
p2 = c2 / n2

# 总和点击率(点击率的联合估计)
pc = (c1   c2) / (n1   n2)

print("总和点击率pc:", pc)

代码语言:javascript复制
# 计算检验统计量z
z = (p1 - p2) / np.sqrt(pc * (1 - pc)*(1/n1   1/n2))

print("检验统计量z:", z)

代码语言:javascript复制
# 合并标准差
std1 = data[data.dmp_id ==1].label.std()
std2 = data[data.dmp_id ==3].label.std()
s = np.sqrt(((n1 - 1)* std1**2   (n2 - 1)* std2**2 ) / (n1   n2 - 2))
# 效应量Cohen's d
d = (p1 - p2) / s
print('Cohen's d为:', d)

3.3.2 方法二:Python函数计算
代码语言:javascript复制
import statsmodels.stats.proportion as sp
# alternative='smaller'代表左尾
z_score, p = sp.proportions_ztest([c1, c2], [n1,n2], alternative = "smaller")
print("检验统计量z:",z_score,",p值:", p)

用p值判断与用检验统计量z判断是等效的,这里p值为0,同样也拒绝零假设。

至此,我们可以给出报告:

  • 对照组的点击率为:0.0126,标准差为:0.11- 策略二的点击率为:0.0262,标准差为:0.16- 独立样本z=-59.44,p=0,单尾检验(左),拒绝零假设。- 效应量Cohen’s d= -0.11,较小。根据前面案例,我们用的是两个比率的z检验函数proportion.proportions_ztest,输入的是两组各自的总数和点击率;如果是一般性的z检验,可以用weightstats.ztest函数,直接输入两组的具体数值,可参考
代码语言:javascript复制
import statsmodels.stats.weightstats as sw
z_score1, p_value1 = sw.ztest(data[data.dmp_id ==1].label, data[data.dmp_id ==3].label, alternative='smaller')
print('检验统计量z:', z_score1, ',p值:', p_value1)

可以看到计算结果很接近,但是有点差异。因为非比率的z检验是不计算联合估计的。

作为补充,我们再检验下策略一的点击率提升是否显著。

代码语言:javascript复制
z_score, p = sp.proportions_ztest([c1, len(data[data.dmp_id ==2][data.label == 1])],[n1, len(data[data.dmp_id ==2])], alternative = "smaller")
print('检验统计量Z:',z_score,',p值:',p)

p值约为 7.450121742737582e-46,p<α,但是因为前面我们设置了对点击率提升的最小要求(1%),这里仍然只选择第二组策略进行推广。

3.3.3 方法三:蒙特卡洛法模拟

蒙特卡洛法其实就是模拟法,用计算机模拟多次抽样,获得分布。

在零假设成立(p1>=p2)的前提下, p1=p2 为临界情况(即零假设中最接近备择假设的情况)。如果连相等的情况都能拒绝,那么零假设的剩下部分( p1>p2)就更能够拒绝了。

定义effect_tb.csv中样本的总点击率为 p_all:

代码语言:javascript复制
p_all = data.label.mean()
print('p_all:', p_all)

我们进行一次模拟,以 p_all 为对照组和策略二共同的点击率,即取p_old=p_new=p_all,分别进行n_old次和n_new次二点分布的抽样,使模拟的样本大小同effect_tb.csv中的样本大小相同:

代码语言:javascript复制
choice1 = np.random.choice(2, size=n1, p=[1-p_all, p_all])
choice2 = np.random.choice(2, size=n2, p=[1-p_all, p_all])
diff = choice1.mean() - choice2.mean()
print('对照组结果:', choice1, ',策略二结果:', choice2, ',模拟的转化率差值:', diff)

因为是随机抽样,所以每次模拟的点击率差值也是不同的,多运行几次就会发现,我们模拟出的结果很难比effect_tb.csv中样本的点击率差值更小,这说明了什么?

代码语言:javascript复制
# 计算effect_tb.csv样本的点击率差值
data_diff = data[data["dmp_id"] == 1]["label"].mean()-data[data["dmp_id"] == 3]["label"].mean()
print('effect_tb.csv样本的点击率差值:', data_diff)

按照如上方式进行多次模拟,这里我们进行10000次,并计算出每个样本得到的策略点击率差值,将其存储在diffs中:

代码语言:javascript复制
diffs=[]
for i in range(10000):
    p2_diff = np.random.choice(2,size=n2,p=[1-p_all,p_all]).mean()
    p1_diff = np.random.choice(2,size=n1,p=[1-p_all,p_all]).mean()
    diffs.append(p1_diff - p2_diff)

实际上每次模拟都得到了一个大小为316205的样本,此处得到了10000个样本。在图上将模拟得到的diffs绘制为直方图,将effect_tb.csv中样本的点击率差值绘制为竖线:

代码语言:javascript复制
diffs = np.array(diffs)
plt.hist(diffs)
plt.axvline(data_diff)

在diffs列表的数值中,有多大比例小于effect_tb.csv中观察到的点击率率差值?

代码语言:javascript复制
(diffs &lt; data_diff).mean()

本次方法得到的答案是0,和方法二中的P值接近(一样)。

上图的含义是,在p_old=p_new时,进行10000次模拟得到的差值中,0%的可能比effect_tb.csv中的差值更极端,说明effect_tb.csv在p_old=p_new的前提是很小概率(这次是0概率)事件。反过来说,我们只做了一次ABTest就得到了零假设中的极端情况,则零假设很有可能是不成立的。

  • 现在图中的直方图是,若对照组和策略二的点击率相等,随机10000次,两者的差值的分布。- 因为次数够多,根据大数定律,近似于真实的分布。- 越靠近中间的部分,说明该数值出现的次数越多,越靠近两侧,说明该数值出现的越少,也可以说情况就越极端。- 竖线是样本effect_tb.csv的差值所在位置,它落在了很左侧,体现在竖线左侧的面积(这次为0)很小。- 竖线左侧的面积占比,即发生“竖线及竖线左侧极端情况”(diff<=-0.014)的可能性。- 也就是说,effect_tb.csv这个样本,在对照组和策略二点击率相等的情况下,有可能出现,但出现的可能性很小(这次为0)。- 所以反推出,对照组和策略二的点击率很有可能不相等。思考:

若diffs的分布就是标准正态(这里只是近似),则竖线左侧的面积占比其实就是p值(左侧or右侧or双侧要根据备择假设给定的方向),那p值到底要多小才算真的小?

这需要我们自己给定一个标准,这个标准其实就是 α,是犯第一类错误的上界,常见的取值有0.1、0.05、0.01。

  • 所谓第一类错误,即拒真错误,也就是零假设为真,我们却拒绝了。所以要取定一个 α ,并规定当p值小于 α 时,认为原假设在该显著性水平下被拒绝。- 还有第二类错误——取伪,即零假设明明是错的,但是我们保留了零假设。拒真的可能性越小,则取伪的可能性越大。所以不能一味地取极小的α 。

4 结论

通过三种方法的计算得出,在两种营销策略中,策略二对广告点击率有显著提升效果,且相较于对照组点击率提升了近一倍,因而在两组营销策略中应选择第二组进行推广。

参考鸣谢: 《面对数据科学家的实用统计学》

csv

0 人点赞