写在前面
这一部分主要介绍的是因果推断方向的基础方法,后面会对这个方向前沿的论文和方向做一些基础介绍,这些论文和方法有些我进行了精读或者实现。
有些只是粗略地了解了大概的主旨,但是会力求讲解得尽量清楚明白,这里的介绍不分先后,只是对不同方法进行介绍,不同领域在早期和近期都有相关新论文出现,有任何问题和建议欢迎评论和私聊。
meta learning
这个方向使用基础的机器学习方法去首先estimate the conditional mean outcome e[y|x = x](cate),然后 derive the cate estimator based on the difference of results obtained from step 1,我们常见的uplift model里面one model和two model方法其实也是属于meta learning,在这个领域one model方法是所谓的s-learner,two model方法是所谓的t-learner
t-learner & s-learner
这里不多赘述这两种方法,简单来讲,t-learner就是用分别的两个base learner去模拟干预组的outcome和非干预组的outcome,优点在于能够很好地区分干预组和非干预组,缺点则在于容易出现两个模型的bias方向不一致,形成误差累积。
使用时需要针对两个模型打分分布做一定校准,s-learner是将treatment作为特征,干预组和非干预组一起训练,解决了bias不一致的问题,但是如果本身x的high dimension可能会导致treatment丢失效果。而且这两种方法更偏向于naive的方法,很多其他的问题比如干预组和非干预组样本不均衡的问题、selection bias的问题都未解决。
2. x-learner
在这两种方法的基础之上还有《metalearners for estimating heterogeneous treatment effects using machine learning pnas.org/content/116/10》这篇论文中介绍的x-learner
首先跟t-learner一样,用base learner去预估干预组和非干预组的response
然后定义
这里d的定义为response的预估值和实际值的差值,然后我们用一个estimator去预估这里的d,最终我们的cate就是这两个预估出来的τ的加权和。
论文中用图来解释了这么做的原因,如下:
如上图所示,如果我们的干预组和非干预组样本数量不均衡,如图a的蓝色,那么在预估蓝色的base learner时会出现无法拟合到中间上凸部分的情况,最终得到的treatment effect就是在中间部分下凸的结果。
但是如果我们使用了imputed treatment effect,会得到c中虚线的均衡结果。
论文中还提到了自己的实验,实验效果总结来看,如果treat和不treat的数据量差别比较大的时候,x learner效果特别好,但是如果cate接近0的时候,x learner效果不如s learner,比t learner好,make sense的。
3. 总结性论文
meta learning的方法有非常多,这里只是提到较为经典的三种,其他meta learning的方法比如r-learner有点老了,这里不再介绍,在《transfer learning for estimating causal effects using neural networks arxiv.org/abs/1808.0780》中比较有意思的是提到了很多方法的方案。
包括传统艺能s-learner,t-learner,x-learner和比如warm start t-learner、joint training等等,有兴趣可以看看。
representation learning
表示学习对于因果推断其实算是非常自然的想法,本身由于selection bias的存在,导致treament group和control group的人群自带偏差,而类似s-learner的方法又会使得treat的作用丢失,那么将人群embedding中并尽可能消除bias和保存treat的作用就非常重要了。
bnn & blr
比较经典的论文有bnn、blr《learning representations for counterfactual inference arxiv.org/abs/1605.0366》,整体的算法如图:
其中b指的是loss:
loss包含了三部分:事实数据的误差+和与i最近的j的反事实数据的误差和事实数据+反事实数据的分布差异,那我们是怎么学习φ的呢?
一个方法是对于特征进行选择blr,在embedding层只有一层,更加白盒,相当于特征筛选,只保留在treatment group和control group差距较小的特征。
另一个方法是深度的方法bnn,embedding后整体的loss加入分布的差异。
2. tarnet
与这篇论文很相似的论文包括tarnet《estimating individual treatment effect:generalization bounds and algorithms arxiv.org/abs/1606.0397》,这篇文章整体的思路跟bnn那篇有点像,说到了bnn那篇的问题。
这里面讲了blr的两个缺点,首先它需要一个两步的优化(优化φ和优化y),其次如果如果φ的维度很高的话,t的重要性会被忽略掉,挺有道理的,但感觉跟那篇唯一的区别就是解决了一下treat和control组的sample数量不均衡的问题,所以火速看了一下就过了
loss的计算为:
可以看出是在上篇论文的基础上增加了ω的加权,去除了样本不均衡的问题。整体的算法步骤如下:
把两步走的优化变为了同时优化,虽然优化看起来比较微小,但如果大家实际跑一下ihdp数据集的话会发现提升还是挺明显的。
3. cfr
还有一篇论文是在tarnet之上进行优化的,《counter factual regression with importance sampling weights https://www.ijcai.org/proceedings/2019/0815.pdf》而本文的改进点也在ω上,不除以p(t),而是用一个网络学习了p(t|x),除以p(t|x)
作者将其简化为
可以用任何的网络去拟合第二项,整体的过程为:
4. ace
还有一篇论文讲到了另一个角度《adaptively similarity-preserved representation learning for individual treatment effect estimation cs.virginia.edu/~mh6ck/》
这篇主要的思想希望在representation之后能够尽可能地保留local similarity,用一个toy example来说如下:
整体的框架如图:fprop(x)是提前训练好的倾向性得分function
整体希望representation之前用x计算出倾向性得分相近的两个个体,representation之后,representation之间的距离还是相近,把最重要的部分贴下来如下:
其中q是ri和rj的联合概率(r是representation),p是xi和xj的联合概率,similarity preserving loss就是q和p的kl散度,其中s的函数如下:
整体的loss包括正常的imbalance loss:
factual y的分类或者回归loss:
还有similarity preserving loss,总的loss function就是:
5. site
还有一篇比较类似思想的论文是site《representation learning for treatment effect estimation from observational data papers.nips.cc/paper/75》但这篇论文我没有非常认真地读,来自nips,也是非常经典的一篇,说的主要是普通的representation learning的方法考虑了全局的分布信息。
但是没有考虑用户间的局部相似性,然后knn的方法考虑了局部相似性,但是忽略了全局信息,这里面用了三元triplet pairs的方法选择三个对,用的是倾向性得分,倾向性得分在中间的一对,倾向性得分接近1的treat unit,倾向性得分接近0的control group,有兴趣的同学可以自己看一下。
高效率、高压、降压型DC-DC转换器MAX5033
CTO说了,如果发现谁用kill -9关闭程序就开除
常见目标检测算法大汇总
通过卡固定器表征热性能
揭秘别克昂科拉的五星安全背后的故事
全面介绍因果推断方向的基础方法
介绍Autosar网络管理NM和其他模块之间的对应关系
摩拜入局电单车领域,实现共享充电宝+共享单车合体
openharmony协议 OpenHarmony 社区地址
建立人工智能助理应用程序是怎样的过程
细看核心网的演变过程(RCAF,PFDF和TSSF)
港交所:12月7日将推出中芯国际、阿里健康等股票期权
华硕天选系列笔记本有什么短板?
诺基亚9.3 PureView或将推迟到明年上半年上市
贸易战持续升级 连接器关税压力加大?华强芯城连接器2000+型号直击底价
TDA2030型立体声功率放大器
如何检测和防止变压器局部放电?
利用非隔离总线转换器提高设计性能与降低成本
英飞凌试用Archetype AI新AI开发者模型,以加强AI传感器解决方案创新
电装为何要向空中汽车发起挑战?