> 经常听别人说 Python 在数据领域有多厉害,结果学了很长时间,连数据处理都麻烦得要死。后来才发现,原来不是 Python 数据处理厉害,而是他有数据分析神器—— pandas
前言
匹配查找是数据处理中经常出现的场景,如果懂点 Excel 的,基本都会 vlookup 这公式,今天我们来看看 pandas 中是怎么做到 vlookup 一样的效果,并且是懒人模式的匹配。
本文结构:
- - 正常匹配(自带懒人模式)
- - 当数据源关键列有重复时,pandas 提醒模式(Excel 中你不会知道数据有问题)
- - 有时候需求真的有重复数据,看看怎么匹配重复中指定条件的记录
- - DIY 一个自己风格的 vlookup
数据
这次不再展示 Excel 功能了,vlookup 谁不会呢。直接看实战。
数据长这个样子:
比 vlookup 还要智能?
pandas 中有多种数据配对实现方式,其中最像 Excel vlookup 公式的,就属 merge。
"根据名字找出其他信息":
- - 前2句只是加载数据
- - 核心就一句,待匹配表.merge(数据源,how='left')
- - What!我还没说用哪一列找啊。pandas 会自动识别匹配表与数据源的列,有交集的自动识别为匹配依据
看看,假如"待匹配"有 部门 与 收入,反过来找 名字 与性别:
- - 代码其实没有变化,懒人模式嘛,有哪些列可以在数据源那边找到,就自动帮你搞定
潜在的问题
实际上,merge 是按照数据库的关系连接进行设计的,其中"笛卡尔积"是其中的核心逻辑。说白了就是当右表出现重复匹配时,会默认返回所有记录(毕竟不能丢失数据嘛)。
看看如下例子:
- - 与之前一样的代码,只是匹配数据只有部门列
- - 现在结果就与 vlookup 不一样了,这是因为数据源有多行记录可以匹配到,因此会把匹配结果都返回
看起来效果还不错呢。但是,有时候我们会无意中跌入陷阱。
看看数据:
- - 现在还是用名字匹配信息
- - 但是数据源中,第一行的人名在其他部门也存在
看看匹配执行结果:
- - 代码仍然是一样
- - 结果却多了一笔记录
> 这就是为什么写 Sql 关联多表时,我们都会很小心考虑表之间的颗粒度。
> tips:在专栏第9节有详细讲解关于数据颗粒度的理解与实战场景
既然 pandas 的 merge 方法是按照关系数据库表连接设计的,那么自然有数据库中的"关系验证"功能:
- - merge 设置参数 validate='1:1' ,表示1对1关系(匹配表1条记录只能匹配数据源表1条记录)
- - 现在,再次执行匹配,pandas 报错,明确告诉你,右表有重复记录
> 还有其他的验证关系,比如:'1:m','m:1','m:m'
身不由己
有时候需求就是要在重复数据中匹配某一条符合条件的记录。但是,pandas 中的 merge 是不会提供这样的功能。因为 pandas 中处理数据非常简单灵活,把数据源按要求处理规范是非常简单。下面看看例子。
"匹配时间最晚的人员信息":
- - 先把数据源按要求得到最后更新的记录即可
> 跟着专栏学习的同学应该都能理解,这里不展开讲解
我们可以用 Python 的基本知识即可对这些逻辑进行封装。
"匹配收入最小的人员信息":
自定义
如果不希望每次都写 merge 的各种参数,我们也可以自定义一个 vlookup 方法,把 merge 调用细节隐藏起来。
用上一个例子的数据。
"根据名字匹配信息,重复时,使用平价收入作为返回":
- - 上图2个核心处理都直接使用自定义的方法
- - 现在,已经不需要分组与连接表的知识,也能轻松得到复杂的匹配需求了
总结
- - DataFrame.merge() ,2表连接
- - 参数 on 指定匹配关键列
- - 参数 validate 可对表关系进行验证
- - 参数 how 可指定连接方式,常用的关系都有