机器学习之一:聚类实战

2018-07-27 10:46:26 浏览数 (1)

导读

可预见的未来数据分析和机器学习将成为工作中必备技能,也许已经在某个项目中讨论怎么调参优化,就像过去讨论如何优雅的写python、如何避免C 内存泄露一样常见。

一、简单介绍聚类算法

1、聚类的定义

聚类就是对大量未知标注的数据集,按数据的内在相似性将数据集划分为多个类别,使类别内的数据相似度较大而类别间的数据相似度较小。

2、聚类的基本思想

给定一个有N个对象的数据集,构造数据的k个簇,k≤n。满足下列条件:

  • 每一个簇至少包含一个对象;
  • 每一个对象属于且仅属于一个簇;
  • 将满足上述条件的k个簇称作一个合理划分。

对于给定的类别数目k,首先给出初始划分,通过迭代改变样本和簇的隶属关系,使得每一次改进之后的划分方案都较前一次好。

3、相似度/距离计算方法总结

4、K-means算法

K-means算法也被称为k均值,k值的选择、距离度量及分类决策是三个基本要素。

假定输入样本为S=x1,x2,...,xm,则算法步骤为:

  • 选择初始的k个类别中心μ1μ2…μk;
  • 对于每个样本xi,将其标记为距离类别中心最近的类别;
  • 将每个类别中心更新为隶属该类别的所有样本的均值;
  • 重复最后两步,直到类别中心的变化小于某阈值。

中止条件:

  • 迭代次数/簇中心变化率/最小平方误差MSE(MinimumSquared Error)

5、一个简单的例子

二、项目实战

某专项测试实际业务中,海量样本为同一病毒类型,如何落地为本地能力将是挑战,所有样本都处理工作量大且重复性高,只处理高热样本会落入长尾困境,如果能将N个样本通过特征聚类为K类,报毒覆盖K类则理论会达到覆盖整体的能力,无论效率和产品能力、自动化上都将有收益。

具体的思路如下:

  • 数据清洗:提取相同病毒名的文件
  • 特征提取:提取多维度文件静态特征
  • 聚类:K-means,目标聚类覆盖该类型病毒特征
  • 特征验证:k个特征对k个子编写特征验证通杀性
  • 工具包:NumPy、SkiPy、 Pandas、Skikit-Learn

1、数据清洗

PE文件结构和样本特征的关系:常用的恶意文件一般都是基于格式分析,从PE文件格式分析来提取文件特征符合业务特征

这里使用本人在filefuzz项目里封装的pe解析模块来处理,拉取某报毒类型样本5722个, 去除坏PE后解析出下列参数做为维度参数

NumberOfSections,SizeOfCode,BaseOfData,ImageBase,SizeOfImage,SizeOfHeaders ,IMAGE_DATA_DIRECTORY[16],IMAGE_DIRECTORY_ENTRY_IMPORT

2、特征提取

去重后导入函数为688,参数维度共711个。

处理前特征:

处理后特征:

3、聚类:K-means

使用pandas加载数据后填充缺失数据,通过特征分布可视化预处理参数观察数据分布。

数据加载

特征归一化

分割训练集和测试集:不同目标参数训练结果如下:

y=voice_data['NumberOfSections'].values voice_data['SizeOfCode'].values

y=voice_data['NumberOfSections'].values voice_data['SizeOfImage'].values

y = voice_data['NumberOfSections'].values, 此时目标参数区分度有效性最高,准确率也达到99%。

sklearn函数介绍

train_test_split将给定数据集X和类别标签Y,按一定比例随机切分为训练集和测试集。

X_train,X_test,y_train,y_test =train_test_split(train_data,train_target,test_size=0.4, random_state=0)

train_data:  所要划分的样本特征集

train_target:所要划分的样本结果

test_size:样本占比  

random_state:是随机数的种子。

http://scikit-learn.org/0.16/modules/generated/sklearn.cross_validation.train_test_split.html

cross_val_score交叉验证函数

scores = cross_val_score(clf, raw_data,raw_target, cv=5, score_func=None)

clf:表示不同分类器,例支持向量clf=svm.SVC(kernel=’linear’, C=1)

raw_data:原始数据

raw_target:原始类别标号

cv:不同的cross validation的方法

cross_val_score:不同划分raw_data在test_data得到分类的准确率。

http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.cross_val_score.html

代码简要:

4、特征验证

k个特征对k个子类编写特征验证通杀性,样本处理数量从4726下降到K类集合。

总结

通过对大量同质数据的聚类,对测试集合的覆盖度和效率都有显著收益,对长尾问题解决也提供了可行的思路方法。

参考:

http://scikit-learn.org/stable/

<<统计学习方法>>

<<计算机病毒防范艺术>>

<<机器学习>>

关注腾讯移动品质中心TMQ,获取更多测试干货!

版权所属,禁止转载!

0 人点赞