导读
可预见的未来数据分析和机器学习将成为工作中必备技能,也许已经在某个项目中讨论怎么调参优化,就像过去讨论如何优雅的写python、如何避免C++内存泄露一样常见。
一、简单介绍聚类算法
1、聚类的定义
聚类就是对大量未知标注的数据集,按数据的内在相似性将数据集划分为多个类别,使类别内的数据相似度较大而类别间的数据相似度较小。
2、聚类的基本思想
给定一个有N个对象的数据集,构造数据的k个簇,k≤n。满足下列条件:
对于给定的类别数目k,首先给出初始划分,通过迭代改变样本和簇的隶属关系,使得每一次改进之后的划分方案都较前一次好。
3、相似度/距离计算方法总结
4、K-means算法
K-means算法也被称为k均值,k值的选择、距离度量及分类决策是三个基本要素。
假定输入样本为S=x1,x2,...,xm,则算法步骤为:
中止条件:
5、一个简单的例子
二、项目实战
某专项测试实际业务中,海量样本为同一病毒类型,如何落地为本地能力将是挑战,所有样本都处理工作量大且重复性高,只处理高热样本会落入长尾困境,如果能将N个样本通过特征聚类为K类,报毒覆盖K类则理论会达到覆盖整体的能力,无论效率和产品能力、自动化上都将有收益。
具体的思路如下:
1、数据清洗
PE文件结构和样本特征的关系:常用的恶意文件一般都是基于格式分析,从PE文件格式分析来提取文件特征符合业务特征
这里使用本人在filefuzz项目里封装的pe解析模块来处理,拉取某报毒类型样本5722个, 去除坏PE后解析出下列参数做为维度参数
NumberOfSections,SizeOfCode,BaseOfData,ImageBase,SizeOfImage,SizeOfHeaders ,IMAGE_DATA_DIRECTORY[16],IMAGE_DIRECTORY_ENTRY_IMPORT
2、特征提取
去重后导入函数为688,参数维度共711个。
处理前特征:
处理后特征:
3、聚类:K-means
使用pandas加载数据后填充缺失数据,通过特征分布可视化预处理参数观察数据分布。
数据加载
特征归一化
分割训练集和测试集:不同目标参数训练结果如下:
y=voice_data['NumberOfSections'].values+voice_data['SizeOfCode'].values
y=voice_data['NumberOfSections'].values+voice_data['SizeOfImage'].values
y = voice_data['NumberOfSections'].values, 此时目标参数区分度有效性最高,准确率也达到99%。
sklearn函数介绍:
train_test_split将给定数据集X和类别标签Y,按一定比例随机切分为训练集和测试集。
X_train,X_test,y_train,y_test =train_test_split(train_data,train_target,test_size=0.4, random_state=0)
train_data: 所要划分的样本特征集
train_target:所要划分的样本结果
test_size:样本占比
random_state:是随机数的种子。
http://scikit-learn.org/0.16/modules/generated/sklearn.cross_validation.train_test_split.html
cross_val_score交叉验证函数
scores = cross_val_score(clf, raw_data,raw_target, cv=5, score_func=None)
clf:表示不同分类器,例支持向量clf=svm.SVC(kernel=’linear’, C=1)
raw_data:原始数据
raw_target:原始类别标号
cv:不同的cross validation的方法
cross_val_score:不同划分raw_data在test_data得到分类的准确率。
http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.cross_val_score.html
代码简要:
4、特征验证
k个特征对k个子类编写特征验证通杀性,样本处理数量从4726下降到K类集合。
总结
通过对大量同质数据的聚类,对测试集合的覆盖度和效率都有显著收益,对长尾问题解决也提供了可行的思路方法。
参考:
http://scikit-learn.org/stable/
<<统计学习方法>>
<<计算机病毒防范艺术>>
<<机器学习>>
关注腾讯移动品质中心TMQ,获取更多测试干货!
版权所属,禁止转载!