分享

利用CNN进行中文垃圾邮件检测详解


问题导读


1.神经网络是什么?
2.如何将CNN运用到文本处理?
3.CNN网络是怎么实现的?
4.怎样实现中文垃圾邮件检测




文本分类任务是一个经久不衰的课题,其应用包括垃圾邮件检测、情感分析等。
传统机器学习的做法是先进行特征工程,构建出特征向量后,再将特征向量输入各种分类模型(贝叶斯、SVM、神经网络等)进行分类。
随着深度学习的发展以及RNN、CNN的陆续出现,特征向量的构建将会由网络自动完成,因此我们只要将文本的向量表示输入到网络中就能够完成自动完成特征的构建与分类过程。

就分类任务而言,CNN比RNN更为合适。CNN目前在图像处理方向应用最为广泛,在文本处理上也有一些的应用。本文将参考Denny Britz的WILDML教程 IMPLEMENTING A CNN FOR TEXT CLASSIFICATION IN TENSORFLOW 来设计一个简单的CNN,并将其应用于中文垃圾邮件检测任务。

1 预备知识
1.1 神经网络基础知识
如果你对深度学习或RNN、CNN等神经网络并不太熟悉,请先移步至这里寻找相关文章进行精读,这个博主写的每一篇文章都很好,由浅至深,非常适合入门。

1.2 如何将CNN运用到文本处理
1.3 CNN网络结构和实现方法(必读)
此博文中的CNN网络结构和实现方法绝大部分是参考了 IMPLEMENTING A CNN FOR TEXT CLASSIFICATION IN TENSORFLOW 这篇文章的,CNN的结构和实现细节在这篇文章均有详述,在此我就不运相同的内容了,在请务必精读这篇文章。

2 训练数据

2.1 中文垃圾邮件数据集
说明:对TREC06C进行了简单的清洗得到,以utf-8格式存储
下载地址:百度网盘

2.2 垃圾邮件
spam_5000.utf8
[mw_shl_code=bash,false]有情之人,天天是节。一句寒暖,一线相喧;一句叮咛,一笺相传;一份相思, 一心相盼;一份爱意,一生相恋。 搜寻201:::http://201.855.com 在此祝大家七夕情人快乐! 搜寻201友情提示::: 2005年七夕情人节:8月11日――别忘了给她(他)送祝福哦!
我司是一家实业贸易定税企业;有余额票向外开 费用相对较低,此操作方式可以为贵公司(工厂) 节约部分税金。 公司本着互利互惠的原则,真诚期待你的来电!!! 联系: 王生   TEL: --13528886061
本公司有部分普通发票增值税发票及海关代征增值税专用缴款书及其它服务行业发票, 公路、内河运输发票。可以以低税率为贵公司代开,本公司具有内、外贸生意实力,保证我司开具的票据的真实性。 希望可以合作!共同发展!敬侯您的来电洽谈、咨询! 联系人:李先生      联系电话:13632588281 如有打扰望谅解,祝商琪。
来京记得找我啊 我社为您提供优惠的旅游价格,如酒店、机票、火车票、北京地接 在线咨询:QQ:305652179,欢迎您留言 MSN:yezikao8855@hotmail.com 邮件回复:yezikao8855@163.com 这是一封广告信,由此给您带来不变请谅解 2005-8-19
......[/mw_shl_code]
共5000行,每一行对应一封邮件

2.3 正常邮件
ham_5000.utf8
[mw_shl_code=bash,false]讲的是孔子后人的故事。一个老领导回到家乡,跟儿子感情不和,跟贪财的孙子孔为本和睦。 老领导的弟弟魏宗万是赶马车的。 有个洋妞大概是考察民俗的,在他们家过年。 孔为本总想出国,被爷爷教育了。 最后,一家人基本和解。 顺便问另一类电影,北京青年电影制片厂的。中越战背景。一军人被介绍了一个对象,去相亲。女方是军队医院的护士,犹豫不决,总是在回忆战场上负伤的男友,好像还没死。最后 男方表示理解,归队了。
不至于吧,离开这个破公司就没有课题可以做了? 谢谢大家的关心,她昨天晚上睡的很好。MM她自己已经想好了。见机行事吧,拿到相关的能出来做论文的材料,就马上辞职。 唉!看看吧,说不定还要各为XDJM帮出出找工作的主意呢。MM学通信的,哈尔滨工程大学的研究生,不想在哈碌碌无为的做设计,因此才出来的。先谢谢了啊。!!! 本人语文不好,没加标点。辛苦那些看不懂的XDJM么了。
生一个玩玩,不好玩了就送人 第一,你要知道,你们恋爱前,你爹妈对她是毫无意义的。没道理你爹妈就要求她生孩子,她就得听话。换句话说,你岳父母要未来孩子跟妈姓,你做的到吗?夫妻是平等的。如果你没办法答应岳父母,她干吗答应你爹妈呢? 第二,有了孩子你养不养的起?不是说想生就生,图你爹妈一个高兴,如果没有房子,没有充足的财力,生孩子只会带给你们更多的困难,生小孩容易,养小孩难啊。
微软中国研发啥?本地化? 新浪科技讯 8月24日晚10点,微软中国对外宣布说,在2006财年(2005年7月-2006年6月),公司将在中国招聘约800名新员工。 其中,一半以上的新聘人员将为研发人员,其他将是销售、市场和服务人员。同时,有近300个职位将面向新毕业的大学本科生、硕士研究生、MBA和博士生。 在2005财年,微软在中国的业务取得了骄人成绩,成为微软全球增长速度最快的子公司之一。
......[/mw_shl_code]
共5000行,每一行对应一封邮件

3 预处理

3.1 输入
  • 上述两个文件 ( spam_5000.utf8 ham_5000.utf8)
  • embedding_dim (word embedding的维度, 即用多少维度的向量来表示一个单词)

3.2 输出:
  • max_document_length (最长的邮件所包含的单词个数)
  • x (所有邮件的向量表示, 维度为[所有邮件个数,max_doument_length, embedding_dim])
  • y (所有邮件对应的标签,[0, 1]表示正常邮件,[1, 0]表示垃圾邮件,y的维度为[所有邮件个数, 2])

3.3 主要流程:
  • 3.3.1 过滤字符
    为了分词的方便,示例程序中去除了所有的非中文字符,你也可以选择保留标点符号,英文字符,数字等其他字符,但要在分词时进行一定的特殊处理
  • 3.3.2 分词
    为了训练Word2Vec 模型,需要先对训练文本进行分词。这里为了方便起见,直接对每个中文字符进行分隔,即最后训练处的word2vec 的向量是对字的embedding, 效果也比较不错
  • 3.3.3 对齐
    为了加快网络的训练过程,需要进行批量计算,因此输入的训练样本需要进行对齐(padding)操作,使得其维度一致。这里的对齐就是把所有的邮件长度增加到max_document_length (最长的邮件所包含的单词个数),空白的位置用一个指定单词进行填充(示例程序中用的填充单词为”PADDING”)
  • 3.3.4 训练word2vec
    在对文本进行分词和对齐后,就可以训练处word2vec模型了,具体的训练过程不在此阐述,程序可以参考项目文件中的word2vec_helpers.py。

4 定义CNN网络与训练步骤

4.1 网络结构
此博文中的CNN网络结构和实现方法绝大部分是参考了 IMPLEMENTING A CNN FOR TEXT CLASSIFICATION IN TENSORFLOW 这篇文章的,CNN的结构和实现细节在这篇文章均有详述。重复的地方不再说明,主要说说不同的地方。
那篇文章中实现的CNN是用于英文文本二分类的,并且在卷积之前,有一层embedding层,用于得到文本的向量表示。
而本博文中实现的CNN在上面的基础上略有修改,用于支持中文文本的分类。CNN的结构的唯一变化是去掉了其中的embedding层,改为直接将word2vec预训练出的embedding向量输入到网络中进行分类。
网络结构图如下图所示:
c1.png

4.2 训练步骤
在预处理阶段得到了x和y, 接下来将x 和 y 按照一定比例分成训练集train_x, train_y和测试集dev_x, dev_y。
接着按照batch_size分批将train_x输入至网络TextCNN中进行训练,经过三个卷积层的卷积和max-pool之后,合并得到一个向量,这个向量代表了各个卷积层学到的关于训练数据的某些特征,最后将这个向量输入到一个单层的神经网络并用softmax分类,得到最终的分类结果,计算损失(交叉熵)并开始后向传播,执行批量梯度下降来更新网络参数。

5 结果
准确率:
c11.png
误差:
c111.png
因为数据集并没有标准的训练集和测试集,本文只是按照0.1的比例进行了简单的分割,且并没有对一些重复的文档进行筛选,所以准确率能够达到99%左右。如果用比较标准的数据集,并加入交叉验证等方法,相信准确率会降低一些,但相信准确率仍能够超过绝大部分用传统机器学习的方法写出的分类器。

后记
这两天又在这个网络的基础上,尝试完成一个文本生成的任务(之前大多数人都是用RNN来做的),发现效果并不太好,生成的句子并不通顺。CNN对于分类任务较为擅长,但是卷积和pool丢失了一些上下文信息,因此在对上下文把握方面,RNN还是更甚一筹。当然,有研究表明CNN能够通过调整卷积层的各种参数来获取上下文的特征,但限于我现有的知识水平,并不清楚该怎么调参。只有等将来对CNN和RNN理解更进一步时再继续完善这个任务吧。



来源:  CSDN
作者: clayanddev


没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条