在Python中使用NLTK库实现对词干的提取的教程


Posted in Python onApril 08, 2015

什么是词干提取?

在语言形态学和信息检索里,词干提取是去除词缀得到词根的过程─—得到单词最一般的写法。对于一个词的形态词根,词干并不需要完全相同;相关的词映射到同一个词干一般能得到满意的结果,即使该词干不是词的有效根。从1968年开始在计算机科学领域出现了词干提取的相应算法。很多搜索引擎在处理词汇时,对同义词采用相同的词干作为查询拓展,该过程叫做归并。

一个面向英语的词干提取器,例如,要识别字符串“cats”、“catlike”和“catty”是基于词根“cat”;“stemmer”、“stemming”和“stemmed”是基于词根“stem”。一根词干提取算法可以简化词 “fishing”、“fished”、“fish”和“fisher” 为同一个词根“fish”。
技术方案的选择

Python和R是数据分析的两种主要语言;相对于R,Python更适合有大量编程背景的数据分析初学者,尤其是已经掌握Python语言的程序员。所以我们选择了Python和NLTK库(Natual Language Tookit)作为文本处理的基础框架。此外,我们还需要一个数据展示工具;对于一个数据分析师来说,数据库的冗繁安装、连接、建表等操作实在是不适合进行快速的数据分析,所以我们使用Pandas作为结构化数据和分析工具。
环境搭建

我们使用的是Mac OS X,已预装Python 2.7.

安装NLTK

sudo pip install nltk

安装Pandas

sudo pip install pandas

对于数据分析来说,最重要的是分析结果,iPython notebook是必备的一款利器,它的作用在于可以保存代码的执行结果,例如数据表格,下一次打开时无需重新运行即可查看。

安装iPython notebook

sudo pip install ipython

创建一个工作目录,在工作目录下启动iPython notebook,服务器会开启http://127.0.0.1:8080页面,并将创建的代码文档保存在工作目录之下。

mkdir Codes
cd Codes
ipython notebook

文本处理

数据表创建

使用Pandas创建数据表 我们使用得到的样本数据,建立DataFrame——Pandas中一个支持行、列的2D数据结构。

from pandas import DataFrame
import pandas as pd
d = ['pets insurance','pets insure','pet insurance','pet insur','pet insurance"','pet insu']
df = DataFrame(d)
df.columns = ['Words']
df

显示结果

在Python中使用NLTK库实现对词干的提取的教程

NLTK分词器介绍

RegexpTokenizer:正则表达式分词器,使用正则表达式对文本进行处理,就不多作介绍。
PorterStemmer:波特词干算法分词器,原理可看这里:http://snowball.tartarus.org/algorithms/english/stemmer.html
第一步,我们创建一个去除标点符号等特殊字符的正则表达式分词器:

import nltk
tokenizer = nltk.RegexpTokenizer(r'w+')

接下来,对准备好的数据表进行处理,添加词干将要写入的列,以及统计列,预设默认值为1:

df["Stemming Words"] = ""
df["Count"] = 1

读取数据表中的Words列,使用波特词干提取器取得词干:

j = 0
while (j <= 5):
  for word in tokenizer.tokenize(df["Words"][j]):
    df["Stemming Words"][j] = df["Stemming Words"][j] + " " + nltk.PorterStemmer().stem_word(word)
  j += 1
df

Good!到这一步,我们已经基本上实现了文本处理,结果显示如下:

在Python中使用NLTK库实现对词干的提取的教程

分组统计

在Pandas中进行分组统计,将统计表格保存到一个新的DataFrame结构uniqueWords中:

uniqueWords = df.groupby(['Stemming Words'], as_index = False).sum().sort(['Count'])
uniqueWords

在Python中使用NLTK库实现对词干的提取的教程

注意到了吗?依然还有一个pet insu未能成功处理。

拼写检查

对于用户拼写错误的词语,我们首先想到的是拼写检查,针对Python我们可以使用enchant:

sudo pip install enchant

使用enchant进行拼写错误检查,得到推荐词:

import enchant
from nltk.metrics import edit_distance
class SpellingReplacer(object):
  def __init__(self, dict_name='en', max_dist=2):
    self.spell_dict = enchant.Dict(dict_name)
    self.max_dist = 2
  def replace(self, word):
    if self.spell_dict.check(word):
      return word
    suggestions = self.spell_dict.suggest(word)
    if suggestions and edit_distance(word, suggestions[0]) <=
      self.max_dist:
      return suggestions[0]
    else:
      return word

from replacers import SpellingReplacer
replacer = SpellingReplacer()
replacer.replace('insu')

'insu'

但是,结果依然不是我们预期的“insur”。能不能换种思路呢?
算法特殊性

用户输入非常重要的特殊性来自于行业和使用场景。采取通用的英语大词典来进行拼写检查,无疑是行不通的,并且某些词语恰恰是拼写正确,但本来却应该是另一个词。但是,我们如何把这些背景信息和数据分析关联起来呢?

经过一番思考,我认为最重要的参考库恰恰就在已有的数据分析结果中,我们回来看看:

在Python中使用NLTK库实现对词干的提取的教程

已有的5个“pet insur”,其实就已经给我们提供了一份数据参考,我们已经可以对这份数据进行聚类,进一步除噪。

相似度计算

对已有的结果进行相似度计算,将满足最小偏差的数据归类到相似集中:

import Levenshtein
minDistance = 0.8
distance = -1
lastWord = ""
j = 0
while (j < 1):
   lastWord = uniqueWords["Stemming Words"][j]
   distance = Levenshtein.ratio(uniqueWords["Stemming Words"][j], uniqueWords["Stemming Words"][j + 1])
   if (distance > minDistance):
    uniqueWords["Stemming Words"][j] = uniqueWords["Stemming Words"][j + 1]
  j += 1
uniqueWords

查看结果,已经匹配成功!

在Python中使用NLTK库实现对词干的提取的教程

最后一步,重新对数据结果进行分组统计:

uniqueWords = uniqueWords.groupby(['Stemming Words'], as_index = False).sum()
uniqueWords

到此,我们已经完成了初步的文本处理。

在Python中使用NLTK库实现对词干的提取的教程

Python 相关文章推荐
python自动安装pip
Apr 24 Python
Python Sqlite3以字典形式返回查询结果的实现方法
Oct 03 Python
用tensorflow实现弹性网络回归算法
Jan 09 Python
Python实现定时精度可调节的定时器
Apr 15 Python
Python基于分析Ajax请求实现抓取今日头条街拍图集功能示例
Jul 19 Python
浅析python的Lambda表达式
Feb 27 Python
详解Python用户登录接口的方法
Apr 17 Python
python实现植物大战僵尸游戏实例代码
Jun 10 Python
Python concurrent.futures模块使用实例
Dec 24 Python
TensorFlow加载模型时出错的解决方式
Feb 06 Python
Tensorflow中的dropout的使用方法
Mar 13 Python
django修改models重建数据库的操作
Mar 31 Python
使用Python操作Elasticsearch数据索引的教程
Apr 08 #Python
用Python实现协同过滤的教程
Apr 08 #Python
在Python中调用ggplot的三种方法
Apr 08 #Python
Python字符串和文件操作常用函数分析
Apr 08 #Python
Python遍历zip文件输出名称时出现乱码问题的解决方法
Apr 08 #Python
python smtplib模块发送SSL/TLS安全邮件实例
Apr 08 #Python
python复制与引用用法分析
Apr 08 #Python
You might like
php 无限级 SelectTree 类
2009/05/19 PHP
判断是否为指定长度内字符串的php函数
2010/02/16 PHP
php实现的返回数据格式化类实例
2014/09/22 PHP
php数组函数array_key_exists()小结
2015/12/10 PHP
postfixadmin忘记密码后的修改密码方法详解
2016/07/20 PHP
Yii框架实现多数据库配置和操作的方法
2017/05/25 PHP
PHP实现将多个文件压缩成zip格式并下载到本地的方法示例
2018/05/23 PHP
会自动逐行上升的文本框
2006/06/30 Javascript
把html页面的部分内容保存成新的html文件的jquery代码
2009/11/12 Javascript
原生js实现查找/添加/删除/指定元素的class
2013/04/12 Javascript
jquery实现对联广告的方法
2015/02/05 Javascript
js代码实现随机颜色的小方块
2015/07/30 Javascript
XML文件转化成NSData对象的方法
2015/08/12 Javascript
基于JavaScript的操作系统你听说过吗?
2016/01/28 Javascript
jQuery控制frames及frame页面JS的方法
2016/03/08 Javascript
vuejs2.0实现分页组件使用$emit进行事件监听数据传递的方法
2017/02/22 Javascript
angular中不同的组件间传值与通信的方法
2017/11/04 Javascript
Vue+Vux项目实践完整代码
2017/11/30 Javascript
vue自定义指令directive实例详解
2018/01/17 Javascript
浅谈vue.watch的触发条件是什么
2020/11/07 Javascript
[05:41]2014DOTA2西雅图国际邀请赛 小组赛7月10日TOPPLAY
2014/07/10 DOTA
Python实现抓取百度搜索结果页的网站标题信息
2015/01/22 Python
Python selenium 三种等待方式解读
2016/09/15 Python
详解Python中 sys.argv[]的用法简明解释
2017/12/20 Python
Python 继承,重写,super()调用父类方法操作示例
2019/09/29 Python
python实现字符串和数字拼接
2020/03/02 Python
Selenium 滚动页面至元素可见的方法
2020/03/18 Python
python使用Windows的wmic命令监控文件运行状况,如有异常发送邮件报警
2021/01/30 Python
Missguided美国官网:英国时尚品牌
2018/01/18 全球购物
澳大利亚最大的网上油画销售画廊:Direct Art Australia
2018/04/15 全球购物
芬兰灯具网上商店:Nettilamppu.fi
2018/06/30 全球购物
波兰补充商店:Muscle Power
2018/10/29 全球购物
Java中的基本数据类型所占存储空间大小固定的吗
2012/02/15 面试题
委托书范文
2014/04/02 职场文书
《北大荒的秋天》教学反思
2014/04/14 职场文书
银行竞聘演讲稿范文
2014/04/23 职场文书