在Python中使用NLTK库实现对词干的提取的教程


Posted in Python onApril 08, 2015

什么是词干提取?

在语言形态学和信息检索里,词干提取是去除词缀得到词根的过程─—得到单词最一般的写法。对于一个词的形态词根,词干并不需要完全相同;相关的词映射到同一个词干一般能得到满意的结果,即使该词干不是词的有效根。从1968年开始在计算机科学领域出现了词干提取的相应算法。很多搜索引擎在处理词汇时,对同义词采用相同的词干作为查询拓展,该过程叫做归并。

一个面向英语的词干提取器,例如,要识别字符串“cats”、“catlike”和“catty”是基于词根“cat”;“stemmer”、“stemming”和“stemmed”是基于词根“stem”。一根词干提取算法可以简化词 “fishing”、“fished”、“fish”和“fisher” 为同一个词根“fish”。
技术方案的选择

Python和R是数据分析的两种主要语言;相对于R,Python更适合有大量编程背景的数据分析初学者,尤其是已经掌握Python语言的程序员。所以我们选择了Python和NLTK库(Natual Language Tookit)作为文本处理的基础框架。此外,我们还需要一个数据展示工具;对于一个数据分析师来说,数据库的冗繁安装、连接、建表等操作实在是不适合进行快速的数据分析,所以我们使用Pandas作为结构化数据和分析工具。
环境搭建

我们使用的是Mac OS X,已预装Python 2.7.

安装NLTK

sudo pip install nltk

安装Pandas

sudo pip install pandas

对于数据分析来说,最重要的是分析结果,iPython notebook是必备的一款利器,它的作用在于可以保存代码的执行结果,例如数据表格,下一次打开时无需重新运行即可查看。

安装iPython notebook

sudo pip install ipython

创建一个工作目录,在工作目录下启动iPython notebook,服务器会开启http://127.0.0.1:8080页面,并将创建的代码文档保存在工作目录之下。

mkdir Codes
cd Codes
ipython notebook

文本处理

数据表创建

使用Pandas创建数据表 我们使用得到的样本数据,建立DataFrame——Pandas中一个支持行、列的2D数据结构。

from pandas import DataFrame
import pandas as pd
d = ['pets insurance','pets insure','pet insurance','pet insur','pet insurance"','pet insu']
df = DataFrame(d)
df.columns = ['Words']
df

显示结果

在Python中使用NLTK库实现对词干的提取的教程

NLTK分词器介绍

RegexpTokenizer:正则表达式分词器,使用正则表达式对文本进行处理,就不多作介绍。
PorterStemmer:波特词干算法分词器,原理可看这里:http://snowball.tartarus.org/algorithms/english/stemmer.html
第一步,我们创建一个去除标点符号等特殊字符的正则表达式分词器:

import nltk
tokenizer = nltk.RegexpTokenizer(r'w+')

接下来,对准备好的数据表进行处理,添加词干将要写入的列,以及统计列,预设默认值为1:

df["Stemming Words"] = ""
df["Count"] = 1

读取数据表中的Words列,使用波特词干提取器取得词干:

j = 0
while (j <= 5):
  for word in tokenizer.tokenize(df["Words"][j]):
    df["Stemming Words"][j] = df["Stemming Words"][j] + " " + nltk.PorterStemmer().stem_word(word)
  j += 1
df

Good!到这一步,我们已经基本上实现了文本处理,结果显示如下:

在Python中使用NLTK库实现对词干的提取的教程

分组统计

在Pandas中进行分组统计,将统计表格保存到一个新的DataFrame结构uniqueWords中:

uniqueWords = df.groupby(['Stemming Words'], as_index = False).sum().sort(['Count'])
uniqueWords

在Python中使用NLTK库实现对词干的提取的教程

注意到了吗?依然还有一个pet insu未能成功处理。

拼写检查

对于用户拼写错误的词语,我们首先想到的是拼写检查,针对Python我们可以使用enchant:

sudo pip install enchant

使用enchant进行拼写错误检查,得到推荐词:

import enchant
from nltk.metrics import edit_distance
class SpellingReplacer(object):
  def __init__(self, dict_name='en', max_dist=2):
    self.spell_dict = enchant.Dict(dict_name)
    self.max_dist = 2
  def replace(self, word):
    if self.spell_dict.check(word):
      return word
    suggestions = self.spell_dict.suggest(word)
    if suggestions and edit_distance(word, suggestions[0]) <=
      self.max_dist:
      return suggestions[0]
    else:
      return word

from replacers import SpellingReplacer
replacer = SpellingReplacer()
replacer.replace('insu')

'insu'

但是,结果依然不是我们预期的“insur”。能不能换种思路呢?
算法特殊性

用户输入非常重要的特殊性来自于行业和使用场景。采取通用的英语大词典来进行拼写检查,无疑是行不通的,并且某些词语恰恰是拼写正确,但本来却应该是另一个词。但是,我们如何把这些背景信息和数据分析关联起来呢?

经过一番思考,我认为最重要的参考库恰恰就在已有的数据分析结果中,我们回来看看:

在Python中使用NLTK库实现对词干的提取的教程

已有的5个“pet insur”,其实就已经给我们提供了一份数据参考,我们已经可以对这份数据进行聚类,进一步除噪。

相似度计算

对已有的结果进行相似度计算,将满足最小偏差的数据归类到相似集中:

import Levenshtein
minDistance = 0.8
distance = -1
lastWord = ""
j = 0
while (j < 1):
   lastWord = uniqueWords["Stemming Words"][j]
   distance = Levenshtein.ratio(uniqueWords["Stemming Words"][j], uniqueWords["Stemming Words"][j + 1])
   if (distance > minDistance):
    uniqueWords["Stemming Words"][j] = uniqueWords["Stemming Words"][j + 1]
  j += 1
uniqueWords

查看结果,已经匹配成功!

在Python中使用NLTK库实现对词干的提取的教程

最后一步,重新对数据结果进行分组统计:

uniqueWords = uniqueWords.groupby(['Stemming Words'], as_index = False).sum()
uniqueWords

到此,我们已经完成了初步的文本处理。

在Python中使用NLTK库实现对词干的提取的教程

Python 相关文章推荐
Python实现类继承实例
Jul 04 Python
python素数筛选法浅析
Mar 19 Python
Python基于生成器迭代实现的八皇后问题示例
May 23 Python
python批量获取html内body内容的实例
Jan 02 Python
Django Sitemap 站点地图的实现方法
Apr 29 Python
在django admin中添加自定义视图的例子
Jul 26 Python
Pycharm最新激活码2019(推荐)
Dec 31 Python
tensorflow之获取tensor的shape作为max_pool的ksize实例
Jan 04 Python
python3 使用openpyxl将mysql数据写入xlsx的操作
May 15 Python
win10安装python3.6的常见问题
Jul 01 Python
Python实现弹球小游戏
Aug 01 Python
Python利用Turtle绘制哆啦A梦和小猪佩奇
Apr 04 Python
使用Python操作Elasticsearch数据索引的教程
Apr 08 #Python
用Python实现协同过滤的教程
Apr 08 #Python
在Python中调用ggplot的三种方法
Apr 08 #Python
Python字符串和文件操作常用函数分析
Apr 08 #Python
Python遍历zip文件输出名称时出现乱码问题的解决方法
Apr 08 #Python
python smtplib模块发送SSL/TLS安全邮件实例
Apr 08 #Python
python复制与引用用法分析
Apr 08 #Python
You might like
PHP实现事件机制实例分析
2015/06/26 PHP
PHP获取表单数据与HTML嵌入PHP脚本的实现
2017/02/09 PHP
Laravel实现搜索的时候分页并携带参数
2019/10/15 PHP
基于jQuery选择器的整理集合
2013/04/26 Javascript
iframe的父子窗口之间的对象相互调用基本用法
2013/09/03 Javascript
javascripit实现密码强度检测代码分享
2013/12/12 Javascript
LABjs、RequireJS、SeaJS的区别
2014/03/04 Javascript
深入探讨JavaScript、JQuery屏蔽网页鼠标右键菜单及禁止选择复制
2014/06/10 Javascript
JavaScript在浏览器标题栏上显示当前日期和时间的方法
2015/03/19 Javascript
jQuery实现的网页右下角tab样式在线客服效果代码
2015/10/23 Javascript
通过正则表达式获取url中参数的简单实现
2016/06/07 Javascript
javascript实现右下角广告框效果
2017/02/01 Javascript
jQuery按需加载轮播图(web前端性能优化)
2017/02/17 Javascript
javascript 的变量、作用域和内存问题
2017/04/19 Javascript
Vue.js 中的 v-cloak 指令及使用详解
2018/11/19 Javascript
vue实现分页组件
2020/06/16 Javascript
javascript function(函数类型)使用与注意事项小结
2019/06/10 Javascript
多个vue子路由文件自动化合并的方法
2019/09/03 Javascript
解决三元运算符 报错“SyntaxError: can''t assign to conditional expression”
2020/02/12 Javascript
[05:31]DOTA2英雄梦之声_第08期_莉娜
2014/06/23 DOTA
[01:03:18]DOTA2-DPC中国联赛 正赛 RNG vs Dynasty BO3 第一场 1月29日
2021/03/11 DOTA
Python迭代器和生成器定义与用法示例
2018/02/10 Python
Python之inspect模块实现获取加载模块路径的方法
2018/10/16 Python
Python中Numpy ndarray的使用详解
2019/05/24 Python
Python爬虫解析网页的4种方式实例及原理解析
2019/12/30 Python
python、PyTorch图像读取与numpy转换实例
2020/01/13 Python
Python 一行代码能实现丧心病狂的功能
2020/01/18 Python
python自动化发送邮件实例讲解
2021/01/04 Python
Django实现简单的分页功能
2021/02/22 Python
HTML5 Web Workers之网站也能多线程的实现
2013/04/24 HTML / CSS
html5使用canvas绘制文字特效
2014/12/15 HTML / CSS
旧时光糖果:Old Time Candy
2018/02/05 全球购物
幼儿园托班开学寄语
2014/01/18 职场文书
美术兴趣小组活动总结
2014/07/07 职场文书
2015年助理政工师工作总结
2015/05/26 职场文书
python使用pygame创建精灵Sprite
2021/04/06 Python