在Python中使用NLTK库实现对词干的提取的教程


Posted in Python onApril 08, 2015

什么是词干提取?

在语言形态学和信息检索里,词干提取是去除词缀得到词根的过程─—得到单词最一般的写法。对于一个词的形态词根,词干并不需要完全相同;相关的词映射到同一个词干一般能得到满意的结果,即使该词干不是词的有效根。从1968年开始在计算机科学领域出现了词干提取的相应算法。很多搜索引擎在处理词汇时,对同义词采用相同的词干作为查询拓展,该过程叫做归并。

一个面向英语的词干提取器,例如,要识别字符串“cats”、“catlike”和“catty”是基于词根“cat”;“stemmer”、“stemming”和“stemmed”是基于词根“stem”。一根词干提取算法可以简化词 “fishing”、“fished”、“fish”和“fisher” 为同一个词根“fish”。
技术方案的选择

Python和R是数据分析的两种主要语言;相对于R,Python更适合有大量编程背景的数据分析初学者,尤其是已经掌握Python语言的程序员。所以我们选择了Python和NLTK库(Natual Language Tookit)作为文本处理的基础框架。此外,我们还需要一个数据展示工具;对于一个数据分析师来说,数据库的冗繁安装、连接、建表等操作实在是不适合进行快速的数据分析,所以我们使用Pandas作为结构化数据和分析工具。
环境搭建

我们使用的是Mac OS X,已预装Python 2.7.

安装NLTK

sudo pip install nltk

安装Pandas

sudo pip install pandas

对于数据分析来说,最重要的是分析结果,iPython notebook是必备的一款利器,它的作用在于可以保存代码的执行结果,例如数据表格,下一次打开时无需重新运行即可查看。

安装iPython notebook

sudo pip install ipython

创建一个工作目录,在工作目录下启动iPython notebook,服务器会开启http://127.0.0.1:8080页面,并将创建的代码文档保存在工作目录之下。

mkdir Codes
cd Codes
ipython notebook

文本处理

数据表创建

使用Pandas创建数据表 我们使用得到的样本数据,建立DataFrame——Pandas中一个支持行、列的2D数据结构。

from pandas import DataFrame
import pandas as pd
d = ['pets insurance','pets insure','pet insurance','pet insur','pet insurance"','pet insu']
df = DataFrame(d)
df.columns = ['Words']
df

显示结果

在Python中使用NLTK库实现对词干的提取的教程

NLTK分词器介绍

RegexpTokenizer:正则表达式分词器,使用正则表达式对文本进行处理,就不多作介绍。
PorterStemmer:波特词干算法分词器,原理可看这里:http://snowball.tartarus.org/algorithms/english/stemmer.html
第一步,我们创建一个去除标点符号等特殊字符的正则表达式分词器:

import nltk
tokenizer = nltk.RegexpTokenizer(r'w+')

接下来,对准备好的数据表进行处理,添加词干将要写入的列,以及统计列,预设默认值为1:

df["Stemming Words"] = ""
df["Count"] = 1

读取数据表中的Words列,使用波特词干提取器取得词干:

j = 0
while (j <= 5):
  for word in tokenizer.tokenize(df["Words"][j]):
    df["Stemming Words"][j] = df["Stemming Words"][j] + " " + nltk.PorterStemmer().stem_word(word)
  j += 1
df

Good!到这一步,我们已经基本上实现了文本处理,结果显示如下:

在Python中使用NLTK库实现对词干的提取的教程

分组统计

在Pandas中进行分组统计,将统计表格保存到一个新的DataFrame结构uniqueWords中:

uniqueWords = df.groupby(['Stemming Words'], as_index = False).sum().sort(['Count'])
uniqueWords

在Python中使用NLTK库实现对词干的提取的教程

注意到了吗?依然还有一个pet insu未能成功处理。

拼写检查

对于用户拼写错误的词语,我们首先想到的是拼写检查,针对Python我们可以使用enchant:

sudo pip install enchant

使用enchant进行拼写错误检查,得到推荐词:

import enchant
from nltk.metrics import edit_distance
class SpellingReplacer(object):
  def __init__(self, dict_name='en', max_dist=2):
    self.spell_dict = enchant.Dict(dict_name)
    self.max_dist = 2
  def replace(self, word):
    if self.spell_dict.check(word):
      return word
    suggestions = self.spell_dict.suggest(word)
    if suggestions and edit_distance(word, suggestions[0]) <=
      self.max_dist:
      return suggestions[0]
    else:
      return word

from replacers import SpellingReplacer
replacer = SpellingReplacer()
replacer.replace('insu')

'insu'

但是,结果依然不是我们预期的“insur”。能不能换种思路呢?
算法特殊性

用户输入非常重要的特殊性来自于行业和使用场景。采取通用的英语大词典来进行拼写检查,无疑是行不通的,并且某些词语恰恰是拼写正确,但本来却应该是另一个词。但是,我们如何把这些背景信息和数据分析关联起来呢?

经过一番思考,我认为最重要的参考库恰恰就在已有的数据分析结果中,我们回来看看:

在Python中使用NLTK库实现对词干的提取的教程

已有的5个“pet insur”,其实就已经给我们提供了一份数据参考,我们已经可以对这份数据进行聚类,进一步除噪。

相似度计算

对已有的结果进行相似度计算,将满足最小偏差的数据归类到相似集中:

import Levenshtein
minDistance = 0.8
distance = -1
lastWord = ""
j = 0
while (j < 1):
   lastWord = uniqueWords["Stemming Words"][j]
   distance = Levenshtein.ratio(uniqueWords["Stemming Words"][j], uniqueWords["Stemming Words"][j + 1])
   if (distance > minDistance):
    uniqueWords["Stemming Words"][j] = uniqueWords["Stemming Words"][j + 1]
  j += 1
uniqueWords

查看结果,已经匹配成功!

在Python中使用NLTK库实现对词干的提取的教程

最后一步,重新对数据结果进行分组统计:

uniqueWords = uniqueWords.groupby(['Stemming Words'], as_index = False).sum()
uniqueWords

到此,我们已经完成了初步的文本处理。

在Python中使用NLTK库实现对词干的提取的教程

Python 相关文章推荐
Python映射拆分操作符用法实例
May 19 Python
windows下python连接oracle数据库
Jun 07 Python
基于python中的TCP及UDP(详解)
Nov 06 Python
windows下安装Python的XlsxWriter模块方法
May 03 Python
Python查找最长不包含重复字符的子字符串算法示例
Feb 13 Python
python实现学员管理系统
Feb 26 Python
详解python中递归函数
Apr 16 Python
python通过安装itchat包实现微信自动回复收到的春节祝福
Jan 19 Python
django有外键关系的两张表如何相互查找
Feb 10 Python
Python3基本输入与输出操作实例分析
Feb 14 Python
Python如何实现线程间通信
Jul 30 Python
解决Pycharm 运行后没有输出的问题
Feb 05 Python
使用Python操作Elasticsearch数据索引的教程
Apr 08 #Python
用Python实现协同过滤的教程
Apr 08 #Python
在Python中调用ggplot的三种方法
Apr 08 #Python
Python字符串和文件操作常用函数分析
Apr 08 #Python
Python遍历zip文件输出名称时出现乱码问题的解决方法
Apr 08 #Python
python smtplib模块发送SSL/TLS安全邮件实例
Apr 08 #Python
python复制与引用用法分析
Apr 08 #Python
You might like
PHP脚本的10个技巧(7)
2006/10/09 PHP
PHP 创建文件(文件夹)以及目录操作代码
2010/03/04 PHP
php中使用parse_url()对网址进行解析的实现代码(parse_url详解)
2012/01/03 PHP
php中spl_autoload详解
2014/10/17 PHP
thinkphp3.x自定义Action、Model及View的简单实现方法
2016/05/19 PHP
灵活应用js调试技巧解决样式问题的步骤分享
2012/03/15 Javascript
基于JQuery的类似新浪微博展示信息效果的代码
2012/07/23 Javascript
javascript内置对象arguments详解
2014/03/16 Javascript
再谈JavaScript线程
2015/07/10 Javascript
jQuery实现图片左右滚动特效
2020/04/20 Javascript
JavaScript表单验证完美代码
2017/03/02 Javascript
80%应聘者都不及格的JS面试题
2017/03/21 Javascript
vue form check 表单验证的实现代码
2018/12/09 Javascript
JS实现判断有效的数独算法示例
2019/02/25 Javascript
原生JS运动实现轮播图
2021/01/02 Javascript
Python列表list内建函数用法实例分析【insert、remove、index、pop等】
2017/07/24 Python
python在文本开头插入一行的实例
2018/05/02 Python
pandas数据处理基础之筛选指定行或者指定列的数据
2018/05/03 Python
利用python脚本如何简化jar操作命令
2019/02/24 Python
Django CSRF跨站请求伪造防护过程解析
2019/07/31 Python
Python中类似于jquery的pyquery库用法分析
2019/12/02 Python
Django模板标签中url使用详解(url跳转到指定页面)
2020/03/19 Python
python爬取天气数据的实例详解
2020/11/20 Python
Python logging自定义字段输出及打印颜色
2020/11/30 Python
基于PyInstaller各参数的含义说明
2021/03/04 Python
ECCO爱步美国官网:来自丹麦的鞋履品牌
2016/11/23 全球购物
英国的一家创新礼品和小工具零售商:Menkind
2019/08/24 全球购物
《世界多美呀》教学反思
2014/03/02 职场文书
纠风工作实施方案
2014/03/15 职场文书
目标责任书范文
2014/04/14 职场文书
农业局党的群众路线教育实践活动整改方案
2014/09/20 职场文书
2014年小学体育工作总结
2014/12/11 职场文书
2015新年联欢晚会开场白
2014/12/14 职场文书
毕业生评语大全
2015/01/04 职场文书
团委工作总结2015
2015/04/02 职场文书
2016年“12.4”法制宣传日活动总结
2016/04/01 职场文书