在Python中使用NLTK库实现对词干的提取的教程


Posted in Python onApril 08, 2015

什么是词干提取?

在语言形态学和信息检索里,词干提取是去除词缀得到词根的过程─—得到单词最一般的写法。对于一个词的形态词根,词干并不需要完全相同;相关的词映射到同一个词干一般能得到满意的结果,即使该词干不是词的有效根。从1968年开始在计算机科学领域出现了词干提取的相应算法。很多搜索引擎在处理词汇时,对同义词采用相同的词干作为查询拓展,该过程叫做归并。

一个面向英语的词干提取器,例如,要识别字符串“cats”、“catlike”和“catty”是基于词根“cat”;“stemmer”、“stemming”和“stemmed”是基于词根“stem”。一根词干提取算法可以简化词 “fishing”、“fished”、“fish”和“fisher” 为同一个词根“fish”。
技术方案的选择

Python和R是数据分析的两种主要语言;相对于R,Python更适合有大量编程背景的数据分析初学者,尤其是已经掌握Python语言的程序员。所以我们选择了Python和NLTK库(Natual Language Tookit)作为文本处理的基础框架。此外,我们还需要一个数据展示工具;对于一个数据分析师来说,数据库的冗繁安装、连接、建表等操作实在是不适合进行快速的数据分析,所以我们使用Pandas作为结构化数据和分析工具。
环境搭建

我们使用的是Mac OS X,已预装Python 2.7.

安装NLTK

sudo pip install nltk

安装Pandas

sudo pip install pandas

对于数据分析来说,最重要的是分析结果,iPython notebook是必备的一款利器,它的作用在于可以保存代码的执行结果,例如数据表格,下一次打开时无需重新运行即可查看。

安装iPython notebook

sudo pip install ipython

创建一个工作目录,在工作目录下启动iPython notebook,服务器会开启http://127.0.0.1:8080页面,并将创建的代码文档保存在工作目录之下。

mkdir Codes
cd Codes
ipython notebook

文本处理

数据表创建

使用Pandas创建数据表 我们使用得到的样本数据,建立DataFrame——Pandas中一个支持行、列的2D数据结构。

from pandas import DataFrame
import pandas as pd
d = ['pets insurance','pets insure','pet insurance','pet insur','pet insurance"','pet insu']
df = DataFrame(d)
df.columns = ['Words']
df

显示结果

在Python中使用NLTK库实现对词干的提取的教程

NLTK分词器介绍

RegexpTokenizer:正则表达式分词器,使用正则表达式对文本进行处理,就不多作介绍。
PorterStemmer:波特词干算法分词器,原理可看这里:http://snowball.tartarus.org/algorithms/english/stemmer.html
第一步,我们创建一个去除标点符号等特殊字符的正则表达式分词器:

import nltk
tokenizer = nltk.RegexpTokenizer(r'w+')

接下来,对准备好的数据表进行处理,添加词干将要写入的列,以及统计列,预设默认值为1:

df["Stemming Words"] = ""
df["Count"] = 1

读取数据表中的Words列,使用波特词干提取器取得词干:

j = 0
while (j <= 5):
  for word in tokenizer.tokenize(df["Words"][j]):
    df["Stemming Words"][j] = df["Stemming Words"][j] + " " + nltk.PorterStemmer().stem_word(word)
  j += 1
df

Good!到这一步,我们已经基本上实现了文本处理,结果显示如下:

在Python中使用NLTK库实现对词干的提取的教程

分组统计

在Pandas中进行分组统计,将统计表格保存到一个新的DataFrame结构uniqueWords中:

uniqueWords = df.groupby(['Stemming Words'], as_index = False).sum().sort(['Count'])
uniqueWords

在Python中使用NLTK库实现对词干的提取的教程

注意到了吗?依然还有一个pet insu未能成功处理。

拼写检查

对于用户拼写错误的词语,我们首先想到的是拼写检查,针对Python我们可以使用enchant:

sudo pip install enchant

使用enchant进行拼写错误检查,得到推荐词:

import enchant
from nltk.metrics import edit_distance
class SpellingReplacer(object):
  def __init__(self, dict_name='en', max_dist=2):
    self.spell_dict = enchant.Dict(dict_name)
    self.max_dist = 2
  def replace(self, word):
    if self.spell_dict.check(word):
      return word
    suggestions = self.spell_dict.suggest(word)
    if suggestions and edit_distance(word, suggestions[0]) <=
      self.max_dist:
      return suggestions[0]
    else:
      return word

from replacers import SpellingReplacer
replacer = SpellingReplacer()
replacer.replace('insu')

'insu'

但是,结果依然不是我们预期的“insur”。能不能换种思路呢?
算法特殊性

用户输入非常重要的特殊性来自于行业和使用场景。采取通用的英语大词典来进行拼写检查,无疑是行不通的,并且某些词语恰恰是拼写正确,但本来却应该是另一个词。但是,我们如何把这些背景信息和数据分析关联起来呢?

经过一番思考,我认为最重要的参考库恰恰就在已有的数据分析结果中,我们回来看看:

在Python中使用NLTK库实现对词干的提取的教程

已有的5个“pet insur”,其实就已经给我们提供了一份数据参考,我们已经可以对这份数据进行聚类,进一步除噪。

相似度计算

对已有的结果进行相似度计算,将满足最小偏差的数据归类到相似集中:

import Levenshtein
minDistance = 0.8
distance = -1
lastWord = ""
j = 0
while (j < 1):
   lastWord = uniqueWords["Stemming Words"][j]
   distance = Levenshtein.ratio(uniqueWords["Stemming Words"][j], uniqueWords["Stemming Words"][j + 1])
   if (distance > minDistance):
    uniqueWords["Stemming Words"][j] = uniqueWords["Stemming Words"][j + 1]
  j += 1
uniqueWords

查看结果,已经匹配成功!

在Python中使用NLTK库实现对词干的提取的教程

最后一步,重新对数据结果进行分组统计:

uniqueWords = uniqueWords.groupby(['Stemming Words'], as_index = False).sum()
uniqueWords

到此,我们已经完成了初步的文本处理。

在Python中使用NLTK库实现对词干的提取的教程

Python 相关文章推荐
python发布模块的步骤分享
Feb 21 Python
python处理按钮消息的实例详解
Jul 11 Python
python使用xslt提取网页数据的方法
Feb 23 Python
python3安装pip3(install pip3 for python 3.x)
Apr 03 Python
使用50行Python代码从零开始实现一个AI平衡小游戏
Nov 21 Python
使用Python和Prometheus跟踪天气的使用方法
May 06 Python
python交互模式下输入换行/输入多行命令的方法
Jul 02 Python
使用pytorch和torchtext进行文本分类的实例
Jan 08 Python
Python交互环境下打印和输入函数的实例内容
Feb 16 Python
python logging设置level失败的解决方法
Feb 19 Python
python调用百度AI接口实现人流量统计
Feb 03 Python
ASP.NET Core中的配置详解
Feb 05 Python
使用Python操作Elasticsearch数据索引的教程
Apr 08 #Python
用Python实现协同过滤的教程
Apr 08 #Python
在Python中调用ggplot的三种方法
Apr 08 #Python
Python字符串和文件操作常用函数分析
Apr 08 #Python
Python遍历zip文件输出名称时出现乱码问题的解决方法
Apr 08 #Python
python smtplib模块发送SSL/TLS安全邮件实例
Apr 08 #Python
python复制与引用用法分析
Apr 08 #Python
You might like
PHP开发的一些注意点总结
2010/10/12 PHP
PHP5 的对象赋值机制介绍
2011/08/02 PHP
深入解析php之sphinx
2013/05/15 PHP
php遍历文件夹下的所有文件和子文件夹示例
2014/03/20 PHP
PHP小程序支付功能完整版【基于thinkPHP】
2019/03/26 PHP
Laravel框架下载,安装及路由操作图文详解
2019/12/04 PHP
jQuery dialog 异步调用ashx,webservice数据的代码
2010/08/03 Javascript
js中widow.open()方法使用详解
2013/07/30 Javascript
js中array的sort()方法使用介绍
2014/02/20 Javascript
jquery bind(click)传参让列表中每行绑定一个事件
2014/08/06 Javascript
Angular的$http与$location
2016/12/26 Javascript
扩展bootstrap的modal模态框-动态添加modal框-弹出多个modal框
2017/02/21 Javascript
jQuery实现页码跳转式动态数据分页
2017/12/31 jQuery
vue中的router-view组件的使用教程
2018/10/23 Javascript
vue+element创建动态的form表单及动态生成表格的行和列
2019/05/20 Javascript
swiper4实现移动端导航切换
2020/10/16 Javascript
Python实现求最大公约数及判断素数的方法
2015/05/26 Python
PyQT实现多窗口切换
2018/04/20 Python
pytorch cnn 识别手写的字实现自建图片数据
2018/05/20 Python
PyGame贪吃蛇的实现代码示例
2018/11/21 Python
Empty test suite.(PyCharm程序运行错误的解决方法)
2018/11/30 Python
使用Python操作FTP实现上传和下载的方法
2019/04/01 Python
python使用sessions模拟登录淘宝的方式
2019/08/16 Python
在python中使用pymysql往mysql数据库中插入(insert)数据实例
2020/03/02 Python
Python通过Pillow实现图片对比
2020/04/29 Python
Python 为什么推荐蛇形命名法原因浅析
2020/06/18 Python
用纯css3实现的图片放大镜特效效果非常不错
2014/09/02 HTML / CSS
BSTN意大利:德国街头和运动文化高品质商店
2020/12/22 全球购物
C#基础面试题
2016/10/17 面试题
会计实习生自我鉴定
2013/12/12 职场文书
物流仓储计划书
2014/01/10 职场文书
党的群众路线教育实践活动宣传方案
2014/02/23 职场文书
幼儿园教师师德师风演讲稿:爱我所爱 无悔青春
2014/09/10 职场文书
追悼词范文大全
2015/06/23 职场文书
小学总务工作总结
2015/08/13 职场文书
Mybatis-Plus进阶分页与乐观锁插件及通用枚举和多数据源详解
2022/03/21 Java/Android