首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX 提问指南
广告
V2EX
›
问与答
pytyon 关键字提取中文分词哪家强
geew
·
2014-11-07 11:38:52 +08:00
· 2390 次点击
这是一个创建于 3668 天前的主题,其中的信息可能已经有所发展或是发生改变。
目前就知道有jieba, 顺路求一个jieba的词库啊
还有什么比较好用的库或者在线服务之类的呢?
v2用的哪个?
jieba
分词
词库
1 条回复
•
2014-11-07 13:50:05 +08:00
1
yiding
2014-11-07 13:50:05 +08:00
我有看到一篇文章,用的是斯坦福的中文分词器,你可以看看是不是你需要的
http://www.52nlp.cn/python自然语言处理实践-在nltk中使用斯坦福中文分词器
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
5288 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 41ms ·
UTC 08:57
·
PVG 16:57
·
LAX 00:57
·
JFK 03:57
Developed with
CodeLauncher
♥ Do have faith in what you're doing.