V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
UN2758
V2EX  ›  Python

word2vec,分词后训练的词向量中依旧没有对应的词

  •  
  •   UN2758 · 2017-12-11 20:39:16 +08:00 · 4174 次点击
    这是一个创建于 2550 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我用结巴分词后用 gensim 训练得到词向量,训练模型时但是会报"word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '拍张' not in vocabulary" "word '拍张' not in vocabulary" 这样的错误,求助

    12 条回复    2017-12-12 21:36:14 +08:00
    kaiju
        1
    kaiju  
       2017-12-11 23:57:40 +08:00
    首先确定你想找的词在真的出现过 (你确定分词会分出来“无鞍”这种词?)

    其次 word2vec 会自动忽略出现过 n 次以下的词,n 好像等于 5 (“无鞍”这种词即使出现过,次数应该也很少)
    rock_cloud
        2
    rock_cloud  
       2017-12-12 00:03:04 +08:00
    同意楼上所说,另外 Python 的话,注意编码问题。
    hadoop
        3
    hadoop  
       2017-12-12 00:41:10 +08:00 via Android
    有个按词频低于多少就丢弃的参数
    sadscv
        4
    sadscv  
       2017-12-12 07:20:20 +08:00 via Android
    你在分词之后转成 w2v 之前先对数据做一道预处理,如果是出现 out of vocabulary 你就直接生成一个同样尺寸的随机词向量。
    如果在训练 w2v 的语料已经经过预处理,其中包括一个特殊的 UNK 单词,那你直接用 UNK 的向量来表示当前 OOV 的词也可以。
    UN2758
        5
    UN2758  
    OP
       2017-12-12 10:03:58 +08:00
    @kaiju min_count wo 我设置的是 5,但是不在词表中的词出现 oov 提示了 67 次的也有,无鞍这词是 jieba 自己分出来的,我也很无语
    UN2758
        6
    UN2758  
    OP
       2017-12-12 10:07:19 +08:00
    @rock_cloud 统一是 utf-8,在 ubuntu 上搞的,应该没有编码问题,但是"." "," "000" " "这样的也会提示 oov
    UN2758
        7
    UN2758  
    OP
       2017-12-12 10:08:37 +08:00
    @hadoop 看 5 楼。。。。。
    UN2758
        8
    UN2758  
    OP
       2017-12-12 10:30:53 +08:00
    @sadscv 我是设置的全 0 向量可以吗? UNK 是什么意思?
    sadscv
        9
    sadscv  
       2017-12-12 16:35:26 +08:00
    @UN2758 UNK 就是指某个单词是未登录词,比如你预处理时,把所有低于5词频的单词替换成一个特殊标识'UNK',那么所有的罕见词在训练时就会被当作是同一个词来训练。当出现 oov 时,用这个特殊的未登录词向量来表示该词。
    当然以上仅是一种简单粗暴的作法,与全随机或全0向量并无本质区别...
    UN2758
        10
    UN2758  
    OP
       2017-12-12 17:43:41 +08:00
    @sadscv 哦,用 jieba 自己的词典分词感觉分出来的有些莫名其妙,是不是指定了用自己的词典,结巴自带的词典就失效了啊
    zix
        11
    zix  
       2017-12-12 19:38:08 +08:00
    @UN2758 jieba 自己的词典不会失效。jieba 里面有新词发现功能,用的 HMM,默认是开启的,所以会去产生一些奇怪的结果出来,你可以把这个选项关掉,不过这样如果有词没有出现在词表里,就会分成一个一个字。

    ```
    text = "blablabla..."
    jieba.lcut(text, HMM=True) # 默认行为
    jieba.lcut(text, HMM=False) # 关闭 HMM
    ```
    searene
        12
    searene  
       2017-12-12 21:36:14 +08:00
    很有可能是编码的问题
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5849 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 02:34 · PVG 10:34 · LAX 18:34 · JFK 21:34
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.