
我用结巴分词后用 gensim 训练得到词向量,训练模型时但是会报"word '无鞍' not in vocabuary" "word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '拍张' not in vocabulary" "word '拍张' not in vocabulary" 这样的错误,求助
1 kaiju 2017 年 12 月 11 日 首先确定你想找的词在真的出现过 (你确定分词会分出来“无鞍”这种词?) 其次 word2vec 会自动忽略出现过 n 次以下的词,n 好像等于 5 (“无鞍”这种词即使出现过,次数应该也很少) |
2 rock_cloud 2017 年 12 月 12 日 同意楼上所说,另外 Python 的话,注意编码问题。 |
3 hadoop 2017 年 12 月 12 日 via Android 有个按词频低于多少就丢弃的参数 |
4 sadscv 2017 年 12 月 12 日 via Android 你在分词之后转成 w2v 之前先对数据做一道预处理,如果是出现 out of vocabulary 你就直接生成一个同样尺寸的随机词向量。 如果在训练 w2v 的语料已经经过预处理,其中包括一个特殊的 UNK 单词,那你直接用 UNK 的向量来表示当前 OOV 的词也可以。 |
5 UN2758 OP @kaiju min_count wo 我设置的是 5,但是不在词表中的词出现 oov 提示了 67 次的也有,无鞍这词是 jieba 自己分出来的,我也很无语 |
6 UN2758 OP @rock_cloud 统一是 utf-8,在 ubuntu 上搞的,应该没有编码问题,但是"." "," "000" " "这样的也会提示 oov |
9 sadscv 2017 年 12 月 12 日 @UN2758 UNK 就是指某个单词是未登录词,比如你预处理时,把所有低于5词频的单词替换成一个特殊标识'UNK',那么所有的罕见词在训练时就会被当作是同一个词来训练。当出现 oov 时,用这个特殊的未登录词向量来表示该词。 当然以上仅是一种简单粗暴的作法,与全随机或全0向量并无本质区别... |
11 zix 2017 年 12 月 12 日 @UN2758 jieba 自己的词典不会失效。jieba 里面有新词发现功能,用的 HMM,默认是开启的,所以会去产生一些奇怪的结果出来,你可以把这个选项关掉,不过这样如果有词没有出现在词表里,就会分成一个一个字。 ``` text = "blablabla..." jieba.lcut(text, HMM=True) # 默认行为 jieba.lcut(text, HMM=False) # 关闭 HMM ``` |
12 searene 2017 年 12 月 12 日 很有可能是编码的问题 |