欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

120G+训练好的word2vec模型(中文词向量)

程序员文章站 2022-07-04 20:19:42
...

多人缺少大语料训练的word2vec模型,在此分享下使用268G+语料训练好的word2vec模型。

训练语料:

百度百科800w+条,26G+
搜狐新闻400w+条,13G+
小说:229G+
120G+训练好的word2vec模型(中文词向量)

模型参数:

window=5
min_count=10
size=128
hs=1
negative=0
iter=5

其它参数见gensim库,执行代码为:gensim.models.Word2Vec(sentence, window=5, min_count=10, size=128, workers=4,hs=1, negative=0, iter=5)

其它相关:

1.分词词典使用了130w+词典。分词代码:jieba.lcut(sentence),默认使用了HMM识别新词;
2.剔除了所有非中文字符;
3.最终得到的词典大小为6115353;
4.模型格式有两种bin和model,使用方式:
(1)bin模型:

 import gensim
model = gensim.models.KeyedVectors.load_word2vec_format('model.bin',binary=True)
print(model['love'])

(2)model模式:model = gensim.models.Word2Vec.load(model_path)

下载链接:

链接:https://pan.baidu.com/s/1ckkH_eT-WS4SN73Iq9Q_5A 密码:9aza