TF-IDF权重策略
程序员文章站
2024-03-15 11:39:59
...
TF-IDF:词频逆文档权重方案。
含义:如果某个词或者短语在一篇文章中出现频率高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。
TF(词频):
指的是某一个给定词语在文件中出现的频率。
TF = 该词在文件中出现的次数/在文件中所有字词的次数之和
IDF(逆向文本频率):
是一个词语普遍重要性的度量。
IDF = log(总文件数目/包含该词语的文件的数目)。
注意: 一般会给分母同意加上一个1,防止出现分母为0的情况
然后计算TF和IDF的乘积,值越大说明该词越重要。
代码实现:
# -*- encoding:utf-8 -*-
import sys
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfTransformer
# 配置UTF-8的环境
reload(sys)
sys.setdefaultencoding('utf-8')
corpus = [
"My dog ate my homework.",
"My cat ate the sandwich.",
"A dolphin ate the homework"
]
vectorizer = CountVectorizer()
transformer = TfidfTransformer()
print(vectorizer)
# 对数据进行某种统一处理将数据缩放(映射)到某个固定区间
X = vectorizer.fit_transform(corpus)
# 打印出每个文字出现的次数并将其转换为矩阵形式 表示各个词语在对于文本下出现的次数
print(X.toarray())
print "(行数,列数)\t词语重要程度"
print transformer.fit_transform(X)
运行结果如下: