text stringlengths 0 18.7k |
|---|
特征选择算法 _ |
LDA主题模型训练 |
包含高频词的 |
主题 |
3.问题 2 流程图 |
2.2.2 数据预处理 |
同步又 2.1.2.1-2.1.2.3 一致将留言主题中的文档数据向量化表示为 one-hot |
编码,对于 LDA 主题模型而言需要将输入数据变为[[(0, 1), (1 1), (2, 1)]形式, |
其中每一个元组中的第一元素个代表该关键词的位置信息, 第二个元素表示该关 |
键词出现次数,因为使用 one-hot 编码,第二个元素一致为1,即出现一次。 |
2.2.3 构建模型并分类 |
2.2.3.1 LDA 主题模型 |
由于问题 2 中需要对热点问题进行挖掘,其中留言内容高达 5000 条, 逐条 |
计算文档相似度时间复杂度较高,因此该问题考虑使用文档主题模型进行分类。 |
文档主题模型 (Topic Model) 是挖握大规模文档集或语料库中隐藏的潜 |
的一种无监督机器学习统计模型,在电商推荐系统、社交网络话题识别和新闻信 |
息主题聚类等自然语言处理领域中应用广泛[14] 。LDA(Latent Dirichlet |
Allocation) 是一种生成式模型,也是一个三层的贝叶斯概率模型,由词、主题 |
及文档三层结构构成。其核心公式如公式 2.10 所示 |
P(词文档) = P(启|主题)P(主题文档) (2.10) |
LDA 主题模型降售狄利克雷分布 (Latent Dirichlet Allocation,LDA) ,其 |
原理是基于词袋模型,认为文档 d 与文档中词语 W 之间存在中间层主题 Z,且 |
文档是主题的概率分布,主题又是词的概率分布,由此可将高维度的文档-词项 |
向量空间模型映射为低维度的文档-主题和主题-词项空间, 进而挖掘文档中潜 |
蕴含的若干主题。文档的层级关系见图 4。 |
4主题模型的文档结构 |
文档的矩阵转换关系见图 5。其中,矩阵 C 表示文档中的词语概率分布, 矩 |
阵中表示主题下的词语概率分布,矩阵6表示文档下的主题概率分布,而分析主 |
题模型的目的在于通过解析文档 C 得到矩阵9和和矩阵6。 |
证 |
文档 |
局 -词 广 |
5.主题模型的矩阵转换关系 |
2.2.3.2 根据 LDA 主题模型进行分类 |
通过 python 中的 gensim 库对于我们提取到的关键词进行 LDA 主题模型训 |
练, 指定 150 个主题,训练之后对于每一个主题提取 10 个高频词,根据高频词 |
来确定该主题的类别, 通过模型训练获得每个文档的主题分布和每个主题的词分 |
布。 |
1) 利用训练好的模型对于留言内容进行分类。 |
2) 根据该主题的高频词确定该类别,也就是热点问题的类别。 |
2.3 问题 3 分析方法与过程 |
2.3.1 流程图 |
罚言内容杀向 |
全 |
答复意见何向 |
和 |
余下怕人0度 完整性和可解 |
专家字供六问 香性效值 |
打 |
6.问题 3 流程图 |
2.3.2 问题 3 分析过程 |
2.3.2.1word2vec 分布式表示 |
使用 gensim 的 word2vec 对于分词进行向量化表示。选用CBOW 模型 , |
如图 7 所示。CBOW 模型是给定上下文来预测输入分词。Word2vec 模型实际 |
上分为两部分, 第一部分为建立模型, 第二部分是通过模型获取庶入词的词向量。 |
假设词向量的维数为 dk,每条评论文本可以表示为一个行数是词向量的维度 |
dk,列数是评论文本长度 N 与主题特征词的个数 1之和的文本和矩阵 W。其中 w |
为评论文本的词向量表示, wz 为通过 LDA 获得该评论文本的主题特征词的向量 |
表示。CBOW 模型损失函数如下公式 2.11 所示铝: |
LOW) =1N+|Z|cl<sc=0lbp (wi|wi-s wi+s) (2.11) |
其中 wi 为某个中心词,s 为中心词左右窗口大小,P 〈wilwi-s…'wi+s) 一 |
直上下文中心词为 wi 的概率大小计算方法为 2.12: |
P(wi| wi一swi+s)=exp(w0Twi)7 wedictexp(wOTw) (2.12) |
其中 w0是 wi 上下文词向量的均值,dict 为字典。 |
w0 =12s> ,j=i一si+s.j关ij 《2.13) |
INPUT PROJECTION OUTPUT |
w(i-2) |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.