text stringlengths 0 18.7k |
|---|
1.1 主要用到如下步骤。 |
步骤一:对数据的读取,数据的抽取。本数据是 Excel 表,而每列 |
是各种数据,对群众留言内容进行一级标签分类模型。 |
步骤二:数据的预处理,题目给出的数据中,群众留言列中有许多 |
不需要的字符如Xt等和一些不需要的标点符号更有一些语气助词, |
这一类对数据分析是没有任何用处的,我们需要将它们去除掉,我们 |
还需要对数据检查是否有空缺职, 如果有对其进行填补,还要对数据 |
进行去重处理,之后我们需要用到中文分词。 |
步骤三:数据分析, 在对数据分析中, 首先要对数据进行文本特征 |
选择,用数学方式,选取最是分类的留言特征,如卡方检验,文档频 |
率,之后对得出的特征词进行向量化表示,以提供以挖掘分析使用, |
在这里中使用TF一IDF 算法,找出文本中的关键词,把群众留言信息 |
转化为权重向量,采用 F一Score 算法对群众留言进行分类。 |
步骤四:建立模型,对数据转化为权值向量数据分析建立模型,对 |
模型进行测试与优化。 |
1.1 流程图 |
国国 |
1.2 数据预处理 |
1.2.1 对群众留言信息去除重,去空 |
在题目中给出的 Excel 表数据中,在群中留言中,可能有这用户 |
有留言问题存在重复,在某一小区中,多用户遇到某一些问题,会进 |
行反馈留言问题,而其他群众也同时反馈了同样的问题,下都进行了 |
同一类问题的反馈,这就会引起一定的重复数据,所以我们需要用到 |
pandas 模块中的 drop_duplicates () 方法对文本数据去除重复的数 |
据,在很大的数据中,可能会存在某一处数据为空缺值,则我们需要 |
用info () 方法,检查数据是否存在空缺值。 |
1.2.2 对群众留言信息进行中文分词。 |
在对群众留言进行数据挖掘分析之前, 需要对非结构化的文本信 |
息转换为计算机能够识别的结构化信息,在题目提供的附件中,是以 |
中文文本的方式给出了数据,为了便于转换,先要对这些群众留言 |
容进行中文分词,在分词前,文本数据中都会存在一些不需要的字符 |
如 X、t 等,还有一些不需要的停用词,而我们需要将这些去除掉后 |
再进行中文分词操作,在去除文本中的字符 X t 等,要用到 re 模块 |
吕 |
中 apply 方法,然而在去除停用词中,我们则需要有去除停用词表, |
而这停用词表,就是自己需要去除的字符和语气词,在编写中导 |
表再循环遍历去掉停用词,以上进行后我们采用 Python 的中文分词 |
包,jieba 包进行分词,jieba 分词基于前缀词典实现高效词图,采用 |
基于汉字成词能力的 HMM 模型, 能提出文本中词频的最好的分词效 |
果。 |
TF-IDF 算法步骤 |
第一步,计算词频: |
词频(TF) = 某个词在文章中的出现次数 |
考虑到文章有长短之分,为了便于不同文章的比较,进行"词频"标 |
准化。 |
某个词在文章中的出现次数 |
文章的总词数 |
词频(TF) = |
第二步,利用TF-IDF 来计算权重,计算逆文档频率: |
这时,需要一个语料库 (corpus) ,用来模拟语言的使用环境。 |
语料库的文档总老 |
逆文档频率(IDF) = log (一一一) |
包含该词的文档数+ 1 |
如果一个词越常见,那么分母就越大,逆文档频率就越小越接近 |
0。分母之所以要加 1,是为了避免分母为0 〈即所有文档都不包含 |
该词) 。log 表示对得到的值取对数。 |
第三步,计算TF-IDF: |
TF - IDF = 词频(TF) x 道文档频率 ( IDF ) |
可以看到,TF-IDF 与一个词在文档中的出现次数成正比,与该词在 |
整个语言中的出现次数成反比。所以,自动提取关键词的算法就很 |
清楚了,就是计算出文档的每个词的TF-IDF 权值,然后按降序排 |
列,取排在最前面的几个词。 |
第三步 计算 TF一IDF 权值 ,后写第四步 ”利用F一Score 建立模 |
由 |
F-Score (非模型评价打分,区别与 F1_score) 是一种衡量特征在 |
汉 |
两类之间分辨能力的方法,通过此方法可以实现最有效的特征选 |
择。 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.