# -*- coding: utf-8 -*-
"""
Created on Tue Jun 30 16:43:09 2020

@author: gzs15727
"""


# -*- coding: utf-8 -*-
"""
Created on Tue Jun 30 15:57:45 2020

@author: gzs15727
"""

##############中文分词&过滤词汇&词频统计############
from os import path
from PIL import Image
import numpy as np
import matplotlib.pyplot as plt
import jieba
from wordcloud import WordCloud, STOPWORDS
#import re # 正则表达式库
#import collections # 词频统计库


###当前文件路径
d = path.dirname('__file__')

# 读进文本内容变为file.  txt保存的时候记得保存utf-8格式
file = open(path.join(d,"licee.txt"),encoding='utf-8').read()


##进行分词
#把不想要的词汇放进stop_words列表【】
stop_words = ['游戏','东西','自己','多一些','时候','这个','一些','不要','一个','一下','还有','建议','可以','你们','现在','越来越','已经','应该','还是','目前','希望','知道','网易','大神','没有','什么','真的','暂时','暂无','比如','觉得','不是','有些','就是','阴阳师','但是','呢么','我们','或者','其他','有时候','有点','如果','只有',]
#将整个file文本切割成词汇
cut_words =jieba.cut(file)
#将file中的排除掉stop_words的词汇汇入words
words = [w for w in cut_words if w not in stop_words]
#生成无stop_words的词汇列表text
text = " ".join(words)

#打开词云要模仿的图形图片【yun.png】为alice_mask；png效果比较好，jpg也可以
alice_mask = np.array(Image.open(path.join(d,"dashen_logo.png")))
stopwords = set(STOPWORDS)
stopwords.add("said")
wc = WordCloud(
    #设置字体，不指定就会出现乱码,这个字体文件需要结合系统，以下字体是windows的
    font_path=r'C:\Windows\Fonts\STZHONGS.TTF',
    background_color="white",
    max_words=20,
    mask=alice_mask,
    stopwords=stopwords)
# generate word cloud
wc.generate(text)

# store to file
wc.to_file(path.join(d, "dashen_logo.jpg"))


####### 词频统计【需要的时候去掉这一段的一个注释符号即可】########
#word_counts = collections.Counter(words) # 对分词做词频统计
#word_counts_top = word_counts.most_common(1000) # 获取前10最高频的词
#print (word_counts_top) # 输出检查


# show
plt.imshow(wc, interpolation='bilinear')
plt.axis("off")
plt.figure()
plt.imshow(alice_mask, cmap=plt.cm.gray, interpolation='bilinear')
plt.axis("off")
plt.show()




