# -*- coding:utf-8 -*-
import os
import pandas as pd
import numpy as np
import matplotlib as mpl
import matplotlib.pyplot as plt
from PIL import Image
import jieba  # 安装：conda install jieba	（分词）
from wordcloud import WordCloud  # 词云
from pyecharts import Geo  # 安装：pip install pyecharts		（conda安装时提示没有）（数据图表）


BASE_DIR = os.path.dirname(os.path.abspath(__file__))


def parse_data(file_name):
	data = pd.read_csv(file_name, encoding='gbk')
	# print data.head(10)  # 前10行
	# print data.tail(10)  # 后10行
	# print data.loc[:0]  # 第一行  row-行带字段名
	# print data.iloc[:, 0]  # 第一列 col-列 带索引

	# 统计学历要求各占数量
	# print data[u'学历要求'].value_counts()  # 注意编码问题，`学历要求`前加`u`

	"""
	mpl.rcParams["font.sans-serif"] = ['SimHei']  # 配置绘图字体（解决汉字显示问题）

	# 绘制学历要求各占数量图
	data[u'学历要求'].value_counts().plot(kind='bar')
	plt.show()

	# 绘制工作经验各占数量图
	data[u'工作经验'].value_counts().plot(kind='bar')
	plt.show()

	# 绘制工作经验各占数量图
	data[u'工作地点'].value_counts().plot(kind='bar')
	plt.show()

	# 绘制工作经验各占数量图
	data[u'薪资范围'].value_counts().plot(kind='bar')
	plt.show()
	"""

	# 词云
	wordlist_after_jieba = ''
	stopwords = [u'PYTHON', u'Python', u'python', u'工程师', '(', ')', '/']
	for n in range(data.shape[0]):
		seg_list = list(jieba.cut(data[u'职位名称'][n]))
		for seg in seg_list:
			if seg not in stopwords:
				wordlist_after_jieba = wordlist_after_jieba + seg + ''

	mask_bg = np.array(Image.open(os.path.join(BASE_DIR, "logo.png")))  # 背景图

	my_wordcloud = WordCloud(font_path=r'./DroidSansFallbackFull.ttf',
							 mask=mask_bg, background_color='gray',
							 max_font_size=88, width=1000, height=1000).generate(wordlist_after_jieba)

	plt.imshow(my_wordcloud)
	plt.axis('off')
	plt.show()


if __name__ == '__main__':
	file_name = r'./data_Python.csv'
	parse_data(file_name)
