import pandas as pd
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt

# 文本数据的DataFrame
data =pd.read_csv(r"D:\大三上学期实验\python数据分析实验\processed_data_output.csv")

# 中文乱码的处理
plt.rcParams['axes.unicode_minus'] = False  # 解决负号乱码问题
plt.rcParams['font.family'] = 'SimHei'  # 解决中文乱码问题
# 为了画图中文可以正常显示
plt.rcParams['font.sans-serif'] = ['Microsoft YaHei']  # 指定默认字体
plt.rcParams['axes.unicode_minus'] = False  # 解决保存图像时负号'-'显示为方块的问题

# 拼接文本数据
text = ' '.join(data['案件基本情况'])
# text=str(text)
print(text)


# 定义需要删除的字符
chars_to_remove = ['被告人', '被害人','年','月','日','某某','的','在','元',
                   '人民币','某','为','被','并','与','了','将','后','和',
                   '其','万','等','向','对','经','已','及','至','于','公安局',
                   '已','及','刘','李','公司','共计','进行','上述','鉴定','时','用']

# 循环遍历需要删除的字符，并使用空字符替换它们
for char in chars_to_remove:
    text = text.replace(char, '')

print(text)

# 使用jieba进行中文分词
seg_list = jieba.cut(text)

# 将分词结果转换为空格分隔的字符串
text = " ".join(seg_list)

# 中文分词和停用词处理

# 创建一个词云对象
wordcloud = WordCloud(width=800, height=400, background_color='white',font_path='simfang.ttf').generate(text)

# 生成词云图
# 显示词云图像
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis('off')
plt.show()