import pandas as pd
import numpy as np
from jieba import analyse

# 读取csv文件
df = pd.read_csv('../static/data/qi_dian_book.csv')
# 提取每个书籍 introduction 中的关键词，并将其转换为字符串
keyword_list = [','.join(analyse.extract_tags(i.replace('.', ''), topK=10)) for i in df['introduce'].values.tolist()]
# 将关键词字符串用逗号连接，并以逗号分割
keyword_list = ','.join(keyword_list).split(',')
# 将关键词列表转换为数组
keyword_list = np.array(keyword_list)
# 将关键词数组转换为DataFrame
df_keyword = pd.DataFrame(keyword_list).rename(columns={0: 'word'})
# 将DataFrame按关键词分组，并计算每个关键词出现的次数
df_keyword = df_keyword.groupby('word').value_counts().reset_index().rename(columns={0: 'count'})
# 根据出现次数对DataFrame进行排序
df_keyword.sort_values('count', ascending=False, inplace=True)
# 将DataFrame保存为csv文件
df_keyword.to_csv('../static/data/word_cloud.csv', index=False)
