# 对一篇中文文献,;
# 利用jieba库, 进行词频统计分析找出文章的关键词(取词频最高的前10个词语, 作为文章的关键字

import jieba

with open('7.txt', mode='r', encoding='utf-8') as f:
    txt = f.read()

words = jieba.lcut(txt)  # 使用jieba进行分词，将文本分成词语列表
count = {}
for word in words:  # 使用 for 循环遍历每个词语并统计个数
    if len(word) < 2:  # 排除单个字的干扰，使得输出结果为词语
        continue
    else:
        count[word] = count.get(word, 0) + 1  # 如果字典里键为 word 的值存在，则返回键的值并加一，如果不存在键word，则返回0再加上1

li = list(count.items())  # 将字典的所有键值对转化为列表
li.sort(key=lambda x: x[1], reverse=True)  # 对列表按照词频从大到小的顺序排序

for i in range(10):  # 此处统计排名前五的单词，所以range(5)
    word, number = li[i]
    print(f"关键字：{word} | 频次：{number}")

