# 将文档以中文逗号及中文句号为分隔符分割成短句，
# 将包含最高词频的词语的句子输出到文件out.txt中，每句一行
import jieba
if __name__ == '__main__':
    fi = open('data3.txt', 'r', encoding='utf-8')
    fo = open('out.txt', 'w', encoding='utf-8')
    # 找到最高的词频
    s = fi.read()
    k = jieba.lcut(s)
    d1 = {}
    for i in k:
        if len(i) >= 2:
            d1[i] = d1.get(i, 0) + 1
    ld = list(d1.items())
    ld.sort(key=lambda x: x[1], reverse=True)
    max_freq_word = ld[0][0]

    # 需要解决中间的一些回车键
    data2 = s.replace('，', '。')
    data2 = s.replace('\n', '')
    data2 = data2.split('。')

    for j in data2:
        if max_freq_word in j:
            fo.write(j.strip()+'\n')
    fo.close()
    fi.close()



