# import jieba
# from rouge_score import rouge_scorer, tokenizers
#
# # 自定义分词器
# class JiebaTokenizer(tokenizers.Tokenizer):
#     def tokenize(self, text):
#         return list(jieba.cut(text))
#
# # 初始化 ROUGE 计算器，使用自定义分词器
# scorer = rouge_scorer.RougeScorer(['rougeL'], tokenizer=JiebaTokenizer(), use_stemmer=False)
#
# # 示例文本
# text1 = "认为该学生的行为恶劣，有杀人潜质，强调必须严惩以儆效尤"
# text2 = "认为该学生的行为恶劣，有杀人潜质，强调必须严惩以儆效尤"
#
# # 计算 ROUGE-L 分数
# scores = scorer.score(text1, text2)
# print(f"ROUGE-L 分数: {scores['rougeL'].fmeasure}")