# !/usr/bin/env/ python3
# -*- coding: utf-8 -*-

import jieba
from snownlp import SnowNLP
import pynlpir
import thulac

s = "微博、新浪网、新浪地方站联合策划的“百城致敬40年”系列活动历时5个月，走遍祖国各地，采访到100位人物，通过他们的视角多维度地展现改革开放40年的发展和成就。今天，这些“城市人物”代表集体亮相，其中有公务员、企业家、媒体人、专家学者、文体明星，他们感言改革开放、感慨发展变化、感怀幸福生活；同时也寄语新浪，未来，我们一起加油！"

print("Jieba分词结果：")
n = len(s)
m = len(jieba.lcut(s))
print("中文字符数：{}, 中文词语数：{}".format(n, m))
print("=========================================")

print("精确模式（默认）")
print(jieba.lcut(s))
print("=========================================")

print("全模式")
print(jieba.lcut(s, cut_all = True))
print("=========================================")

print("搜索引擎模式")
print(jieba.lcut_for_search(s))
print("=========================================")


print("SnowNLP分词结果：")
print("=========================================")
aftSnowStr = SnowNLP(s)
print(s)
print("=========================================")


print("pynlpir分词结果：")
print("=========================================")
pynlpir.open()
print("默认分词模式，开启分词和词性标注功能")
segments = pynlpir.segment(s, pos_english = False)
print(segments)
# print("=========================================")
# print("name:分为'parent'(获取该词性的最顶级词性，默认为'parent')，'child'(获取该词性最具体的信息)，'all'(获取该词性相关的所有词性")
# segments = pynlpir.segment(s, pos_names = 'all', pos_english = False)
# print(segments)
print("=========================================")

print("关闭词性标注功能")
segments = pynlpir.segment(s, pos_tagging = False, pos_english = False)
print(segments)
print("=========================================")

print("获取关键词")
segments = pynlpir.get_key_words(s)
print(segments)
pynlpir.close()
print("=========================================")


print("thulac分词结果：")
print("=========================================")
thul = thulac.thulac() # 默认模式
print(thul.cut(s, text = True))
print("=========================================")
thul = thulac.thulac(seg_only=True, filt=True)
# user_dict 设置用户词典,用户词典中的词会被打上uw标签。词典中每一个词一行,UTF8编码 
# T2S 默认False, 是否将句子从繁体转化为简体 
# seg_only 默认False, 时候只进行分词,不进行词性标注 
# filt 默认False, 是否使用过滤器去除一些没有意义的词语,例如“可以”。 
# model_path 设置模型文件所在文件夹,默认为models/ 
# deli 默认为‘_’, 设置词与词性之间的分隔符 
# rm_space 默认为True, 是否去掉原文本中的空格后再进行分词
print(thul.cut(s, text = True))
print("=========================================")