'''jieba库，处理中文对中文语句进行分词的第三方库  pip install jieba'''
'''安装jieba库的方法，全自动安装 pip install jieba'''
'''手动安装 去官网下载库  然后安装 '''
import jieba

'''1.jieba.lcut() 精确模式，返回可迭代的数据类型'''
str1='中国是一个历史悠久的国家'
print(jieba.lcut(str1))


'''2.jieba.lcut_for_search(s) 搜索引擎模式，返回一个列表类型'''
str2='中国是一个历史悠久的国家'
print(jieba.lcut_for_search(str2))

'''3.jieba.cut(s) 精确模式，返回一个可迭代的数据类型 '''
'''生成器对象，占用资源少'''
str3='中国是一个历史悠久的国家'
print(jieba.cut(str3))

'''怎么读取生成器中的数据？'''
'''1）遍历'''
for i in jieba.cut(str3):
    print(i)

'''2)把生成器转化为组合数据类型'''
print(list(jieba.cut(str3)))

'''4.jieba.cut(s.cut_all=True) 全模式，输出文本s中所有可能的单词'''
str4='中国是一个历史悠久的国家'
print(list(jieba.cut(str4,cut_all=True)))

'''5.jieba.add_word(w) 想分词词典中增加新词w'''
str5='中国是一个历史悠久的国家'
print(jieba.add_word('历史悠久的国家'))
print(jieba.lcut(str5))

