import spacy

# 加载中文模型
# 你只需要加载一次模型，之后可以用它处理很多文本
nlp = spacy.load("zh_core_web_sm")

sentence = "都江堰为唯一现存无坝引水工程，青城山新增森林疗愈步道及冥想亭。"
# 将句子传递给 nlp 对象进行处理
doc = nlp(sentence)

# doc 对象包含分词后的结果 (Token)
# 我们可以通过遍历 doc 来获取每个词
# token.text 属性就是词语的文本
tokens = [token.text for token in doc]

print(f"spaCy 分词结果: {tokens}")

# 你还可以同时获取其他信息，比如词性 (POS)
for token in doc:
    print(f"词: {token.text}, 词性: {token.pos_}")