import torch
from ltp import LTP

# model_path = "LTP/small"  # 默认 huggingface 下载，可能需要代理
# WSL
# model_path = "/home/peiyp2004/.cache/huggingface/hub/models--LTP--small/snapshots/0b3e08649fe02688112fa21e69e3eec38101fcaa"
# New PC
model_path = "/home/yunpeng/models/hf/ltp-small/0b3e08"

ltpo = LTP(model_path)  # 默认加载 Small 模型
                        # 也可以传入模型的路径，ltp = LTP("/path/to/your/model")
                        # /path/to/your/model 应当存在 config.json 和其他模型文件

# 将模型移动到 GPU 上
if torch.cuda.is_available():
    # ltpo.cuda()
    ltpo.to("cuda")
    
print(ltpo)

xdict = ltpo.pipeline([
    # '',
    '在刚刚过去的一九九七年，中国进出口贸易中，国有企业与外商投资企业齐头并进，国有企业继续居于主导地位，外商投资企业仍然发挥重要的作用。',
    '上海计划到本世纪末实现人均国内生产总值五千美元。',
    '日文章魚怎麼說? ',
    '警察枪杀了那个逃犯',
    '警察用枪杀了那个逃犯',
], tasks=['cws', 'pos'], return_dict=True)
print(xdict)
