import dotenv
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings.baidu_qianfan_endpoint import QianfanEmbeddingsEndpoint


dotenv.load_dotenv()

embedding = QianfanEmbeddingsEndpoint()

texts: list = [
    "笨笨是一只很喜欢睡觉的猫咪",
    "我喜欢在夜晚听音乐，这让我感到放松。",
    "猫咪在窗台上打盹，看起来非常可爱。",
    "学习新技能是每个人都应该追求的目标。",
    "我最喜欢的食物是意大利面，尤其是番茄酱的那种。",
    "昨晚我做了一个奇怪的梦，梦见自己在太空飞行。",
    "我的手机突然关机了，让我有些焦虑。",
    "阅读是我每天都会做的事情，我觉得很充实。",
    "他们一起计划了一次周末的野餐，希望天气能好。",
    "我的狗喜欢追逐球，看起来非常开心。",
]
metadatas: list = [
    {"page": 1},
    {"page": 2},
    {"page": 3},
    {"page": 4},
    {"page": 5},
    {"page": 6, "account_id": 1},
    {"page": 7},
    {"page": 8},
    {"page": 9},
    {"page": 10},
]

# res = FAISS.from_texts(
#     texts,
#     embedding,
#     metadatas,
#     relevance_score_fn=lambda distance: 1.0 / (1.0 + distance),
# )

res = FAISS.load_local("./vector-store/", embedding, allow_dangerous_deserialization=True)

# res.save_local("./vector-store/")
# print(res.index.ntotal)
# print(res.index_to_docstore_id)
# # 欧几里得分
print(res.similarity_search_with_relevance_scores(
    "我养了一只猫，叫笨笨"))