from langchain_community.vectorstores import Chroma
from langchain_core.documents import Document

#langchain 内置的向量数据库
#可以把已有的程序和大模型进行整合
# 和检索增强的RAG一样

#pip install langchain-chroma

#1. 文档
#2. 向量存储
#3. 检索器

# 准备一个文档
documents = [
    Document(
        page_content="我想买一张宁波到上海的火车票",
        metadata={'from':'宁波','to':'上海','name':'火车票'}
    ),
    Document(
        page_content="我想买一张宁波到上海的火车票",
        metadata={'from':'宁波','to':'上海','way':'火车'}
    ),
    Document(
        page_content="我想坐飞机从广州到长春",
        metadata={'from':'广州','to':'长春','name':'坐飞机'}
    ),
    Document(
        page_content="后天我想开车去杭州，从天津触发",
        metadata={'from':'天津','to':'杭州','way':'开车'}
    ),
    Document(
        page_content="给我订一张西安到北京的高铁票",
        metadata={'from':'西安','to':'北京','way':'高铁'}
    )
]

# 使用ollama的 em


# 实例化向量数据库
documentsVectors = Chroma.from_documents(
    documents,
    # 使用HuggingFaceBgeEmbeddings 把文档向量化
    # embedding= hf_embeddings
)











