Langchain-Chatchat搭建(CPU)
编辑2024-02-22
Langchain-Chatchat本地调试(仅调试成功CPU)
1.环境概况:
centos7.9
Chatchat==0.2.7
# 拉取仓库
git clone https://github.com/chatchat-space/Langchain-Chatchat.git
# 进入目录
cd Langchain-Chatchat
# 安装全部依赖
pip install -r requirements.txt
pip install -r requirements_api.txt
pip install -r requirements_webui.txt
# 默认依赖包括基本运行环境(FAISS向量库)。如果要使用 milvus/pg_vector 等向量库,请将 requirements.txt 中相应依赖取消注释再安装。
2.初始化知识库和配置文件
# 生成配置文件
python copy_config_example.py
# 初始化知识库
python init_database.py --recreate-vs
3.启动
python startup.py -a
PS:
进入config文件夹
model_config.py为主
# 选用的 Embedding 名称
EMBEDDING_MODEL = "bge-large-zh-v1.5" # 根据需求选择EMBEDDING模型
# LLM模型 支持本地模型及在线api
# list的第一个为调用接口默认选用的模型
LLM_MODELS = ["chatglm3-6b", "zhipu-api", "openai-api"]
# 模型路径
# Langchain-Chatchat 为根目录 可以使用相对路径或绝对路径来确定模型的位置 (如果本地有模型的话)
# 例子
MODEL_PATH = {
"Qwen1.5-4B-Chat": "../model/Qwen/Qwen1.5-4B-Chat",
}
- 0
- 0
-
分享