yyhhyy's blog

yyhhyy

大模型学习

DB-GPT AWEL 实践所遇问题

文章讨论了在使用DB-GPT和AWEL框架时遇到的几个问题,主要集中在LLM的text2sql能力不足、取数问题以及计算能力差等方面。针对这些问题,尝试了多种解决方案,如改写system_prompt、对生成的SQL结果进行拼接、引入新的prompt结合LLM判断所需字段等。此外,还提出了编写不同的计算类算子以增强计算能力,并通过构建决策字典和prompt传递给LLM来提高计算智能性。
176
0
2
2024-04-23

VLLM简单使用

VLLM的简单使用涉及前提配置、安装、部署服务和使用。前提配置要求CUDA≥11.8和torch≥2.1.2,环境包括CUDA=12.2和A800*8 GPU。安装可通过pip或git clone进行,前者简便但需CUDA=12.1环境,后者支持最新特性但可能遇到cmake错误。部署服务需启动ray服务,支持单卡和多卡配置。使用方式与OpenAI接口相同,可通过curl请求。常见问题包括模型路径和参数设置、CUDA版本兼容性及ray服务的启动。
1082
0
1
2024-04-10

DB-GPT Text2SQL微调方法

本文介绍了DB-GPT Text2SQL微调实践,详细描述了环境准备、数据处理和模型微调的步骤。环境准备包括在CentOS 7.9系统上配置CUDA 11.7和安装DB-GPT-Hub相关依赖。数据处理部分以Spider数据集为例,展示了数据获取、划分和逻辑构造的过程,重点介绍了如何生成训练和评估数据集。模型微调部分则通过单卡训练,使用LoRA方法对Qwen-7B-Chat模型进行微调,详细说明了微调参数设置和训练脚本的执行步骤。
722
0
0
2024-03-07

Langchain-Chatchat搭建(GPU)

本文详细介绍了在CentOS 7.9环境下,使用CUDA 11.7搭建Langchain-Chatchat(GPU版本)的步骤。首先,通过Git拉取项目代码并创建Conda环境,安装指定版本的PyTorch和其他依赖。由于CUDA版本限制,部分依赖需手动调整。接着,初始化知识库并配置相关文件,包括模型、提示词和数据库设置。最后,提供了单卡和多卡启动的指令,确保项目能在GPU环境下顺利运行。
500
0
0
2024-03-04

DB-GPT搭建

DB-GPT搭建过程包括准备服务器环境(A800显卡、CUDA 11.7、Python 3.10.13),下载源码并安装依赖,配置环境变量,下载模型文件(如vicuna-13b-v1.5),并启动服务。模型文件需按指定路径命名,启动后可通过0.0.0.0:5000访问。连接数据库时需安装相应pip包。
169
0
0
2024-02-27

Langchain-Chatchat搭建(CPU)

本文介绍了如何在CentOS 7.9环境下搭建并调试Langchain-Chatchat项目,仅支持CPU调试。首先通过git克隆项目并安装相关依赖,包括FAISS向量库。接着初始化知识库和配置文件,最后启动项目。文中还提到如何配置模型路径和选择Embedding模型,支持本地模型及在线API调用。
225
0
0
2024-02-22