yyhhyy's blog

yyhhyy

最新文章

Python项目防代码泄露指南

本文介绍了如何通过编译Python代码为`.pyc`文件并删除原始`.py`文件来防止代码泄露。首先使用`compileall`模块编译项目中的所有`.py`文件,然后通过脚本将生成的`.pyc`文件移动到原始位置并删除`.py`文件。接着,设置`PYTHONPATH`环境变量指向项目根目录,最后通过模块导入的方式运行程序,而不是直接执行`.pyc`文件。
97
0
3
2024-06-20

AI原画系统

文章展示了一个个人项目演示视频,涉及AI原画系统的应用。视频内容详细展示了该系统的功能和操作流程,突出了其在艺术创作中的潜力。该项目体现了AI技术在艺术领域的创新应用,为个人开发者提供了新的创作工具和可能性。
90
0
1
2024-06-16

基于社交媒体大数据的智慧政务系统

该项目演示视频展示了一个基于社交媒体大数据的智慧政务系统,旨在利用大数据技术提升政务服务的智能化水平。通过分析社交媒体数据,系统能够更好地理解公众需求,优化政务决策和服务流程。该项目为个人开发,体现了大数据在智慧政务领域的应用潜力。
109
0
1
2024-06-16

Miniconda安装教程

文章介绍了从Anaconda切换到Miniconda的原因,并总结了二者的适用场景:Anaconda适合新手和需要预装库的用户,而Miniconda适合追求轻量级和高度定制的用户。详细描述了在Windows和Linux系统上安装Miniconda的步骤,包括下载、安装、配置环境变量和验证安装。此外,还提供了如何将conda和pip的源切换为清华源的操作指南,以提高下载速度。
333
0
4
2024-06-16

Doker-compose 网络互通

在迁移服务到1Panel时,遇到容器网络不互通的问题。1Panel默认使用bridge网络模式,导致one-api无法访问mysql和redis。通过修改compose文件,将one-api加入1panel-network网络,并使用容器名称代替IP地址进行连接,解决了网络互通问题。总结出不同容器通信的技巧:若容器在同一网络组中,直接使用容器名和端口;若不在同一网络组,则使用网络模式的网关和宿主机端口。
133
0
3
2024-05-02

DB-GPT AWEL 实践所遇问题

文章讨论了在使用DB-GPT和AWEL框架时遇到的主要问题,特别是LLM的text2sql能力不足导致的取数问题。通过system_prompt无法有效阻止LLM对SQL语句进行聚合操作,而使用gpt-4虽能避免聚合但仍存在无效取数问题。通过SQL结果拼接和引入新的prompt结合LLM判断所需字段,部分问题得到解决。此外,文章还探讨了LLM计算能力差的问题,提出了编写特定计算算子的解决方案,并建议通过构建决策字典和prompt传递给LLM来提高计算的智能性和灵活性。
281
0
4
2024-04-23

VLLM简单使用

VLLM的简单使用涉及前提配置、安装、部署服务和使用。前提配置要求CUDA≥11.8和torch≥2.1.2。安装可通过pip直接安装或从GitHub克隆最新版本。部署服务需启动ray服务,并可根据需求配置单卡或多卡模型。使用方式与OpenAI接口相同,可通过curl命令进行请求。常见问题包括模型路径和名称配置、CUDA版本兼容性及确保ray服务启动。
1172
0
3
2024-04-10

GOOGLE-Python风格规范

Google的Python风格规范强调了代码的简洁性和一致性,建议避免使用分号,每行代码不超过80个字符,并利用圆括号进行隐式行连接。缩进应使用4个空格,括号应谨慎使用,仅在必要时使用。序列元素尾部逗号在特定情况下推荐使用,以帮助格式化工具如YAPF。空行和空格的使用应遵循标准排版规范,顶级定义之间空两行,方法定义之间空一行。Shebang仅在直接执行的文件中使用,注释应遵循正确的风格。这些规范旨在提高代码的可读性和维护性。
112
0
2
2024-04-02

DB-GPT Text2SQL微调方法

本文介绍了DB-GPT Text2SQL微调实践,详细描述了环境准备、数据处理和模型微调的步骤。环境准备包括在CentOS 7.9系统上安装CUDA 11.7和DB-GPT-Hub,并处理CUDA版本问题。数据处理部分使用Spider数据集,通过信息匹配生成法划分数据,生成训练集和评估集。模型微调部分使用单卡训练,配置LoRA微调参数,包括学习率、批量大小和训练轮数等,最终生成适配器权重文件。
897
0
3
2024-03-07

Langchain-Chatchat搭建(GPU)

本文详细介绍了在CentOS 7.9环境下,使用CUDA 11.7搭建Langchain-Chatchat的步骤。首先,通过Git拉取项目代码并创建Conda环境,安装指定版本的PyTorch和其他依赖。由于CUDA版本限制,需调整部分依赖版本。接着,初始化知识库并配置相关文件,包括模型路径、提示词和数据库设置。最后,介绍了单卡和多卡启动的方法,确保在不同硬件配置下顺利运行Langchain-Chatchat。
578
0
2
2024-03-04