支持星火、千问众多模型 · 基于文件问答 · LLM本地部署 · 联网搜索 · Agent 助理 ·
鉴于当前大多数大型语言模型主要依赖收费的token机制,给用户带来了使用上的不便。本项目应运而生,旨在构建一个免费且易于使用的大型模型系统,基于大模型技术,为用户打造专属的知识库与智能助手,让用户能够更加便捷、高效地获取信息与服务。
本项目支持多种大型语言模型的接入,包括但不限于 支持 Groq、讯飞星火、通义千问、LMStudio厂商大模型
Groq: 注册后可免费调用 讯飞星火:注册后可免费调用lite大模型 通义千问:首次注册送限定时序的调用token LMStudio: 提供基于open ai 的接口,带GUI的本地模型调用
这些模型的接入方式简便快捷,无需修改源码即可在页面上配置各种模型。
通过预制的提示词(prompt)和上下文,用户可以轻松打造属于自己的智能助手。
在对话过程中,用户可以随时切换不同的大模型,以获得最佳的响应效果。
用户可以上传专属文档,构建自己的专有知识库。
如果您希望使用源码启动项目,请直接拉取 master 分支代码:
git clone https://gitee.com/vfcm/hx_gpt.git
下载Node.js安装包:首先,访问[Node.js官网](https: odejs.org/zh-cn/download/)选择适合您操作系统的版本进行下载。对于Windows系统,通常选择64位的安装包。
python.version >= 3.11.9 安装Python环境:首先,访问Python官网选择适合您操作系统的版本进行下载。
mysql.version >= 8.0.0 安装mysql数据库:首先,访问mysql官网选择适合您操作系统的版本进行下载。
使用docker启动:
docker run -it --network mysql-network --rm mysql mysql -hsome-mysql -uexample-user -p
redis-stack.version >= 6.2.6-v17
使用docker启动:
$ docker run -p 6379:6379 -p 8001:8001 redis/redis-stack:latest
方式一:进入魔塔社区,搜索BAAI/bge-large-zh,然后下载模型文件到本地
使用命令行工具下载模型
modelscope download --model 'BAAI/bge-large-zh' --local_dir
'E://bge'
方式二:、使用阿里云盘下载模型
链接: https://pan.baidu.com/s/17fV4DHjTqQ5JADE31_EVeg?pwd=6b3i 提取码: 6b3i
下载完成后解压目录到本地 进入BAAI\bge-large-zh的目录中,并记录当前绝对路径
如:E:\plugIn\models\huggingface\sentence-transformers\BAAI\bge-large-zh
进入主项目根目录,打开命令行工具执行以下命令:
// 安装依赖包
npm install
// 调试方式启动
npm run dev
进入/server目录下,打开命令行工具执行以下命令:
1、安装虚拟环境,使用venv、conda或者其他包 2、执行pip install -r requirements.txt 3、打开admin\settings.py,找到DATABASES,修改mysql数据库配置
DATABASES = {
"default": {
"ENGINE": "django.db.backends.mysql",
"NAME": "ai_agent",
"USER": "root", # 数据库用户名
"PASSWORD": "123456", # 数据库密码
"HOST": "localhost", # 数据库主机地址
"PORT": "3306", # 数据库端口号
}
}
4、打开sql文件夹,运行hx_gpt.sql,初始化数据库
5、执行python manage.py runserver 0.0.0.0:8000 启动项目(允许ip地址访问)
6、打开浏览器访问 http://127.0.0.1:3000
7、管理管理员用户密码:sytem system123456
8、点击模型,选择项目配置 配置大模型key和向量的模型路径
进入主项目根目录,打开命令行工具执行以下命令:
// 安装依赖包
npm install
// 前端打包,运行命令后会自动生成web目录
npm run build
1、2、3、4步骤跟前后端分离-启动后端项目一致 5、执行python .\manage.py runserver 启动项目 6、打开浏览器访问 http://127.0.0.1:8000 7、管理管理员用户密码:sytem system123456 8、点击模型,选择项目配置 9、配置大模型key和向量的模型路径
寻找适合你环境的 docker-compose 版本, 请参考 Docker-Compose.
举例: Linux X86 环境 可下载 docker-compose-linux-x86_64 使用.
cd ~
wget https://github.com/docker/compose/releases/download/v2.27.3/docker-compose-linux-x86_64
mv docker-compose-linux-x86_64 /usr/bin/docker-compose
which docker-compose
/usr/bin/docker-compose
docker-compose -v
Docker Compose version v2.27.3
docker network create hx_network
docker-compose up -d
打开浏览器访问 http://127.0.0.1:8000 其他配置见源码安装部署/开发部署
1、对应windows系统,由于路径问题需要安装额外依赖包,才能使用图片、文档解析
pip install "unstructured[docx]" # 安装Word文档支持
pip install "unstructured[all-docs]" # 安装所有文档类型支持
1、知识库索引优化,增加检索方式 2、智能体流程设计,多种智能体协作