LLM-RAG项目 P2 项目快速部署流程演示
前面课程中,给大家演示了项目的完整效果。正常来说,就应该开始写代码了,但是根据历史经验,很多同学习惯在学习之前,会先自己尝试跑一下代码。但往往不跟课程走的话,是很难跑起来的。
所以这个课程,改一下流程,在正式的讲解主体内容之前,先给大家演示部署的流程,正好这些环境,也是得提前配置的。
课前准备
环境说明1、Python3.9+,建议使用Miniconda。
2、Docker,使用Docker安装Milvus、PostgreSQL、Redis。
3、Docker配置国内镜像,或者切网络。
"registry-mirrors": [ "https://docker.m.daocloud.io", "https://docker.fxxk.dedyn.io" ]
账号要求
1、需要OpenAI直连账号,网络有问题的可以购买,或者用兼容OpenAI的国产模型账号。
2、也可以自己部署本地模型,但要求部署成兼容OpenAI的http服务。
部署流程
## 安装依赖软件 docker-compose -f milvus-standalone-docker-compose.yml up -d docker-compose up -d ## 数据库迁移 flask db upgrade ## Milvus初始化 flask dataset_init_milvus ## 启动 celery 队列监听 celery -A app.celery worker -c 2 --loglevel INFO -Q dataset --logfile storage/logs/celery_worker.log ## 启动flask服务 flask run --debug
好的,这节课的内容其实不多,大家看我部署很流畅,但自己去操作,可能还是会遇到一些问题。遇到问题也不要慌,要多一些耐心,同时可以借助GPT工具,去找到你专属的解决方案。
配置环境,也是我们日后开发过程中,必不可少的一课,每一个坎都是成长的阶梯,没有捷径,就是多尝试。
本文链接:http://edu.ichenhua.cn/edu/note/736
版权声明:本文为「陈华编程」原创课程讲义,请给与知识创作者起码的尊重,未经许可不得传播或转售!