内容概要:这是一个chatglm-6b项目源代码,可以轻松在自己电脑部署大模型。请输入问题后点击提交,可以看到想要的答案 技术方案:后端python、前端html、用nginx部署前端 适合人群:无任何基础的小白,具备一定编程基础,学生、工作1-3年的研发人员、从事语音识别开发的工程师、科研人员 能学到什么:快速在本地体验大模型 阅读建议:源有任何问题可以联系作者 其他:需要相关资料,或者咨询,请联系作者 --------------------------------------------------------------------------- 适合人群:无任何基础的小白,具备一定编程基础,学生、工作1-3年的研发人员、从事语音识别开发的工程师、科研人员 能学到什么:快速在本地体验大模型 阅读建议:源有任何问题可以联系作者
2024-01-13 14:31:33 590KB python nginx
1
chatglm-6b.tgr.7z.021
2023-12-13 09:30:24 990MB
1
ChatGLMChatGLM6B多用户访问接口,支持http、websocket和前端页面多用户同时访问,ChatGLM模型部署详细介绍请参考博文“https://blog.csdn.net/suiyingy/article/details/130412307”。ChatGLM6B默认的部署程序仅支持单用户访问,多用户则需要排队。测试过相关的几个Github多用户工程,但是其中一些仍然不满足要求。本程序实现多用户同时访问Chat GLM的部署接口,包括http、websocket(流式输出,stream)和web页面等方式。
2023-10-19 14:43:46 6KB ChatGLM6B ChatGLM 多用户 http
https://blog.csdn.net/dingsai88/article/details/130639365 部署自己的chatglm,不需要买硬件。
2023-07-02 20:50:07 13KB chatgpt chatglm
1
chatglm使用lora进行模型微调训练,没有采用官方的方案,使用了另一种效果好的方案,对于显存特别友好,24g显存就能训练自己的垂直领域大模型训练了,效果还是非常的好的,适合自己机器不是很多的需要做实验的同学
2023-06-29 21:32:48 13.07MB 大语言模型 chatglm lora 指令集微调
1