使用Ollama+Lobechat部署本地AI助手
昨天看到朋友搞了个自己的ai,我也有点蠢蠢欲动了,于是便自己也看了看教程部署了一下自己本地的ai
下载Ollama
https://ollama.com/ 在ollama官网下载ollama 安装完成后在终端输入ollama,显示下图则说明安装成功
点击Ollama里面的Models,选择自己想要下载的模型,我这里选择的是glm4 复制ollama run glm4这个命令,在终端运行,就会开始下载模型了,下载完成后会有如下界面 这时候已经可以在终端开始和他的对话了,至此Ollma的安装已经完成。但是总是在命令行对话不美观也不方便,因此我们需要安装一些别的东西
下载lobechat
在windows下安装lobechat首先需要安装WSL 具体安装方法请自行上网查询
然后就是要安装Docker-Desktop,官网链接
在中间的搜索框搜索lobe-chat找到lobehub/lobe-chat并pull 拉取成功后就能在images这里看到他了 这时候输入
docker run -d -p 3210:3210 -e OPENAI_KEY=sk-xxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
进行启动,就可以在http://localhost:3210/这里访问了 进入这里之后点击左上角的头像,点击设置 完成以后点击这个模型列表,然后加入我刚刚在ollama这里下载的glm模型即可 这时候就可以回到主页,在自定义助手这里选择自己所需要的模型了。 祝大家使用愉快