使用Ollama+Lobechat部署本地AI助手

2024 年 11 月 7 日 星期四(已编辑)
46
这篇文章上次修改于 2024 年 11 月 7 日 星期四,可能部分内容已经不适用,如有疑问可询问作者。

使用Ollama+Lobechat部署本地AI助手

昨天看到朋友搞了个自己的ai,我也有点蠢蠢欲动了,于是便自己也看了看教程部署了一下自己本地的ai

下载Ollama

https://ollama.com/ 在ollama官网下载ollama 安装完成后在终端输入ollama,显示下图则说明安装成功

img

img

点击Ollama里面的Models,选择自己想要下载的模型,我这里选择的是glm4

img

img
复制ollama run glm4这个命令,在终端运行,就会开始下载模型了,下载完成后会有如下界面
img

img
这时候已经可以在终端开始和他的对话了,至此Ollma的安装已经完成。但是总是在命令行对话不美观也不方便,因此我们需要安装一些别的东西

下载lobechat

在windows下安装lobechat首先需要安装WSL 具体安装方法请自行上网查询

然后就是要安装Docker-Desktop,官网链接

在中间的搜索框搜索lobe-chat找到lobehub/lobe-chat并pull

img

img
拉取成功后就能在images这里看到他了 这时候输入

docker run -d -p 3210:3210 -e OPENAI_KEY=sk-xxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat

进行启动,就可以在http://localhost:3210/这里访问了 进入这里之后点击左上角的头像,点击设置

img

img
完成以后点击这个模型列表,然后加入我刚刚在ollama这里下载的glm模型即可 这时候就可以回到主页,在自定义助手这里选择自己所需要的模型了。
img

img
祝大家使用愉快

使用社交账号登录

  • Loading...
  • Loading...
  • Loading...
  • Loading...
  • Loading...