侧边栏壁纸

Macbook部署AnythingLLM+deepseek网页版本

2025年02月27日 70阅读 0评论 0点赞

本文章参考多位大神的视频和博客详细说明,并仅用作记录以及技术分享,本人技术不高,但是永远保持学习的学徒心态。

参考 - Reference

RAG多人用!使用Anything LLM实现本地AI大模型RAG的Web服务
How to use Dockerized Anything LLM

优先在macbook上面安装docker,无脑跟着网站链接官网下载即可,如果是国内的朋友可能需要通过镜像源,我之后如果找到靠谱且速度快的镜像源我会在本文下更新(会忘的)。

Install Docker Desktop on Mac

m7t8w3cp.png

安装完docker后激活 打开cmd命令行:优先登陆docker(请忽略我的账号密码,当然其实泄漏了也没什么关系):

docker login -u rogersmart -p Chz20000719@   

Test

之后命令行输入 docker pull mintplexlabs/anythingllm

Test

接下来打开docker看到镜像名字 images 里面看得到刚刚拿到的镜像

Test

接下来在cmd中输入官网给的配置代码,建议直接复制粘贴如下代码:

`export STORAGE_LOCATION=$HOME/anythingllm && \
mkdir -p $STORAGE_LOCATION && \
touch "$STORAGE_LOCATION/.env" && \
docker run -d -p 3001:3001 \
--cap-add SYS_ADMIN \
-v ${STORAGE_LOCATION}:/app/server/storage \
-v ${STORAGE_LOCATION}/.env:/app/server/.env \
-e STORAGE_DIR="/app/server/storage" \
mintplexlabs/anythingllm`

Test

Test

再次打开docker,进入containers看得到容器

Test

后续要使用的话直接在action中点击stop和start即可,点击port处的箭头即可开始浏览器使用

Test

此处选择需要的大语言模型,因为想蹭deepseek的热度选择Ollama,如果没法选择或者报错可能是没有安装Ollama,关于Ollama的安装,百度搜索一下即可,底下的Ollama model会自动找出本地下载好的大语言模型,我这里是8b就不做过多的演示了

Test

用户设置选择“我的团队”

Test

测试一下ollama和deepseek都已经完美接入了

Test

后续记得在聊天设置和代理配置中都设置为Ollama,因为本人不是很喜欢白色,于是将页面换成了黑色的默认背景色,后续记得在全局设置中找到embedeer首选项更改

Test

0
打赏

—— 评论区 ——

请登录后发表评论
立即登录
LOGIN