本文章参考多位大神的视频和博客详细说明,并仅用作记录以及技术分享,本人技术不高,但是永远保持学习的学徒心态。参考 - ReferenceRAG多人用!使用Anything LLM实现本地AI大模型RAG的Web服务 How to use Dockerized Anything LLM优先在macbook上面安装docker,无脑跟着网站链接官网下载即可,如果是国内的朋友可能需要通过镜像源,我之后如果找到靠谱且速度快的镜像源我会在本文下更新(会忘的)。Install Docker Desktop on Mac 安装完docker后激活 打开cmd命令行:优先登陆docker(请忽略我的账号密码,当然其实泄漏了也没什么关系):docker login -u rogersmart -p Chz20000719@ 之后命令行输入 docker pull mintplexlabs/anythingllm接下来打开docker看到镜像名字 images 里面看得到刚刚拿到的镜像接下来在cmd中输入官网给的配置代码,建议直接复制粘贴如下代码:`export STORAGE_LOCATION=$HOME/anythingllm && \mkdir -p $STORAGE_LOCATION && \touch "$STORAGE_LOCATION/.env" && \docker run -d -p 3001:3001 \--cap-add SYS_ADMIN \-v ${STORAGE_LOCATION}:/app/server/storage \-v ${STORAGE_LOCATION}/.env:/app/server/.env \-e STORAGE_DIR="/app/server/storage" \mintplexlabs/anythingllm` 再次打开docker,进入containers看得到容器后续要使用的话直接在action中点击stop和start即可,点击port处的箭头即可开始浏览器使用此处选择需要的大语言模型,因为想蹭deepseek的热度选择Ollama,如果没法选择或者报错可能是没有安装Ollama,关于Ollama的安装,百度搜索一下即可,底下的Ollama model会自动找出本地下载好的大语言模型,我这里是8b就不做过多的演示了用户设置选择“我的团队”测试一下ollama和deepseek都已经完美接入了后续记得在聊天设置和代理配置中都设置为Ollama,因为本人不是很喜欢白色,于是将页面换成了黑色的默认背景色,后续记得在全局设置中找到embedeer首选项更改