位置:首页 > 新闻资讯 > OpenWebUI 部署 Ollama 可视化对话界面

OpenWebUI 部署 Ollama 可视化对话界面

时间:2025-03-18  |  作者:  |  阅读:0

本文介绍两种部署ollama webui的方法:使用node.js和使用docker。

一、Node.js部署

  1. 安装Node.js: 从官网下载并安装Node.js: https://www.php.cn/link/c273a867d4f81ad1055432bd598e114e 安装完成后,建议设置npm镜像源,例如腾讯云镜像:npm config set registry http://mirrors.cloud.tencent.com/npm/

  1. 克隆仓库: 使用Git克隆Ollama WebUI Lite仓库:git clone https://www.php.cn/link/5bd7ddf87f22021a5f5d682ce5f93ad6.git,然后进入仓库目录:cd ollama-webui-lite

  2. 安装依赖: 运行 npm ci 安装项目依赖。

  1. 运行: 执行 npm run dev 启动应用。

访问 http://localhost:3000/ 即可使用。

二、Docker部署 (Windows)

本节介绍在Windows系统下使用Docker部署Ollama WebUI。 请确保已安装Ollama并完成配置。

  1. 拉取镜像并运行: 在终端执行以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main登录后复制

运行成功后,终端会显示容器ID。 在Docker的容器列表中可以看到 open-webui 容器。

  1. 访问应用: 访问 http://localhost:3000/ 或Docker分配的端口。

  1. 注册并使用: 注册账号后,选择模型即可开始对话。

更多信息请参考: https://www.php.cn/link/c273a867d4f81ad1055432bd598e114e 和 https://www.php.cn/link/c273a867d4f81ad1055432bd598e114e

来源:https://www.php.cn/faq/1257033.html
免责声明:文中图文均来自网络,如有侵权请联系删除,心愿游戏发布此文仅为传递信息,不代表心愿游戏认同其观点或证实其描述。

相关文章

更多

精选合集

更多

大家都在玩

热门话题

大家都在看

更多