# OllamaWeb **Repository Path**: xmlgrg/ollama-web ## Basic Information - **Project Name**: OllamaWeb - **Description**: 部署ollama+deepseek+node.js+vue3+gin前后端分离实验样例 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2025-03-25 - **Last Updated**: 2025-03-25 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # OllamaWeb Beta version ## 说明 本项目为本地部署ollama+deepseek+node.js+vue3+gin前后端分离实验样例 实用性仍需开发扩展,目前前端仅支持短会话。 下文的命令,请根据实际开发不同的系统和终端来使用,更改 ## 命令:本地部署大数据模型 安装ollama ```bash curl https://ollama.ai/install.sh | sh ``` 安装后启动ollama然后拉取想要的模型(以最小的deepseek-r1:1.5b为例) ```bash ollama serve # 可以去deepseek查看可以拉取的不同模型,此处为最小模型 ollama run deepseek-r1:1.5b ``` ## 命令:后端环境 ```bash wget https://go.dev/dl/go1.21.6.linux-amd64.tar.gz # 解压 Go 安装包 sudo tar -C /usr/local -xzf go1.21.6.linux-amd64.tar.gz # 编辑 ~/.bashrc 文件 echo 'export PATH=$PATH:/usr/local/go/bin' >> ~/.bashrc # 使配置立即生效 source ~/.bashrc # 在go mod根目录下运行一下命令,自动下载相关依赖 go mod tidy ``` ## 命令:前端环境 ```bash # 使用 npm 安装依赖 npm install # 或者使用 yarn 安装依赖 yarn install ``` ## 命令:启动前后端 启动后端 ```bash go run main.go ``` 启动前端 ```bash # 如果使用 npm npm run dev # 如果使用 yarn yarn dev ``` 打开localhost:8081为前端页面 后端默认使用8080端口,前端顺序使用8081端口,如果有需求可以在代码里修改监听端口。 ![效果如图](效果图.png)