国内用户下载慢的根源是默认连接海外服务器,通过配置国内镜像源或设置代理可提升速度 5-10 倍,优先用官方国内镜像或阿里云镜像,操作简单且稳定。
一、Ollama 软件安装包加速(Windows/macOS/Linux)
1. 官方国内镜像(推荐)
# Linux/macOS 一键安装(自动切换国内源)
curl -fsSL https://ollama.com/install.sh | sed "s|https://ollama.com/download|https://mirror.ollama.com/download|g" | sh
# Windows 直接下载国内镜像安装包
https://mirror.ollama.com/install/windows/ollama-installer.exe
2. 云服务商镜像(备选)
| 镜像名称 | 下载地址 | 特点 |
|---|---|---|
| 阿里云 | https://mirrors.aliyun.com/ollama/install/ | 稳定,国内访问快 |
| 智源研究院 | https://mirror.baai.ac.cn/ollama/install/ | 学术机构维护,更新及时 |
| GitHub 镜像 | https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download | 适合特殊版本下载 |
二、模型下载加速(核心痛点)
方法 1:环境变量配置国内镜像(推荐,最简便)
临时生效(当前终端)
# Windows PowerShell
$env:OLLAMA_MODEL_SERVER="https://mirror.ollama.com"
# Linux/macOS
export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"
永久生效(系统级)
Windows
- Win+R 输入
sysdm.cpl打开系统属性 - 高级 → 环境变量 → 新建(用户变量)
- 变量名:
OLLAMA_MODEL_SERVER,变量值:https://mirror.ollama.com - 重启命令行 / PowerShell 和 Ollama 服务
Linux
# 系统级配置(所有用户生效)
sudo mkdir -p /etc/ollama
echo 'OLLAMA_MODEL_SERVER=https://mirror.ollama.com' | sudo tee /etc/ollama/env
sudo systemctl restart ollama.service
# 用户级配置(仅当前用户)
echo 'export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"' >> ~/.bashrc
source ~/.bashrc
macOS
echo 'export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"' >> ~/.zshrc
source ~/.zshrc
# 重启 Ollama 服务
brew services restart ollama
方法 2:优质国内镜像源列表(按需选择)
| 镜像名称 | 地址 | 特点 |
|---|---|---|
| Ollama 官方国内镜像 | https://mirror.ollama.com | 官方维护,最稳定 |
| 阿里云 | https://mirrors.aliyun.com/ollama/ | 国内 CDN,速度快 |
| 智源研究院 | https://mirror.baai.ac.cn/ollama | 学术镜像,更新及时 |
| 清华大学 TUNA | https://mirrors.tuna.tsinghua.edu.cn/ollama/ | 社区维护,免费稳定 |
方法 3:代理设置(适合无合适镜像时)
# Windows PowerShell
$env:HTTPS_PROXY="http://你的代理地址:端口"{insert\_element\_0\_}
# Linux/macOS
export HTTPS_PROXY="http://你的代理地址:端口"{insert\_element\_1\_}
# 带认证的代理
export HTTPS_PROXY="http://用户名:密码@代理地址:端口"
方法 4:本地导入模型(终极方案,适合超大模型)
- 从国内平台(如 ModelScope、Hugging Face 国内镜像)下载 GGUF 格式模型文件bash运行
# ModelScope 示例(需先安装 modelscope) pip install modelscope -U modelscope download --model=qwen/Qwen1.5-7B-Chat-GGUF --local_dir ./qwen1.5-7b-chat - 创建 Modelfile 导入本地模型bash运行
# 创建 Modelfile echo "FROM ./qwen1.5-7b-chat/qwen1_5-7b-chat-q4_k_m.gguf" > Modelfile # 导入为本地模型 ollama create qwen1.5-7b-chat -f Modelfile # 运行模型 ollama run qwen1.5-7b-chat
三、验证加速效果
# 查看当前镜像配置
echo $OLLAMA_MODEL_SERVER # Linux/macOS
echo $env:OLLAMA_MODEL_SERVER # Windows PowerShell
# 测试下载速度(以 llama2:7b 为例)
ollama pull llama2:7b
四、常见问题解决
- 配置后仍慢:重启 Ollama 服务或终端,确保环境变量生效bash运行
# Linux sudo systemctl restart ollama # macOS brew services restart ollama # Windows 重启命令行或电脑 - 镜像源失效:切换到其他镜像源(如从官方镜像切换到阿里云镜像)
- 代理连接失败:检查代理地址和端口,确保代理支持 HTTPS 协议Ollama
![图片[1]-Ollama 下载加速完整指南(软件 + 模型)-天煜博客](https://blog.itianyu.cn/wp-content/uploads/2026/04/20260422192811319-Gemini_Generated_Image_l38hphl38hphl38h-1024x559.png)
© 版权声明
转载请注明出处,并标明原文链接。
本网站尊重知识产权,如有侵权,请及时联系我们删除。
本站所有原创内容仅用于学习和交流目的,未经作者和本站授权不得进行商业使用或盈利行为。
本网站尊重知识产权,如有侵权,请及时联系我们删除。
本站所有原创内容仅用于学习和交流目的,未经作者和本站授权不得进行商业使用或盈利行为。
THE END












暂无评论内容