Ollama 下载加速完整指南(软件 + 模型)

国内用户下载慢的根源是默认连接海外服务器,通过配置国内镜像源设置代理可提升速度 5-10 倍,优先用官方国内镜像阿里云镜像,操作简单且稳定。


一、Ollama 软件安装包加速(Windows/macOS/Linux)

1. 官方国内镜像(推荐)

# Linux/macOS 一键安装(自动切换国内源)
curl -fsSL https://ollama.com/install.sh | sed "s|https://ollama.com/download|https://mirror.ollama.com/download|g" | sh

# Windows 直接下载国内镜像安装包
https://mirror.ollama.com/install/windows/ollama-installer.exe

2. 云服务商镜像(备选)

镜像名称下载地址特点
阿里云https://mirrors.aliyun.com/ollama/install/稳定,国内访问快
智源研究院https://mirror.baai.ac.cn/ollama/install/学术机构维护,更新及时
GitHub 镜像https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download适合特殊版本下载

二、模型下载加速(核心痛点)

方法 1:环境变量配置国内镜像(推荐,最简便)

临时生效(当前终端)

# Windows PowerShell
$env:OLLAMA_MODEL_SERVER="https://mirror.ollama.com"

# Linux/macOS
export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"

永久生效(系统级)

Windows
  1. Win+R 输入 sysdm.cpl 打开系统属性
  2. 高级 → 环境变量 → 新建(用户变量)
  3. 变量名:OLLAMA_MODEL_SERVER,变量值:https://mirror.ollama.com
  4. 重启命令行 / PowerShell 和 Ollama 服务
Linux
# 系统级配置(所有用户生效)
sudo mkdir -p /etc/ollama
echo 'OLLAMA_MODEL_SERVER=https://mirror.ollama.com' | sudo tee /etc/ollama/env
sudo systemctl restart ollama.service

# 用户级配置(仅当前用户)
echo 'export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"' >> ~/.bashrc
source ~/.bashrc
macOS
echo 'export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"' >> ~/.zshrc
source ~/.zshrc
# 重启 Ollama 服务
brew services restart ollama

方法 2:优质国内镜像源列表(按需选择)

镜像名称地址特点
Ollama 官方国内镜像https://mirror.ollama.com官方维护,最稳定
阿里云https://mirrors.aliyun.com/ollama/国内 CDN,速度快
智源研究院https://mirror.baai.ac.cn/ollama学术镜像,更新及时
清华大学 TUNAhttps://mirrors.tuna.tsinghua.edu.cn/ollama/社区维护,免费稳定

方法 3:代理设置(适合无合适镜像时)

# Windows PowerShell
$env:HTTPS_PROXY="http://你的代理地址:端口"{insert\_element\_0\_}

# Linux/macOS
export HTTPS_PROXY="http://你的代理地址:端口"{insert\_element\_1\_}

# 带认证的代理
export HTTPS_PROXY="http://用户名:密码@代理地址:端口"

方法 4:本地导入模型(终极方案,适合超大模型)

  1. 从国内平台(如 ModelScope、Hugging Face 国内镜像)下载 GGUF 格式模型文件bash运行# ModelScope 示例(需先安装 modelscope) pip install modelscope -U modelscope download --model=qwen/Qwen1.5-7B-Chat-GGUF --local_dir ./qwen1.5-7b-chat
  2. 创建 Modelfile 导入本地模型bash运行# 创建 Modelfile echo "FROM ./qwen1.5-7b-chat/qwen1_5-7b-chat-q4_k_m.gguf" > Modelfile # 导入为本地模型 ollama create qwen1.5-7b-chat -f Modelfile # 运行模型 ollama run qwen1.5-7b-chat

三、验证加速效果

# 查看当前镜像配置
echo $OLLAMA_MODEL_SERVER  # Linux/macOS
echo $env:OLLAMA_MODEL_SERVER  # Windows PowerShell

# 测试下载速度(以 llama2:7b 为例)
ollama pull llama2:7b

四、常见问题解决

  1. 配置后仍慢:重启 Ollama 服务或终端,确保环境变量生效bash运行# Linux sudo systemctl restart ollama # macOS brew services restart ollama # Windows 重启命令行或电脑
  2. 镜像源失效:切换到其他镜像源(如从官方镜像切换到阿里云镜像)
  3. 代理连接失败:检查代理地址和端口,确保代理支持 HTTPS 协议Ollama
图片[1]-Ollama 下载加速完整指南(软件 + 模型)-天煜博客
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片快捷回复

    暂无评论内容