Maurice Wu
Published on

ollama 体验

在 ubuntu 24.04 上安装 ollama, 运行本地大模型。

机器参数: AMD Ryzen™ 5 PRO 4650U with Radeon™ Graphics × 12 16 GB memory ubuntu 24.04

1. 手动下载 Ollama

目前 ollama 最新版本是 0.5.12

curl -o ollama-linux-amd64.tgz "https://github.com/ollama/ollama/releases/download/v0.5.12/ollama-linux-amd64.tgz"

我的机器支持 AMD GPU(ROCm),还需要额外下载:

curl -o ollama-linux-amd64-rocm.tgz "https://github.com/ollama/ollama/releases/download/v0.5.12/ollama-linux-amd64-rocm.tgz"

2. 解压并安装 Ollama

选择安装目录,通常是 /usr/local/lib/ollama

sudo mkdir -p /usr/local/lib/ollama
sudo tar -xzf ollama-linux-amd64.tgz -C /usr/local/lib/ollama
sudo tar -xzf ollama-linux-amd64-rocm.tgz -C /usr/local/lib/ollama

3. 创建 Ollama 可执行文件的符号链接

sudo ln -sf /usr/local/lib/ollama/bin/ollama /usr/local/bin/ollama

4. 配置 systemd 服务

创建 ollama 运行用户:

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
# 确保 Ollama 服务能够访问必要的硬件资源(如 GPU)
sudo usermod -a -G render ollama
sudo usermod -a -G video ollama
# 将当前用户加入 ollama 用户组
sudo usermod -a -G ollama $(whoami)

创建 systemd 服务文件:

sudo tee /etc/systemd/system/ollama.service > /dev/null <<EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/bin:/usr/bin:/bin"

[Install]
WantedBy=default.target
EOF

启用并启动 Ollama 服务:

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

5. 确保 AMD ROCm 运行(如果使用 GPU)

确保 ROCm 驱动已安装:

sudo apt install -y rocm-dev

然后检查 AMD GPU 是否被识别:

rocminfo
# 应该能看到 name: gfxxx 之类的信息。

如果一切正常,Ollama 就可以使用 GPU 进行推理了。

6.拉取模型和启动

ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
courier-new-fallback-font