C_Meng PSNA

Never wait for the storm to pass, just dance in the rain.

0%

如何在mac上安装openclaw,并使用本地大模型

在Mac上搭建本地大模型环境,OpenClaw(一款开源的大模型管理/运行工具)搭配Ollama(轻量本地大模型运行器)是非常便捷的组合——无需复杂配置,新手也能快速上手。本文将详细补全每一步操作,从Ollama安装、模型选择,到Homebrew配置、OpenClaw安装,再到最终对接测试,全程实操无废话,亲测可用(适配Intel芯片和Apple Silicon芯片Mac)。

安装ollama

Ollama是核心工具,负责本地运行大模型,支持一键下载、启动模型,无需手动配置依赖,是Mac上运行本地大模型的首选工具,兼容所有Mac系统(macOS 10.15及以上)。

下载、安装ollama

官网直接下载(推荐)
访问Ollama官方网站:https://ollama.com/,点击页面中间的「Download for macOS」,下载后得到.dmg安装包,双击打开,将Ollama拖拽到「应用程序」文件夹即可完成安装。

注意:若提示“无法打开”,先点击弹窗上的取消,需在「系统设置→隐私与安全性」中,允许“来自未知开发者”的Ollama运行或者open anyway(仅首次安装需要)。

选择适合自己的本地大模型

Ollama支持多种主流本地大模型(如Llama 3、Qwen、Gemini、Mistral等),不同模型的体积、性能、显存要求不同,需根据自己Mac的配置(主要是内存/显存)选择,避免出现“模型无法启动”“运行卡顿”的问题。

Ollama的模型名称都带有后缀,后缀代表模型的量化版本,直接决定模型体积和显存占用,新手优先选择「Q4_K_M」后缀,兼顾性能和占用:

  • Q2_K:最小量化,体积最小,显存占用最低,性能一般,适合4GB内存的Mac;
  • Q4_K_M:平衡版(推荐),体积适中,显存占用较低,性能接近原始模型,适合8GB及以上内存的Mac;
  • Q6_K:高量化,体积较大,性能较好,适合16GB内存的Mac;
  • Q8_0:几乎接近原始模型,体积最大,性能最好,适合32GB及以上内存的Mac。

常见推荐模型(Mac适配度高):

  • 入门首选:llama3:8b-q4_k_m(Llama 3 8B,平衡版,适合大多数Mac);
  • 轻量首选:qwen:7b-q4_k_m(通义千问7B,中文支持更好,体积略小);
  • 性能首选:gemini:pro-q4_k_m(Gemini Pro,多模态支持,适合16GB内存Mac)。

本地大模型运行的核心限制是「显存」(Mac的内存和显存是共享的,所以内存大小直接决定能运行的模型),简单计算方法:模型参数(如8B、7B)× 量化系数 ≈ 所需显存(单位:GB)。

举个例子:

  • llama3:8b-q4_k_m:8B参数 × 0.45(Q4_K_M量化系数)≈ 3.6GB显存,8GB内存的Mac可流畅运行;
  • qwen:14b-q4_k_m:14B参数 × 0.45 ≈ 6.3GB显存,建议16GB内存的Mac运行;
  • llama3:70b-q4_k_m:70B参数 × 0.45 ≈ 31.5GB显存,仅适合32GB及以上内存的Mac。

注意:Mac运行模型时,系统本身会占用2-3GB内存,所以选择模型时,需预留至少2GB内存,避免系统卡顿。

安装并确认是否可以正常使用

安装完成并选择好模型后,先测试Ollama是否能正常启动模型,步骤如下:

  1. 打开终端,输入模型下载命令(以入门推荐的llama3:8b-q4_k_m为例):

ollama pull llama3:8b-q4_k_m

  1. 等待下载完成(模型大小约4GB,下载速度取决于网络,建议连接WiFi);

  2. 下载完成后,输入启动命令,测试模型响应:

ollama run llama3:8b-q4_k_m

  1. 终端出现「>>>」提示符后,输入任意问题(如“介绍一下OpenClaw”),模型会自动生成回答,说明Ollama和模型都能正常使用;

  2. 退出模型:输入/bye,回车即可退出。

常见问题:若下载模型时提示“网络超时”,可尝试切换网络(如手机热点),或重复输入pull命令;若启动模型时提示“out of memory”,说明模型显存要求超过Mac内存,需更换更小的模型(如换成qwen:7b-q4_k_m)。

安装homebrew

Homebrew是Mac上的包管理工具,相当于Windows的“应用商店”。其实openclaw的一键安装脚本中已经包括了homebrew的安装,我们单独安装它,主要是为了:① 替换国内源,解决官方源下载速度慢、卡顿的问题;② 避免后续安装OpenClaw时出现sudo权限不足的问题(很多终端命令需要sudo权限,Homebrew可自动处理)。

注意:如果你的Mac已经安装过Homebrew,可跳过这一步,但建议按照下面的“国内源配置”,替换成国内源,避免后续安装出错。

通过国内的源安装

官方Homebrew源在国内访问速度较慢,这里使用「中科大源」安装,步骤如下:

  1. 打开终端,输入以下命令(一键安装,包含国内源配置),回车后按照提示操作:
    /bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
  2. 执行命令后,会出现源选择界面,输入「1」(中科大源,推荐),回车;
  3. 然后按照提示,输入Mac的开机密码(输入时终端不会显示密码,直接输入即可,回车确认);
  4. 等待安装完成,过程约5-10分钟(取决于网络),出现“安装成功”的提示即完成。

重启命令行!!然后确认是否安装成功

重要:安装完成后,必须关闭当前所有终端窗口,重新打开一个新的终端(这一步不能省略,否则Homebrew无法正常生效)。

确认安装成功:在新终端中输入 brew –version,若输出类似「Homebrew 4.2.20」的版本信息,说明安装成功;若提示“command not found: brew”,说明未重启终端,或安装失败,可重新执行安装命令。

补充:若已安装Homebrew,仅需替换国内源,可输入以下命令(依次执行):

brew tap –custom-remote –force-auto-update homebrew/core https://mirrors.ustc.edu.cn/homebrew-core.git

brew tap –custom-remote –force-auto-update homebrew/cask https://mirrors.ustc.edu.cn/homebrew-cask.git

安装openclaw

OpenClaw是一款开源的本地大模型管理工具,支持图形化界面(也可终端操作),能快速对接Ollama、ChatGLM等本地大模型,还能实现模型切换、对话记录保存等功能,比直接用终端操作Ollama更便捷

注意:OpenClaw依赖Homebrew,必须先安装好Homebrew,才能正常安装OpenClaw。

命令行一键安装

打开新的终端,输入以下命令(一键安装,自动依赖Homebrew),回车后等待安装完成:

curl -fsSL https://openclaw.ai/install.sh | bash

配置openclaw

安装完成后就会自动进入第一次简单配置(具体选啥可以从下边找,不确定的一般直接按默认来就行,后边都能改)。

这里按照安装完成后,在终端输入:openclaw config,进入配置会看到:

Select sections to configure:
workspace / model / gateway / web tools / daemon / channels …

初次配置只搞这三个:

  • workspace
  • model
  • gateway

workspace配置

直接回车使用默认路径即可:~/.openclaw

这是 OpenClaw 的工作区,后面所有配置都在这里。

model配置

选择:

然后选择你已经通过 Ollama 下载好的模型,例如:

  • llama3.2:latest
  • qwen2.5:latest
  • deepseek-r1:7b

gateway配置

这样选:

选项 选择
Gateway bind mode loopback
Gateway auth token
Token source generate
Tailscale exposure off

这些组合代表:只在本机运行,自动生成安全 token,不暴露到外网。

Token记得复制一下,后边openclaw图形界面登录需要。

整体运行

ollama运行

ollama serve

ollama launch openclaw

openclaw运行

openclaw gateway start

整体测试

在openclaw的可视化页面上,默认是http://127.0.0.1:18789/,和大模型对话,看看是否可以跑通