无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测32GB版可跑32B参数模型

对于需要轻薄笔记本的用户,一定会考虑要不要入手Apple最新推出的M4 MacBook Air,而在这AI时代里,除了一般的效能和续航力之外,很多人还会考量是否能在本地运行AI模型,而MacBook Air没有内置风扇,一定会担心是否代表AI性能没有很好?

稍早知名评测频道极客湾Geekerwan分享的M4 MacBook Air评测视频中,就有提供AI模型的测试数据,如果你是买32GB内存版本,那32B的AI语言模型也跑得动。

无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测 32GB 版可跑 32B 参数模型 - 安卓手赚网

无风扇 M4 MacBook Air 运行 AI 大语言模型比 Intel Ultra 7 258V 笔记本还强

在先前的 M4 MacBook Air 发布会文章中,我们已经有详细介绍其特色,极客湾Geekerwan 视频中也有分享很多性能测试,有兴趣了解的人,可以观看文末视频,这边直接来看 AI 大语言模型的测试数据。。

M4 MacBook Air 有提供 16GB、24GB 以及 32GB 三种内存容量选择,既然是统一内存,对于 AI 应用来说,当然是越高越好,非常推荐直上 32GB,而极客湾Geekerwan 测试使用的 M4 MacBook Air 也是 32GB 版本。

M2 和 M3 时代的 MacBook Air 最大只到 24GB,这次 M4 多了 32GB 选项,真的是一大好消息:
无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测 32GB 版可跑 32B 参数模型 - 安卓手赚网

测试的软件则是 Ollama,相较于 Intel,Mac 在本地部署 Ollama 的方式很简单,只需要到官网下载安装文件,然后照步骤安装即可部署完成:
无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测 32GB 版可跑 32B 参数模型 - 安卓手赚网

极客湾Geekerwan测试无论是DeepSeek-R1的32B参数模型,还是Qwen 32B模型,M4 MacBook Air都跑得动。 虽然可以,但我看视频的输出速度还是稍微慢一点,我是觉得 14B 更推荐:
无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测 32GB 版可跑 32B 参数模型 - 安卓手赚网

之前他们也有测试Intel Ultra 7 258V +32GB内存的笔记本,如果是在GPU上运行,会跑不到,出现内存出错,但切换成CPU后就没问题,不过速度超级慢。 由此可见是 GPU 显示内存无法满足 32B 模型需求:
无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测 32GB 版可跑 32B 参数模型 - 安卓手赚网

下图是实际数据,M4 MacBook Air 运行 DeepSeek 7B 模型时,可提供 20.8 tokens/s、14B 为 11 tokens/s、32B 则是 4.9 tokens/s,M3 MacBook Air 他们使用的是 16GB 版,14B 也没问题,也有 9.9 tokens/s 的速度,但 32B 就内存不足了:
无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测 32GB 版可跑 32B 参数模型 - 安卓手赚网

而跟竞争对手Intel Ultra 7 258V相比,M4 MacBook Air明显快不少,尤其是32B模型。

续航测试也分享给大家,M4比上一代M3还多了1小时21分钟,达到将近14小时:
无风扇 M4 MacBook Air 可在本地部署 AI 语言模型吗? 实测 32GB 版可跑 32B 参数模型 - 安卓手赚网

(1)
CodeMasterXCodeMasterX

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注