对于需要轻薄笔记本的用户,一定会考虑要不要入手Apple最新推出的M4 MacBook Air,而在这AI时代里,除了一般的效能和续航力之外,很多人还会考量是否能在本地运行AI模型,而MacBook Air没有内置风扇,一定会担心是否代表AI性能没有很好?
稍早知名评测频道极客湾Geekerwan分享的M4 MacBook Air评测视频中,就有提供AI模型的测试数据,如果你是买32GB内存版本,那32B的AI语言模型也跑得动。

无风扇 M4 MacBook Air 运行 AI 大语言模型比 Intel Ultra 7 258V 笔记本还强
在先前的 M4 MacBook Air 发布会文章中,我们已经有详细介绍其特色,极客湾Geekerwan 视频中也有分享很多性能测试,有兴趣了解的人,可以观看文末视频,这边直接来看 AI 大语言模型的测试数据。。
M4 MacBook Air 有提供 16GB、24GB 以及 32GB 三种内存容量选择,既然是统一内存,对于 AI 应用来说,当然是越高越好,非常推荐直上 32GB,而极客湾Geekerwan 测试使用的 M4 MacBook Air 也是 32GB 版本。
M2 和 M3 时代的 MacBook Air 最大只到 24GB,这次 M4 多了 32GB 选项,真的是一大好消息:
测试的软件则是 Ollama,相较于 Intel,Mac 在本地部署 Ollama 的方式很简单,只需要到官网下载安装文件,然后照步骤安装即可部署完成:
极客湾Geekerwan测试无论是DeepSeek-R1的32B参数模型,还是Qwen 32B模型,M4 MacBook Air都跑得动。 虽然可以,但我看视频的输出速度还是稍微慢一点,我是觉得 14B 更推荐:
之前他们也有测试Intel Ultra 7 258V +32GB内存的笔记本,如果是在GPU上运行,会跑不到,出现内存出错,但切换成CPU后就没问题,不过速度超级慢。 由此可见是 GPU 显示内存无法满足 32B 模型需求:
下图是实际数据,M4 MacBook Air 运行 DeepSeek 7B 模型时,可提供 20.8 tokens/s、14B 为 11 tokens/s、32B 则是 4.9 tokens/s,M3 MacBook Air 他们使用的是 16GB 版,14B 也没问题,也有 9.9 tokens/s 的速度,但 32B 就内存不足了:
而跟竞争对手Intel Ultra 7 258V相比,M4 MacBook Air明显快不少,尤其是32B模型。
续航测试也分享给大家,M4比上一代M3还多了1小时21分钟,达到将近14小时: