写文章
 找回密码
 加入我们
搜索
0赞
赞赏
手机版
扫码打开手机版
把文字装进口袋

微软BitNet颠覆大模型:CPU跑AI成真,内存暴降72%

0
回复
405
查看
[ 复制链接 ]

30

主题

43

帖子

252

积分

审核员

Rank: 7Rank: 7Rank: 7

积分
252
影响力
61
贡献度
30
义币
181
当大模型告别"显卡依赖症"

圈里最近有个消息挺有意思——微软发布了一个叫 BitNet b1.58 的技术,直接把"大模型必须靠显卡"这个惯性思维给掀了。

之前大家的共识是:大模型 = 烧显卡。没有 3090、4090,你根本跑不起来。但微软这次偏要说:我偏不。

三进制权重,内存暴降72%

BitNet b1.58 的核心思路,说白了就是"三进制"AI模型——权重只有 -1、0、+1 三种值,不像传统模型那样用 FP16 或 FP32 存储。

这直接带来一个改变:70亿参数的模型,传统方式需要 14GB 内存,而 BitNet b1.58 只要 3.9GB,省了 72%。更小的 1.58B 版本,内存占用直接降到 1GB 以下。

CPU直接跑,速度还更快

官方实测,在消费级显卡上只需 2GB 显存就能跑 3B 模型。更小的版本,用 CPU 直接跑,速度比传统量化方案快 2-4 倍。

原理不复杂:传统 GPU 跑 AI 需要大量矩阵乘法,功耗高。但到了 -1/0/+1 这种三进制,矩阵乘法就变成了简单的加法和计数——99% 的运算变成了加减法。

这意味着什么?普通电脑、MacBook、甚至一些移动设备,以后都能跑大模型了。不是那种几亿参数的小玩具,是真的能用的几十亿参数的主流模型。

精度几乎不降

很多人会问:权重简化成这样,效果会不会崩?

微软的测试数据显示,用三进制训练的模型,困惑度和原版 FP16 模型差距极小。换句话说,这个方案不是"差不多能用",是真的有竞争力的。

现在已经开源

BitNet 已经在 GitHub 上开源,模型可以直接从 Hugging Face 下载,还支持用 llama.cpp 直接加载运行。如果你想本地试一把,建议从 1.58B 的小版本开始,体验会最明显。

当大模型不再需要专业显卡,"AI普及"这件事,才真正开始。

你的设备是什么配置?有没有兴趣试试 CPU 跑大模型的感觉?



—— 宗式讲义智能实验室

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?加入我们

x
2026-4-3 21:31:08

使用道具 举报

您需要登录后才可以回帖 登录 | 加入我们

本版积分规则