跳转至

一文看懂 CPU、GPU、内存、显卡、显存 —— 它们与 AI 大模型到底有什么关系?

在学习人工智能或尝试本地部署大模型时,经常会看到一些硬件指标,例如:

  • CPU
  • GPU
  • 内存(RAM)
  • 显卡
  • 显存(VRAM)

很多人第一次接触时都会有疑问:

  • 这些东西到底是什么?
  • 为什么 AI 大模型总是强调 显卡和显存
  • 为什么有些电脑可以跑大模型,有些却很慢甚至无法运行?

这篇文章会用 简单易懂的方式,把这些概念讲清楚,并结合人工智能场景说明它们各自发挥的作用。


一、CPU:计算机的大脑

CPU(Central Processing Unit),中文叫 中央处理器

可以把 CPU 理解为 计算机的大脑,它负责:

  • 执行程序指令
  • 控制系统运行
  • 调度各种资源
  • 处理逻辑计算

日常电脑的大部分操作都离不开 CPU,例如:

  • 打开浏览器
  • 编译代码
  • 运行程序
  • 操作系统管理

例如常见的 CPU:

  • Apple M4
  • Intel Core i9

CPU 的特点

CPU 的设计重点是 通用计算能力

特点:

特点 说明
核心数量 通常 4~32 核
单核性能 很强
计算方式 主要是串行计算

简单理解就是:

CPU 适合做复杂逻辑判断,但不擅长海量重复计算。


二、GPU:专门负责大量计算的处理器

GPU(Graphics Processing Unit),中文叫 图形处理器

最初 GPU 是用来做 图形渲染 的,比如:

  • 游戏画面
  • 3D建模
  • 视频渲染

后来人们发现:

GPU 的结构 非常适合做矩阵运算,而神经网络的核心计算恰恰就是矩阵运算。

例如:

Y = W × X + b

这类计算在 AI 模型中会 重复数十亿次

CPU vs GPU

对比 CPU GPU
核心数量 非常多
计算方式 串行 并行
适合任务 逻辑计算 大规模数学计算

简单理解:

CPU = 一个数学教授
GPU = 上万名小学生同时算题

虽然每个小学生不厉害,但 数量多,算得反而更快。

常见 GPU:

  • NVIDIA RTX 4090
  • NVIDIA A100

三、内存(RAM):程序运行的工作台

内存(RAM) 是电脑运行程序时的 临时工作空间

当你打开一个程序时:

硬盘 → 加载到内存 → CPU运行

内存的特点:

  • 速度非常快
  • 容量有限
  • 断电后数据消失

常见内存容量:

8GB
16GB
32GB
64GB

AI 中内存的作用

在运行 AI 时,内存会存储:

  • 模型加载缓存
  • 中间计算结果
  • Token 数据
  • 推理过程数据

如果内存不足,系统就会:

  • 变慢
  • 卡顿
  • 甚至崩溃

四、显存(VRAM):GPU 的专属内存

显存(VRAM)GPU 专用内存

可以理解为:

RAM = CPU的工作桌
VRAM = GPU的工作桌

当 AI 模型运行时:

模型参数
↓
加载到显存
↓
GPU进行计算

为什么显存非常重要?

因为:

AI模型参数必须放进显存才能计算

例如:

一个 7B 模型

7B = 70亿参数

如果每个参数占 2字节(FP16)

70亿 × 2字节 ≈ 14GB

所以:

7B模型 ≈ 14GB显存

如果显存不够:

  • 模型无法运行
  • 或者速度非常慢

五、显卡:GPU + 显存的整体设备

很多人会混淆 GPU 和显卡

实际上:

显卡 = GPU + 显存 + 电路 + 散热

GPU 是核心芯片。

而显卡是一整块硬件设备。

例如:

显卡 显存
RTX 3060 12GB
RTX 4090 24GB
A100 80GB

AI 领域通常最关注:

显存大小

因为它直接决定 能运行多大的模型


六、AI 大模型为什么需要这么多算力

现代 AI 模型,例如:

  • GPT-4

本质上是 超大规模神经网络

神经网络计算主要是:

矩阵 × 矩阵

例如:

一个大模型可能包含:

数百亿参数

每次生成一句话时,需要进行:

数十亿次计算

如果用 CPU 计算:

速度非常慢

如果用 GPU:

并行计算
速度快几十倍甚至上百倍

所以 AI 训练和推理通常依赖 GPU。


七、本地运行大模型时硬件如何协同工作

AI 模型运行流程大致如下:

硬盘
↓
加载模型
↓
进入内存
↓
加载到显存
↓
GPU计算
↓
生成文本

每个硬件负责不同任务:

硬件 作用
CPU 程序调度
RAM 存储运行数据
GPU 进行模型计算
显存 存储模型参数
硬盘 存储模型文件

八、一个真实例子:运行 8B 模型

例如:

  • Qwen3
  • DeepSeek-R1

8B 模型大概需要:

6GB ~ 10GB 显存

如果你的电脑:

显存不足

可能会:

  • 推理速度非常慢
  • 甚至无法加载模型

这也是为什么很多 AI 开发者会选择高显存显卡。


九、运行 AI 时硬件的重要程度

如果你想本地运行 AI,大致优先级是:

GPU > 显存 > 内存 > CPU

例如:

配置 能运行模型
12GB显存 7B模型
24GB显存 13B模型
80GB显存 70B模型

显存越大,可以运行的模型规模越大。


十、总结

可以用一个简单比喻来理解:

CPU  = 大脑
GPU  = 数学计算机器
RAM  = 工作桌
VRAM = GPU的工作桌
硬盘 = 仓库

AI 模型运行过程:

仓库拿资料(硬盘)
↓
放到桌子上(内存)
↓
交给计算机器(GPU)
↓
生成结果

理解这些硬件概念后,你就能更清楚:

  • 为什么 AI 需要 GPU
  • 为什么显存这么重要
  • 为什么很多大模型需要专业服务器

这也是 AI 工程和传统软件开发在硬件需求上的一个巨大区别。


如果你正在学习 AI 或计划本地运行大模型,下一步建议继续了解几个重要概念:

  • 参数量(7B / 13B / 70B)
  • Token 与上下文长度
  • 模型量化(4bit / 8bit)
  • GPU 算力(TFLOPS)

理解这些指标后,你就能更清楚地判断:

一台电脑是否适合运行某个 AI 模型。

评论