“操作系统"这个词,正在 50 年来第一次被重新定义
The Pragmatic Engineer 的 Gergely Orosz 最近发了一篇深度访谈,主题是 “How will AI change operating systems? Part 1: Ubuntu and Linux”。Canonical CEO Mark Shuttleworth 在里面抛出了一个不太有人讨论但极其重要的判断:
“在过去 30 年里,操作系统本质上是给人写程序、给人用 shell 的。下一代 OS 的第一公民用户不再是人,而是 agent。”
这句话听上去有点像 keynote 套话,但放到 2026 年这个节点,它其实是被多个独立信号印证的趋势:Apple 的 App Intents、Microsoft 的 Copilot Runtime、Google 的 Android XR 和 Gemini-on-device、再加上 Ubuntu 24.10 之后逐步引入的 “AI Stack”——四个最大的 OS 厂商,正在用不同的姿势回答同一个问题:当 AI Agent 成为应用层的主要消费者,OS 内核需要长出哪些新器官?
本文不打算追这条新闻本身,而是想拆一个更结构化的问题:AI 时代的"操作系统"到底要解决什么过去解决不了的事?以及,这会怎样重画 Linux/Windows/macOS 的竞争格局?
一、传统 OS 的三大抽象,正在被 AI 工作负载击穿
POSIX 那一套抽象(进程、文件、socket、用户/权限)是为 1970 年代的多用户分时系统设计的。它在 2026 年仍然有效,但有三个地方明显跟不上 AI 工作负载:
| 抽象层 | 传统 OS 假设 | AI 工作负载实际需求 |
|---|---|---|
| 进程模型 | CPU 时间片调度 | GPU/NPU 张量调度 + KV Cache 共享 |
| 文件系统 | 块/页缓存 | 模型权重的 mmap + 跨进程 zero-copy |
| 权限模型 | uid/gid + capabilities | Agent 行为的语义级授权 |
| IPC | pipe/socket/dbus | 结构化工具调用(function calling) |
| 安全沙箱 | seccomp/AppArmor | LLM 提示注入 + 输出动作约束 |
这张表里最关键的一行是最后一行——安全沙箱。这是 Apple 与 Microsoft 在 2024-2025 年走得最深的一段。Apple 的 App Intents + Live Activities 本质上是把"应用能为 AI 提供哪些动作"这件事写成了 OS 级别的 manifest;Microsoft 的 Copilot Runtime 则在 Windows 11 24H2 引入了 Recall API + App Actions,让任何 AI Agent 在调用第三方应用时,必须经过一层 OS 仲裁。
Linux 这边走得慢,但 Canonical 给出的方向更激进:Mark Shuttleworth 在访谈里提到,Ubuntu 26.04 LTS 的目标是把 snap 升级成"AI-aware sandbox”,让一个 agent 容器在执行 shell 命令前,OS 能先在一个被严格隔离的副本环境里 dry-run 一遍,预测影响后再放行。如果做成,这相当于把 macOS 的 TCC 和 Linux Namespace 的能力杂交出一种新的"语义级 sandbox"。
二、推理工作负载逼迫内核长出新器官
更底层的变化发生在内核调度。我们今天的 Linux 内核根本不知道 LLM 推理是什么。但当一台机器上同时跑十几个本地 agent,每个 agent 又复用同一个 7B/13B 基座模型时,下面这些事情成为必需:
1. KV Cache 跨进程共享(KVMM)。 当多个 agent 调用同一个 base model,它们的 attention KV cache 大概率是大段相同的(system prompt、common context)。今天没有 OS 原语让多个进程共享 KV cache。NVIDIA 在 2026 年初放出的 NIXL(NVIDIA Inference Xfer Library)和正在 Linux 上游讨论的 GPU memory cgroup v2,正是要补这一块。
2. NPU 调度成为一等公民。
Apple Silicon、Qualcomm Hexagon、Intel NPU、AMD XDNA 都已经进入消费级产品,但 Linux 内核里 NPU 还多半挂在 misc-class 设备节点下,跟一个 USB 打印机的待遇差不多。Android 的 NNAPI 已经开始转向更细粒度的 WorkingSet 调度,Linux 主线在 2026 年要不跟进,要不被 Android 抢走最大的端侧 AI 用户基数。
3. 模型权重的存储抽象。
一个 7B FP16 模型 14GB,量化到 4bit 也有 4GB。今天每个应用各自加载一份是巨大的浪费。Apple 的 Foundation Models framework 在 macOS 26 / iOS 26 已经做了"系统级共享权重池",应用调用 LLMSession.default() 时根本看不到模型文件。Linux 还在 mmap+ELF 时代。
把这三件事拼起来,你会发现:新一代 OS 的核心命题,是把"模型"提升为和"进程"、“文件”、“网络"并列的第四类系统资源。
三、四大阵营的不同打法
这里给一张比较直观的横评:
| 厂商 | 端侧策略 | OS 集成深度 | 短板 |
|---|---|---|---|
| Apple | Foundation Models on-device + Private Cloud Compute | 极深,App Intents 已是平台合约 | 模型规模受 Mac/iPhone 内存带宽限制 |
| Microsoft | Copilot Runtime + Phi/SLM | 较深,Recall+Actions+SLM API | 隐私争议大;NPU 碎片化 |
| AICore + Gemini Nano + Android XR | 中等,主要赌移动+车机 | 桌面 ChromeOS 影响力下滑 | |
| Canonical / Linux | snap-AI sandbox + Ollama 集成 | 浅,靠社区拼图 | 没有统一的应用 manifest 标准 |
我个人判断:
- Apple 在端侧 AI OS 的赛道上目前领先 12-18 个月,因为它是唯一一家同时控制硬件 NPU、OS 内核、应用商店的玩家。
- Microsoft 是企业 AI OS 的潜在赢家,但前提是它能解决 Recall 暴露的隐私惨案——后续 NPU + TPM 硬件信任根的方案是关键。
- Google 在移动端能赢,但它对 PC 端基本放弃,留下了一个真空。
- Linux 阵营最大的机会其实在服务器——当数据中心从 K8s 走向 Agent Orchestration,Linux 内核如果先做好 KV Cache 共享、NPU/GPU cgroup、模型权重共享池这"AI 三件套”,可以拿下未来 5 年云端推理 OS 的主导权。
四、对开发者意味着什么:从写应用到写"动作"
最后回到开发者视角。如果你是应用开发者,未来 2 年最大的 API 变化不是来自前端框架或云厂商,而是来自 OS:
- App Intents / App Actions / D-Bus AI extensions 会成为应用要不要被 agent “看见"的关键。没有暴露 intents 的 app,事实上等于在新生态里隐身。
- 本地 LLM 调用会从"自己 ship 一个 GGUF"变成"调用 OS 提供的 default model”。Apple 已经走完,Windows/Android 跟进中,Linux 大概率收敛到一个 D-Bus 协议(类似 GNOME Online Accounts 的演化路径)。
- 安全模型从"沙盒里跑代码"变成"被 LLM 中介的动作请求"。开发者要思考的不再是"我能读哪个文件",而是"我的应用能被 agent 用什么自然语言指令调用,副作用是否可逆"。
这是 50 年来第一次,应用与 OS 的合约从 syscall 变成了 intent。
结语:下一个十年,最被低估的 OS 战争
围绕大模型本身的喧嚣已经持续 3 年了,但 OS 这一层的洗牌才刚刚开始。模型本身会越来越同质化(开源的 DeepSeek/Llama 系把闭源模型逼到墙角),真正决定用户体验和生态护城河的,是操作系统能不能在内核层为 agent 提供原生的资源、权限、调度抽象。
下一个伟大的操作系统,不是给人写代码的——是给 agent 写动作的。
引用与延伸阅读
- The Pragmatic Engineer – How will AI change operating systems? Part 1: Ubuntu and Linux — https://newsletter.pragmaticengineer.com/p/ubuntu-and-ai
- Apple Developer – Foundation Models framework & App Intents — https://developer.apple.com/documentation/foundationmodels
- Microsoft Build 2024/2025 – Copilot Runtime, Recall, App Actions — https://learn.microsoft.com/windows/ai/
- Android Developers – AICore & Gemini Nano on-device APIs — https://developer.android.com/ai
- NVIDIA Developer Blog – NIXL: NVIDIA Inference Xfer Library — https://developer.nvidia.com/blog/
- Linux kernel cgroup v2 GPU memory proposal — https://lwn.net/