AI PC这两年讲了太多宏大词:NPU、端侧推理、混合AI、隐私计算。但真正能让普通办公室用户立刻理解的场景,可能不是写代码,也不是生成视频,而是做PPT。
Intel和ChatPPT公布的合作,正好抓住了这个非常普通但非常高频的工作流。ChatPPT原本主要依赖云端生成演示文稿,现在推出Intel AI PC Edition,把部分能力放到本地AI PC上运行,形成云端和本地结合的混合AI方案。
Intel给出的结果很直接:云端Token成本降低超过50%,工具使用时长提升32%。这两个数字比“某某模型提升多少分”更容易被企业听懂,因为它们对应的是成本和留存。
为什么偏偏是PPT
做PPT是一个很适合AI PC验证价值的场景。它不是一次性炫技,而是大量知识工作者每个月都会反复遇到的任务。Intel引用的调研显示,办公室员工每月会花不少时间做演示文稿,其中相当一部分消耗在排版和格式调整上。
这类任务有三个特点:输入材料多,输出格式固定,用户对等待时间敏感。文件、网页、图片、讲话稿都可能成为输入;输出又必须变成能展示的页面;如果每一步都走云端,成本和延迟都会累积。
把一部分任务放到本地之后,AI PC就有了存在感。它不是为了证明电脑也能跑模型,而是让一个真实应用少花钱、响应更快、数据更少离开本机。
混合AI比纯本地更现实
很多端侧AI叙事容易走极端:要么所有东西都上云,要么所有东西都本地跑。但办公软件更可能走中间路线。
复杂生成、长文理解、大模型规划可以继续调用云端;格式处理、素材整理、局部改写、文档渲染、简单多模态识别,则可以尽量放到本地。这种混合架构的好处,是不用等本地小模型一次性追上云端大模型,也不用让每个低价值步骤都消耗昂贵Token。
ChatPPT这次的意义就在这里。它不是把AI PC包装成一个万能大脑,而是把一个很窄的成本问题拆开:哪些步骤必须用云?哪些步骤可以交给本机?哪些任务本地化以后,用户体验和商业账都能变好?
AI PC的竞争会落到应用账本上
芯片厂商当然希望用户记住NPU性能,但企业采购更关心的是另一本账:软件能不能省钱,员工会不会更常用,敏感资料能不能少出门,部署和维护是不是更简单。
如果Intel和ChatPPT这样的案例变多,AI PC的卖点就会从“我有AI硬件”变成“这个应用因为本地AI变便宜、变快、变安全”。这才是AI PC真正有机会被接受的方式。
PPT生成只是一个入口。后面可以是合同草稿、客服知识库、销售材料、报销审核、会议纪要。每一个场景都不够酷,但每一个都能算账。AI PC要想从概念变成销量,可能就得靠这些一点都不酷、但每天都有人打开的办公流程。