用“大白话”操控Excel,我们是在告别表格噩梦还是安全底线
2026年3月6日,OpenAI正式发布ChatGPT for Excel测试版,面向美国、加拿大和澳大利亚的商业及教育用户开放。这款插件号称能让金融分析师用“大白话”完成跨表建模、情景分析、财报提取等高阶任务,但其背后潜藏的安全风险同样不容忽视——尤其当它要处理包含INDIRECT、DDE或外部数据拉取函数的Excel文件时。先看它能做什么。根据OpenAI官方说明,ChatGPT for Excel基于GPT-5.4模型,支持自然语言指令直接在Excel中构建动态财务模型。例如,用户只需输入“基于过去三年收入和成本,预测未来两年EBITDA,并做三种情景分析(乐观/中性/悲观)”,AI即可自动生成带公式联动的多Sheet模型,保留原有格式与假设逻辑。更关键的是,它已集成FactSet、道琼斯Factiva、LSEG、标普全球等金融数据库,可一键从监管文件、电话会议记录中提取结构化数据,生成信用分析或估值摘要。这意味着尽职调查中的信息抽取环节,可能从数小时压缩至几分钟。但这把“效率快刀”也极其锋利——稍有不慎就会割伤自己。问题出在Excel本身的设计上。作为全球最广泛使用的电子表格工具,Excel长期被安全研究者称为“世界上最危险的软件”。其支持的高危函数如INDIRECT(动态引用)、DDE(动态数据交换)、WEBSERVICE(外部数据获取)等,可被恶意构造为“静默执行”的攻击载荷。而ChatGPT for Excel在解析用户上传的工作簿时,若未严格隔离这些函数的执行环境,就可能被诱导执行非预期操作——比如自动从外部服务器拉取敏感数据,或通过隐藏注释触发提示词注入(Prompt Injection),导致敏感信息被提取或关键财务记录被修改。值得警惕的是,这类风险并非理论推测。Claude in Excel的官方安全文档明确警告:在特定条件下,若用户允许Claude不经验证执行操作,其可能被诱导执行恶意指令,包括通过公式、网络搜索或文件系统访问等方式提取并共享敏感信息,修改关键财务记录,以及跨多个工作表删除或破坏数据。而上海财经大学团队开发的FinVault基准测试显示,即便是当前最安全的金融AI助手,仍有20.56%的预设漏洞可被利用。换言之,当你让AI“帮忙整理供应商报价表”时,如果该表格来自未经验证的第三方,你可能正在亲手打开数据泄露的大门。那么,如何安全使用?核心原则是:**信任但必须验证,便利但不能放权**。具体建议包括四点:第一,企业应启用基于角色的访问控制(RBAC),确保只有授权人员能调用外部数据源。第二,强制开启审计日志功能,所有AI操作需留痕可追溯。第三,坚持“操作前确认”机制——好消息是,ChatGPT for Excel默认要求用户授权每项修改,但用户切勿养成“一键同意”的习惯。Claude in Excel在金融场景下支持Sonnet 4.6和Opus 4.6双模型切换,还内置了对pivot table、conditional formatting等原生Excel操作的精细控制,并明确列出七类高危操作(如外部数据获取、动态引用、命令执行)必须弹窗确认。最后回答几个关键疑问:普通用户用自然语言做VLOOKUP确实更快,但复杂建模仍需专业判断;“需确认”机制看似增加步骤,实则将风险控制成本前置,长远看反而节省纠错时间;而随着工作簿复杂度上升,AI的有效性并非线性增长——当模型涉及多层嵌套假设时,人类专家的校验不可或缺。说到底,ChatGPT for Excel不是替代金融分析师的工具,而是放大其生产力的杠杆。但杠杆越长,支点越要稳固。否则,效率提升的背面,就是失控的风险。